Τεχνητή νοημοσύνη: Τα 4+1 οικονομικά στοιχεία που δεν πρέπει να αποκαλύπτουμε ποτέ σε chatbot

Η τεχνητή νοημοσύνη έχει πλέον καθιερωθεί στην καθημερινότητά μας, προσφέροντας πολύτιμα εργαλεία όταν χρησιμοποιείται σωστά. Ωστόσο, η αλόγιστη χρήση της, ιδίως σε θέματα οικονομικού ή προσωπικού χαρακτήρα, μπορεί να εγκυμονεί σοβαρούς κινδύνους. Ποια είναι, λοιπόν, τα στοιχεία που δεν πρέπει ποτέ να αποκαλύπτουμε σε ένα chatbot;

Σύμφωνα με τη Washington Post και έρευνα της Cisco, το 29% των χρηστών παγκοσμίως έχει εισαγάγει ευαίσθητες πληροφορίες – ακόμη και οικονομικά ή ιατρικά δεδομένα – σε chatbots, παρότι το 84% εκφράζει ανησυχία για πιθανή διαρροή τους.

Παράλληλα, μελέτη του Πανεπιστημίου Στάνφορντ που εξέτασε τις πολιτικές απορρήτου εταιρειών όπως Amazon, Google, Meta, Microsoft και OpenAI, αποκάλυψε ότι όλες αξιοποιούν τις συνομιλίες των χρηστών για την εκπαίδευση των μοντέλων τους. Ορισμένες, μάλιστα, διατηρούν τα δεδομένα επ’ αόριστον, γεγονός που αυξάνει τον κίνδυνο απρόβλεπτης χρήσης τους.

Την ίδια στιγμή, η χρήση τεχνητής νοημοσύνης για παροχή οικονομικών συμβουλών αυξάνεται ραγδαία. Σύμφωνα με την TD Bank, το ποσοστό των Αμερικανών που στρέφονται στην AI για οικονομικές αποφάσεις εκτοξεύτηκε από 10% σε 55% μέσα σε έναν χρόνο, φτάνοντας το 77% στη Γενιά Ζ και το 72% στους millennials.

Πέντε πληροφορίες που δεν πρέπει να δίνουμε ποτέ σε chatbot

Όπως αναφέρει το δημοσίευμα, υπάρχουν πέντε κατηγορίες δεδομένων που δεν πρέπει να κοινοποιούμε σε συστήματα τεχνητής νοημοσύνης.

Ονοματεπώνυμο, διεύθυνση, αριθμός ταυτότητας ή κοινωνικής ασφάλισης. Αυτά τα στοιχεία δεν πρέπει να εμφανίζονται σε καμία συνομιλία. Ακόμα κι αν ζητηθούν για λόγους ταυτοποίησης, η ασφάλειά τους δεν μπορεί να θεωρηθεί δεδομένη.

Πληροφορίες για το επάγγελμα ή τον χώρο εργασίας. Τέτοιες λεπτομέρειες μπορούν να αξιοποιηθούν σε επιθέσεις phishing, όπου οι δράστες εκμεταλλεύονται πραγματικά δεδομένα για να εξαπατήσουν τα θύματά τους. Οι ερωτήσεις προς την AI πρέπει να είναι γενικές, χωρίς να αποκαλύπτουν στοιχεία ταυτότητας.

Ακριβή ποσά χρεών. Οι απατεώνες μπορούν να συνδυάσουν τέτοιες πληροφορίες με άλλες διαρροές για να εξαπατήσουν τους πολίτες. Αν χρειάζεται να ζητήσουμε βοήθεια, καλό είναι να χρησιμοποιούμε ενδεικτικά ποσά και να αποφεύγουμε λεπτομέρειες.

Αναλυτικά έξοδα. Ακόμη και μικρές αναφορές σε αγορές ή ποσά μπορούν να αξιοποιηθούν από επιτήδειους για να αποκτήσουν πρόσβαση σε προσωπικά δεδομένα ή τραπεζικούς λογαριασμούς.

Έγγραφα με προσωπικά στοιχεία. Δεν πρέπει να ανεβάζουμε φορολογικές δηλώσεις, αποδείξεις ή αρχεία που περιέχουν αναγνωριστικά δεδομένα, ακόμη κι αν έχουμε διαγράψει ορισμένες πληροφορίες. Όπως επισημαίνουν οι ειδικοί, «ό,τι δεν θα δίναμε σε έναν άγνωστο, δεν πρέπει να το δίνουμε ούτε στην τεχνητή νοημοσύνη».

Το παράδοξο της ιδιωτικότητας

Επιστημονική έρευνα καταγράφει το λεγόμενο «παράδοξο της ιδιωτικότητας»: παρότι οι χρήστες ανησυχούν για την ασφάλεια των προσωπικών τους δεδομένων, συνεχίζουν να τα κοινοποιούν σε εφαρμογές AI. Η μελέτη, που δημοσιεύθηκε στο περιοδικό Online Information Review (OIR) από το Πανεπιστήμιο Τόνγκτζι στη Σαγκάη, δείχνει ότι τα chatbots δημιουργούν ψευδαίσθηση ανθρώπινης επικοινωνίας, οδηγώντας τους χρήστες να αισθάνονται μεγαλύτερη εμπιστοσύνη απ’ ό,τι θα έπρεπε.

Η έρευνα, που ανέλυσε τη συμπεριφορά 480 χρηστών, καταλήγει ότι τόσο οι λογικοί όσο και οι συναισθηματικοί παράγοντες επηρεάζουν τις αποφάσεις σχετικά με το απόρρητο. Όπως σημειώνεται, «οι συναισθηματικοί παράγοντες καθοδηγούν τις αποφάσεις περί απορρήτου, με τους χρήστες να είναι πιο πιθανό να αποκαλύψουν προσωπικές πληροφορίες με βάση θετικές εμπειρίες και ενασχόληση με το ChatGPT».

Πώς να χρησιμοποιούμε με ασφάλεια την τεχνητή νοημοσύνη

Η τεχνητή νοημοσύνη μπορεί να αποτελέσει πολύτιμο εργαλείο, εφόσον χρησιμοποιείται υπεύθυνα. Μπορούμε να τη ρωτήσουμε για γενικά θέματα, όπως τα όρια εισφορών σε συνταξιοδοτικά προγράμματα ή τρόπους αποπληρωμής χρεών, χωρίς να αποκαλύπτουμε προσωπικά δεδομένα.

Επιπλέον, είναι σημαντικό να ελέγχουμε τις ρυθμίσεις απορρήτου, να απενεργοποιούμε τη μνήμη ή να επιλέγουμε εκδόσεις που δεν χρησιμοποιούν τις συνομιλίες για εκπαίδευση του μοντέλου. Όσο λιγότερα δεδομένα μοιραζόμαστε, τόσο πιο ασφαλείς παραμένουμε στον ψηφιακό κόσμο.