Ανθρωποι και μηχανές

Πριν από 75 χρόνια, ο Αλαν Τούρινγκ, ένας από τους θεμελιωτές της επιστήμης των υπολογιστών, δημοσίευσε την ιστορική εργασία του «Computing Machinery and Intelligence». Σε αυτήν πρότεινε ένα νοητικό πείραμα, το «Παιχνίδι Μίμησης», το οποίο έμελλε να μείνει στην ιστορία ως το Τεστ Τούρινγκ. Το ερώτημα που έθετε τότε ήταν απλό, αλλά προκλητικό: Μπορούν οι μηχανές να σκέφτονται;

Ο Τούρινγκ απέφυγε τον ορισμό των εννοιών «μηχανή» και «σκέψη», θεωρώντας την προσπάθεια αυτή ανούσια. Αντ’ αυτού, εισήγαγε ένα σενάριο: ένας άνθρωπος «ανακριτής» συνομιλεί με δύο μάρτυρες – έναν άνθρωπο και μία μηχανή – χωρίς να γνωρίζει ποιος είναι ποιος. Αν η μηχανή καταφέρει να πείσει τον ανακριτή ότι είναι άνθρωπος, τότε μπορεί να θεωρηθεί σκεπτόμενη.

Παρά τη διαχρονική επιρροή του, το Τεστ Τούρινγκ δεν έχει μείνει αλώβητο από την κριτική. Το 1995, οι ερευνητές Πάτρικ Χέις και Κένεθ Φορντ το χαρακτήρισαν «επιβλαβές» για την έρευνα στην τεχνητή νοημοσύνη. «Για να περάσει κανείς το τεστ», έγραψαν, «δεν χρειάζεται να φτιάξει νοημοσύνη, αλλά έναν πειστικό απατεώνα». Τόνισαν μάλιστα πως πολλοί άνθρωποι δεν θα περνούσαν το τεστ, αναδεικνύοντας τη σχετική του αδυναμία ως μέτρο της ανθρώπινης διάνοιας.

Παρ’ όλα αυτά, νέες έρευνες δείχνουν ότι τα σύγχρονα μεγάλα γλωσσικά μοντέλα (LLMs) ίσως έχουν ήδη περάσει το Τεστ Τούρινγκ. Μια μελέτη από το Πανεπιστήμιο της Καλιφόρνιας στο Σαν Ντιέγκο έθεσε τέσσερα μοντέλα σε δοκιμασία: GPT-4.5, GPT-4o, LLaMA-3.1-405B και το ιστορικό ELIZA – το πρώτο «chatbot» που εισήγαγε το λεγόμενο «φαινόμενο ELIZA», όπου οι άνθρωποι αποδίδουν ανθρώπινα χαρακτηριστικά σε μηχανές.

Τα μοντέλα συμμετείχαν σε συνομιλίες με ανθρώπινους ανακριτές. Οι ανακριτές δεν γνώριζαν με ποιον συνομιλούν και έπρεπε να κρίνουν αν συνομιλητής τους ήταν άνθρωπος ή μηχανή. Κάθε συμμετέχων πήρε μέρος σε οκτώ γύρους, με συνομιλίες διάρκειας λιγότερης των πέντε λεπτών. Το πείραμα έγινε με και χωρίς τη χρήση «persona prompts» – ειδικά σενάρια που ζητούσαν από τα μοντέλα να υιοθετήσουν την προσωπικότητα ενός νεαρού, εσωστρεφούς ατόμου με διαδικτυακή κουλτούρα.

Το αποτέλεσμα; Το GPT-4.5 με ενεργοποιημένη την «προσωπικότητα» κατάφερε να ξεγελάσει τους ανθρώπους στο 73% των περιπτώσεων. Το αντίστοιχο ποσοστό για το LLaMA έφτασε το 56%, ενώ χωρίς persona τα μοντέλα ξεγέλασαν τους ανακριτές μόνο στο 36% και 38% των περιπτώσεων αντίστοιχα. Το GPT-4o και η ELIZA σημείωσαν πολύ χαμηλότερα ποσοστά, κάτω του 25%.

Οι ερευνητές υποστηρίζουν πως, με βάση αυτά τα ευρήματα, τα σύγχρονα γλωσσικά μοντέλα έχουν επισήμως περάσει το Τεστ Τούρινγκ. Τι σημαίνει αυτό στην πράξη;  Οχι απαραίτητα ότι οι μηχανές απέκτησαν νοημοσύνη. Οπως σημειώνει η δρ Μέλανι Μίτσελ, ο Τούρινγκ δεν σχεδίασε το τεστ ως μέτρο νοημοσύνης, αλλά ως πείραμα σκέψης. Η σύγχυση γύρω από την έννοια της νοημοσύνης – και συναφών εννοιών όπως συνείδηση ή ευαισθησία – παραμένει. Σύμφωνα με τη νευροεπιστήμονα Εβελίνα Φεντορένκο, η γλώσσα «αντανακλά τη σκέψη» αλλά δεν είναι η σκέψη που ενεργοποιεί το γλωσσικό σύστημα του εγκεφάλου.

Οι ερευνητές από το Πανεπιστήμιο του Σαν Nτιέγκο στην Καλιφόρνια τονίζουν πάντως την κοινωνική και οικονομική σημασία του αποτελέσματος: αν ένα «chatbot» μπορεί να περάσει για άνθρωπος, αυτό ανοίγει δρόμους για εξαπάτηση, και παραπληροφόρηση – ιδίως σε μια εποχή που οι απάτες με τη χρήση τεχνητής νοημοσύνης αυξάνονται ραγδαία.

Το ερώτημα πλέον ίσως δεν είναι αν οι μηχανές μπορούν να σκεφτούν, αλλά πόσο εύκολα μπορούν να εξαπατήσουν. Οι Χέις και Φορντ πρότειναν να εγκαταλείψουμε το όραμα της «τεχνητής ανθρώπινης νοημοσύνης» και να επικεντρωθούμε στην κατασκευή ευφυών εργαλείων που ενισχύουν τη σκέψη μας, όπως τα μηχανήματα ενισχύουν τους μυς μας.

Το Τεστ Τούρινγκ υπήρξε ορόσημο – αλλά το πραγματικό ερώτημα δεν είναι αν οι μηχανές μπορούν να σκέφτονται, αλλά πόσο εύκολα μπορεί να εξαπατηθεί ο άνθρωπος από αυτές και τι εν τέλει σημαίνει αυτό για την κοινωνία, την ασφάλεια και την ηθική.

Ο Στέλιος Παπαθανασόπουλος είναι καθηγητής στο Τμήμα Επικοινωνίας και ΜΜΕ του Εθνικού και Καποδιστριακού Πανεπιστημίου Αθηνών