Υπάρχει μια περίεργη ειρωνεία στην εποχή της τεχνητής νοημοσύνης. Όσο εμείς ανησυχούμε μήπως η AI γίνει πιο έξυπνη από εμάς, εκείνη –τουλάχιστον προς το παρόν– μας υπερεκτιμά. Μια νέα έρευνα δείχνει ότι τα πιο εξελιγμένα μοντέλα, όπως το ChatGPT της OpenAI και το Claude της Anthropic, θεωρούν ότι οι άνθρωποι σκέφτονται πιο λογικά και πιο στρατηγικά απ’ ό,τι στην πραγματικότητα συμβαίνει.
Κι αν αυτό ακούγεται αθώο, στην πράξη μπορεί να έχει σοβαρές συνέπειες. Γιατί όταν ένα σύστημα που σχεδιάστηκε να προβλέπει ανθρώπινες αποφάσεις βασίζεται σε λανθασμένες υποθέσεις για τη φύση μας, τότε τα αποτελέσματα δεν είναι απλώς ανακριβή – είναι επικίνδυνα.
Το πείραμα που αποκάλυψε την υπερβολική “πίστη” της AI στον άνθρωπο

Η μελέτη βασίστηκε σε ένα παλιό αλλά διαχρονικά αποκαλυπτικό πείραμα από τη θεωρία παιγνίων, γνωστό ως Keynesian beauty contest. Σ’ αυτό, οι συμμετέχοντες δεν κερδίζουν αν απαντήσουν “σωστά”, αλλά αν μαντέψουν τι θα επιλέξουν οι άλλοι. Είναι ένα παιχνίδι για το πώς αντιλαμβανόμαστε τη σκέψη των υπολοίπων – μια άσκηση λογικής μέσα στη λογική.
Οι ερευνητές χρησιμοποίησαν μια εκδοχή που λέγεται “Guess the Number”. Οι παίκτες διαλέγουν έναν αριθμό μεταξύ μηδέν και εκατό. Νικά εκείνος του οποίου ο αριθμός πλησιάζει περισσότερο στο μισό του μέσου όρου όλων των επιλογών.
Η AI κλήθηκε να “παίξει” αυτό το παιχνίδι ενάντια σε ομάδες ανθρώπων: φοιτητές, έμπειρους θεωρητικούς, καθημερινούς παίκτες. Κι ενώ προσαρμοζόταν ανάλογα με το ποιον είχε απέναντι, τα αποτελέσματα έδειξαν πως έκανε ένα θεμελιώδες λάθος – πίστευε ότι οι άνθρωποι θα σκεφτούν ορθολογικά.
Το πρόβλημα δεν είναι η νοημοσύνη της AI, αλλά η πίστη της στη δική μας
Η AI “έπαιζε” πολύ πιο στρατηγικά απ’ όσο το απαιτούσε η πραγματικότητα. Έβλεπε λογική όπου εμείς λειτουργούμε με ένστικτο, σύμβαση ή απλή τύχη. Και το αποτέλεσμα ήταν να “παίζει” υπερβολικά έξυπνα, χάνοντας έτσι το παιχνίδι.
Αυτό δεν είναι απλώς ένα ακαδημαϊκό εύρημα. Είναι ένδειξη ενός χάσματος κατανόησης. Γιατί αν η AI στηρίζεται σε ένα μοντέλο ανθρώπου που δεν υπάρχει –έναν υπολογιστικό, σταθερά λογικό, ψυχρό αναλυτή– τότε πώς θα ερμηνεύσει την ανθρώπινη αβεβαιότητα; Πώς θα προβλέψει οικονομικές συμπεριφορές, κοινωνικές αντιδράσεις ή πολιτικές αποφάσεις, όταν αυτές συχνά κινούνται αντίθετα στη λογική;
Η ψευδαίσθηση της ακρίβειας και ο κίνδυνος της πειθούς
Η ίδια έρευνα υπενθυμίζει και κάτι άλλο: ότι τα σημερινά μοντέλα έχουν μέση “ακρίβεια” γύρω στο 69%. Παρ’ όλα αυτά, μιλούν με τόση αυτοπεποίθηση που κάνουν τον άνθρωπο να πιστεύει πως έχουν δίκιο. Εδώ γεννιέται ο πραγματικός φόβος. Ότι η τεχνητή νοημοσύνη θα μας ξεπεράσει, αλλά ότι θα μας πείσει πως έχει ήδη δίκιο.
Στην Ελλάδα, όπου το κοινό αρχίζει τώρα να εμπιστεύεται εργαλεία AI για καθημερινές αποφάσεις –από επενδύσεις μέχρι εκπαίδευση– το ερώτημα είναι κρίσιμο. Αν οι δημιουργοί χτίσουν μέσα σε αυτά τα συστήματα την ψευδαίσθηση ότι είμαστε απόλυτα λογικοί, τότε τα συστήματα θα προβλέπουν λάθος συμπεριφορές και θα μας οδηγούν σε εσφαλμένες επιλογές.
Το μεγάλο στοίχημα. Να μάθει η AI να υπολογίζει και τα λάθη μας
Ίσως η επόμενη γενιά τεχνητής νοημοσύνης να μην χρειάζεται να γίνει πιο “έξυπνη”, αλλά πιο ρεαλιστική. Να μάθει να προβλέπει τα λάθη μας, όχι να τα αγνοεί. Να αντιλαμβάνεται τη λογική του παράλογου που κάνει τον άνθρωπο τόσο απρόβλεπτο – και γι’ αυτό, τόσο ανθρώπινο.
Γιατί στο τέλος, η AI δεν θα μας ξεπεράσει αν σκέφτεται πιο γρήγορα. Θα μας ξεπεράσει όταν μάθει να κάνει τα ίδια λάθη με εμάς, αλλά για τους σωστούς λόγους.
