Η σκοτεινή πλευρά των chatbots που κανείς δεν θέλει να δει

Σε μια εποχή που η τεχνητή νοημοσύνη υπόσχεται να διευκολύνει τη ζωή μας — από μεταφράσεις μέχρι δημιουργικές εικόνες — αρχίζουν να αναδύονται πλευρές που μας κάνουν να σταματάμε και να σκεφτόμαστε τι κόστος έχει αυτή η “πρόοδος”. Ένα πρόσφατο ρεπορτάζ του WIRED αποκάλυψε ότι δημοφιλή AI συστήματα όπως το Gemini της Google και το ChatGPT Images της OpenAI μπορούν, υπό συγκεκριμένες συνθήκες, να παράγουν εικόνες όπου γυναίκες εμφανίζονται με μαγιό, ακόμη κι αν στην αρχική φωτογραφία φορούσαν κανονικά ρούχα — χωρίς καμία συναίνεση από τα πρόσωπα που απεικονίζονται.

Δεν μιλάμε απλώς για τεχνική αστοχία ή για πείραμα. Μιλάμε για παραδείγματα όπου οι μηχανισμοί ασφαλείας (guardrails) παρακάμφθηκαν σκόπιμα από χρήστες, με τη βοήθεια κοινοτήτων στο Reddit και άλλα φόρουμ. Εκεί ανταλλάσσονται προτροπές και οδηγίες για να δημιουργούνται bikini deepfakes — εικόνες που δείχνουν γυναίκες σε “πειραγμένες” εκδοχές τους. Αυτή η πρακτική, όσο εύκολη κι αν φαίνεται, αποτελεί μορφή ψηφιακής κακοποίησης.

Το φαινόμενο ξεπερνά τα όρια της τεχνολογίας και αγγίζει βαθύτερα κοινωνικά και ηθικά ζητήματα. Όταν η τεχνητή νοημοσύνη χρησιμοποιείται για να παραβιάζει την ιδιωτικότητα και την αξιοπρέπεια ανθρώπων, η συζήτηση δεν αφορά πλέον το software, αλλά την κοινωνία που το χρησιμοποιεί. Κι αυτός είναι ο πραγματικός κίνδυνος: η κανονικοποίηση μιας συμπεριφοράς που μετατρέπει τη δημιουργικότητα σε εργαλείο προσβολής.

Το νομικό κενό και η ευρωπαϊκή μάχη με τα deepfakes

Η Ευρώπη επιχειρεί να θεσπίσει κανόνες για την τεχνητή νοημοσύνη μέσα από το AI Act, το πρώτο μεγάλο ρυθμιστικό πλαίσιο της ΕΕ. Ωστόσο, ακόμη κι αυτό δεν αντιμετωπίζει άμεσα τη δημιουργία deepfakes από απλούς χρήστες. Το άρθρο 52 του AI Act προβλέπει ότι το περιεχόμενο που δημιουργείται τεχνητά πρέπει να φέρει σαφή ένδειξη ότι δεν είναι πραγματικό — αλλά ποιος το ελέγχει όταν τέτοιες εικόνες κυκλοφορούν σε ιδιωτικά κανάλια ή σε servers που λειτουργούν εκτός δημόσιου ελέγχου;

Η Ευρωπαϊκή Επιτροπή εξετάζει τη δημιουργία ενός μηχανισμού άμεσης αναφοράς deepfakes, που θα υποχρεώνει τις πλατφόρμες να κατεβάζουν γρήγορα τέτοιες εικόνες όταν υπάρχει καταγγελία. Όμως στην πράξη, η εφαρμογή παραμένει περιορισμένη. Οι εθνικοί νόμοι — συμπεριλαμβανομένης της ελληνικής νομοθεσίας — δεν έχουν προσαρμοστεί πλήρως για να ορίζουν ρητά τη μη συναινετική δημιουργία συνθετικών εικόνων ως ποινικό αδίκημα.

Η τεχνολογία προχωρά με ρυθμούς startup, ενώ η δικαιοσύνη κινείται με βήματα επιτροπής. Μέχρι να βρεθεί ισορροπία, η ζημιά γίνεται. Οι εικόνες κυκλοφορούν, η φήμη καταστρέφεται, και το ίντερνετ δεν ξεχνά.

Η λύση ίσως να μην είναι μόνο νομική, αλλά και τεχνολογική: οι ίδιες οι εταιρείες οφείλουν να ενισχύσουν τα συστήματά τους, να μπλοκάρουν αυτόματα prompts που παραβιάζουν τη συναίνεση και να απαιτούν επιβεβαίωση για τη χρήση πραγματικών προσώπων. Χωρίς αυτή τη συνεργασία, κάθε καλή πρόθεση θα παραμένει θεωρητική.

Επίλογος – όταν η τεχνητή νοημοσύνη κοιτάζει πίσω μας

Κάποτε πιστεύαμε ότι η τεχνολογία θα μας ελευθερώσει· ότι θα μας βοηθήσει να δημιουργούμε, να επικοινωνούμε, να εξελισσόμαστε. Σήμερα, βλέπουμε πως η ίδια τεχνολογία μπορεί να χρησιμοποιηθεί για να αφαιρεί, όχι για να προσθέτει — να αφαιρεί ρούχα, όρια, αξιοπρέπεια.

Όταν ένα chatbot ξέρει να δημιουργεί εικόνες αλλά δεν καταλαβαίνει τι σημαίνει συναίνεση, το πρόβλημα δεν είναι τεχνικό· είναι πολιτισμικό. Η τεχνητή νοημοσύνη δεν έχει επιθυμίες — τις δανείζεται από εμάς. Αν μέσα από τα pixels της προβάλλεται εκμετάλλευση και βία, δεν φταίει ο αλγόριθμος, αλλά η κουλτούρα που τον τροφοδοτεί.

Η πρόοδος δεν είναι να βλέπεις τι μπορεί να κάνει η μηχανή. Είναι να θυμάσαι τι δεν πρέπει να κάνει ο άνθρωπος.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *