*Γράφει η Μαρίνα Ρήγου επίκουρη Καθηγήτρια του Τμήματος Μέσων Μαζικής Ενημέρωσης του Πανεπιστημίου Αθηνών. Εφημερίδα «Πανεπιστήμιο Αθηνών», Φύλλο 3, κυκλοφόρησε με «Το Βήμα της Κυριακής» 30 Μαρτίου 2025
Στη σύγχρονη οπτικοκεντρική κοινωνία, η οπτική πληροφορία κατείχε περίοπτη θέση αποδεικτικής αξίας. Η camera obscura, αν και, πρωτογενώς, ανέστρεφε το αντικείμενο, αποτύπωνε μια πραγματικότητα. Ήταν μια αντικειμενική προβολή του εξωτερικού κόσμου υποκειμενικά «καδραρισμένη» που απαιτούσε φως και, κυρίως, τη φυσική παρουσία ενός αντικειμένου για να αποδώσει την εικόνα του. Η πιθανότητα οπτικής παραποίησης και παραπλανητικού περιεχομένου ήταν υπαρκτή, όμως η διαδικασία για ένα τέτοιο αποτέλεσμα ήταν περίπλοκη και ως εκ τούτου όχι συχνή.
Ωστόσο, η ψηφιακή τεχνολογία κατέστησε το φαινόμενο αυτό πιο εύκολο, πιο αληθοφανές και πιο δύσκολα ανιχνεύσιμο. Τα προγράμματα επεξεργασίας εικόνας δεν περιορίζονται στην αισθητική βελτίωση φωτογραφιών αλλά παρέχουν τη δυνατότητα ολοκληρωτικής μετάλλαξης του περιεχομένου τους.
Στη φαρέτρα της οπτικής παραποίησης συμβάλλει πλέον και η τεχνητή νοημοσύνη. Τα «deepfakes», πολυμέσα που έχουν κατασκευαστεί ή αλλοιωθεί μέσω αλγορίθμων τεχνητής νοημοσύνης, μπορούν να δημιουργήσουν ένα εξαιρετικά ρεαλιστικό αλλά ψευδές περιεχόμενο, μια «ψευδή πραγματικότητα», χωρίς καν μια βάση στον φυσικό κόσμο.
Ο όρος «deepfakes» παραπέμπει στον τρόπο που δημιουργείται το ψευδές ή παραποιημένο περιεχόμενο: στη χρήση δηλαδή τεχνικών deep learning, βαθιάς μάθησης. Πρόκειται για ένα υποσύνολο της μηχανικής μάθησης που χρησιμοποιεί πολυεπίπεδα τεχνητά νευρωνικά δίκτυα για την ανάλυση και μάθηση με τη χρήση μεγάλων συνόλων δεδομένων. Τα τεχνητά νευρωνικά δίκτυα μιμούνται τη λειτουργία του ανθρώπινου εγκεφάλου, ιδιαίτερα όσον αφορά τον τρόπο που οι νευρώνες συνδέονται και ανταλλάσσουν πληροφορίες.
Αυτά τα δίκτυα «μαθαίνουν» μέσα από την επεξεργασία δεδομένων και βελτιώνουν τις επιδόσεις τους όσο τροφοδοτούνται με περισσότερα δεδομένα, κάτι που επιτρέπει στα μοντέλα να αναγνωρίζουν πρότυπα και να λαμβάνουν καλύτερες αποφάσεις με την πάροδο του χρόνου. Στα παραδείγματα των deepfakes που έχουν γίνει γνωστά περιλαμβάνονται πολιτικές προσωπικότητες όπως ο Richard Nixon, ο Donald Trump, ο Barack Obama, ο Vladimir Putin, ο Volodymyr Zelensky και ο Kim Jong-un. Οι σκοποί δημιουργίας αυτών των deepfakes ήταν διαφορετικοί, αλλά όλα ήταν ρεαλιστικά.
Το deepfake του Richard Nixon ήταν ένα ενδιαφέρον πείραμα που πραγματοποιήθηκε το 2019 από δύο καλλιτέχνες πολυμέσων, τη Francesca Panetta και τον Halsey Burgund. Η προκλητική τους ιδέα ήταν να αποδείξουν αφενός τη δυναμική της τεχνολογίας τεχνητής νοημοσύνης, αφετέρου τη δυνατότητά της να παραπλανήσει την κοινή γνώμη. Οι δύο καλλιτέχνες δημιούργησαν το video χρησιμοποιώντας την εναλλακτική εκδοχή της ομιλίας του αμερικανού Προέδρου σε περίπτωση που η προσσελήνωση του Apollo, το 1969, είχε αποτύχει.
Το πείραμά τους ήταν ιδιαίτερα επιτυχές, αποδεικνύοντας ότι στην ήδη εντυπωσιακή προσομοιωτική δύναμη των νέων μέσων, η τεχνητή νοημοσύνη των deepfakes, αγγίζοντας ήδη την «πραγματικότητα», δοκιμάζει την ανθρώπινη νοημοσύνη και αντίληψη.
Είναι γεγονός ότι παραπληροφόρηση και προπαγάνδα διαθέτουν πλέον ένα εξαίρετο εργαλείο πραγμάτωσης των στόχων τους: τα deepfakes, που, σε συνδυασμό με τη διαδικτυακή δυνατότητα εκθετικού πολλαπλασιασμού περιεχομένου, μπορούν να εξαπλωθούν ραγδαία επιφέροντας ένα ακόμη πλήγμα στην ψηφιακή δημόσια σφαίρα. Η διάκριση ψευδούς και αληθούς σχετικοποιείται με τεράστιες επιπτώσεις στη διαμόρφωση της κοινής γνώμης, στην κοινωνία και την πολιτική. Το αληθινό καταγγέλλεται ως ψευδές και το ψευδές γίνεται δεκτό ως αληθές.
Υπονομεύεται η βάση κάθε ορθολογικής δημόσιας συζήτησης. Καθίσταται ευκολότερο για τις πολιτικές και οικονομικές ελίτ να απορρίπτουν τεκμηριωμένα γεγονότα ως ψεύδη ή να κατασκευάζουν εναλλακτικές «αλήθειες» προς ίδιον όφελος. Η όποια εμπιστοσύνη της κοινής γνώμης στην πληροφορία, τους θεσμούς, τα ΜΜΕ και την πολιτική διαβρώνεται, δημιουργώντας ένα κλίμα γενικευμένης δυσπιστίας, υπονομεύοντας τη Δημοκρατία, όπου υπάρχει.
Στις αρνητικές επιπτώσεις της κακόβουλης χρήσης των «deepfakes» είναι επίσης η επιρροή σε εκλογικές διαδικασίες, η στοχοποίηση πολιτικών και άλλων προσώπων με δυσφημιστικά video και η δημιουργία ή επιβεβαίωση στρεβλών εντυπώσεων βασισμένων σε προκαταλήψεις.
Κυβερνήσεις και πλατφόρμες κοινωνικής δικτύωσης αντιμετωπίζουν το δίλημμα της ρύθμισης αυτής της νέας πραγματικότητας, καθώς η επιβολή ελέγχων μπορεί να θεωρηθεί λογοκρισία, ενώ η πλήρης απουσία περιορισμών ενδέχεται να οδηγήσει σε μια εποχή απόλυτης ψηφιακής παραπληροφόρησης. Ηνωμένες Πολιτείες και Ευρώπη ήδη ακολουθούν διαφορετικές προσεγγίσεις, με τις Βρυξέλλες να υιοθετούν αυστηρότερες ρυθμίσεις και την Ουάσιγκτον να επιδεικνύει μεγαλύτερη ανεκτικότητα, επικαλούμενη την ελευθερία της έκφρασης.
Με την ίδια επίκληση, X και Facebook σταμάτησαν το fact-checking, τον έλεγχο αξιοπιστίας των αναρτήσεων και επέλεξαν ο έλεγχος περιεχομένου να γίνεται από την κοινότητα των χρηστών μέσω των «Community Notes», αντί των ανεξάρτητων οργανισμών.
Σε αυτό το ραγδαία εξελισσόμενο περιβάλλον, το ερώτημα που τίθεται δεν είναι μόνο πώς θα ανιχνεύσουμε και θα περιορίσουμε την εξάπλωση των deepfakes, αλλά και πώς θα διαφυλάξουμε τη δημοκρατία και την εμπιστοσύνη στον δημόσιο λόγο, προτού η αλήθεια μετατραπεί σε απλώς μία ακόμα εκδοχή της πραγματικότητας. Η ανάπτυξη καλύτερων εργαλείων ανίχνευσης, η εκπαίδευση του κοινού, η ρύθμιση των μέσων κοινωνικής δικτύωσης και της τεχνητής νοημοσύνης είναι κάποιες στρατηγικές που θα μπορούσαν να βοηθήσουν στην αποτροπή της διάδοσης των deepfakes. Αρκεί να υπάρχει η θέληση γι’ αυτό.
Στις αρχές του 2024, σε έρευνα του Παγκόσμιου Οικονομικού Φόρουμ σχετικά με τους κινδύνους που θα αντιμετωπίσει η ανθρωπότητα μέσα στην επόμενη διετία, η παραπληροφόρηση κατείχε την πρώτη θέση στην ιεράρχηση αυτών των κινδύνων.
Μεταξύ άλλων οι πλατφόρμες κοινωνικής δικτύωσης αποτελούν χρυσωρυχείο εξόρυξης δεδομένων για το προφίλ, τις συνήθειες και τις επικοινωνίες των χρηστών τους, δεδομένα χρήσιμα για τον πολιτικό επηρεασμό της κοινής γνώμης με πολιτικά μηνύματα εξατομικευμένα και ειδικά στοχευμένα.
Τι γίνεται με το fact-checking, τον έλεγχο αξιοπιστίας των αναρτήσεων και επέλεξαν ο έλεγχος περιεχομένου να γίνεται από την κοινότητα των χρηστών μέσω των «Community Notes», αντί των ανεξάρτητων οργανισμών.