Deepfakes: Η απειλή της τεχνητής νοημοσύνης για την αλήθεια και τη δημοκρατία
Πώς οι ψηφιακές παραποιήσεις κλονίζουν την εμπιστοσύνη, απειλούν την ιδιωτικότητα και οδηγούν σε νέες ρυθμιστικές προκλήσεις.
Τα deepfakes, ως μια από τις πιο ανησυχητικές εκφάνσεις της Τεχνητής Νοημοσύνης (ΤΝ), δημιουργούν εικόνες, ήχο ή βίντεο που αποδίδουν πειστικά ψευδή πρόσωπα, γεγονότα ή τοποθεσίες, δημιουργώντας μια ψευδή αίσθηση αυθεντικότητας. Ενώ βρίσκουν εφαρμογή στη ψυχαγωγία και τη σάτιρα, εγείρουν σοβαρές προκλήσεις, από την αξιοπιστία των πληροφοριών και την προστασία των δικαιωμάτων, έως την ασφάλεια των δημοκρατικών θεσμών.
Η διάδοση των deepfakes είναι εκρηκτική. Μεταξύ 2019 και 2023, τα deepfake βίντεο αυξήθηκαν κατά 550%, ενώ εκτιμάται ότι μέχρι το 2025 θα φτάσουν τα 8 εκατομμύρια. Επιπλέον, πάνω από το μισό διαδικτυακό περιεχόμενο παράγεται πλέον από ΤΝ, καθιστώντας ολοένα και πιο δύσκολη τη διάκριση μεταξύ πραγματικού και συνθετικού υλικού.
Οι κοινωνικές επιπτώσεις είναι πολλαπλές:
* **Δημοκρατία και διπλωματία:** Πειστικές παραστάσεις πολιτικών προσώπων ή γεγονότων μπορούν να υπονομεύσουν τον δημόσιο διάλογο και τις εκλογικές διαδικασίες.
* **Ασφάλεια και οικονομία:** Η τεχνολογία χρησιμοποιείται σε απάτες, πλαστοπροσωπία και υποκλοπή ταυτότητας.
* **Ατομικά δικαιώματα και ιδιωτικότητα:** Ένα σημαντικό ποσοστό αφορά μη συναινετικό σεξουαλικό περιεχόμενο, κυρίως κατά γυναικών, με καταστροφικές συνέπειες.
* **Εμπιστοσύνη στην πληροφορία:** Το φαινόμενο του “liar’s dividend” οδηγεί στην αμφισβήτηση ακόμη και αυθεντικού υλικού.
Η τεχνολογία ανίχνευσης αντιμετωπίζει δυσκολίες, καθώς απλές επεξεργασίες μπορούν να μειώσουν την αποτελεσματικότητά της, ενώ τα ίδια τα μοντέλα ΤΝ εκπαιδεύονται για να παρακάμπτουν σήμανση και υδατογραφήματα. Αυτό καθιστά επιτακτική την ανάγκη για ένα συνδυασμό νομικών ρυθμίσεων, διαφάνειας και θεσμικής εποπτείας.
Η Ευρωπαϊκή Ένωση, ανταποκρινόμενη, εισήγαγε τον Κανονισμό για την Τεχνητή Νοημοσύνη (AI Act). Ο κανονισμός θεσπίζει δεσμευτικό ορισμό για τα deepfakes και επιβάλλει υποχρεώσεις διαφάνειας: τα συστήματα ΤΝ πρέπει να ενημερώνουν τους χρήστες για την αλληλεπίδραση, ενώ το AI-generated περιεχόμενο πρέπει να φέρει σαφή επισήμανση. Ενθαρρύνεται επίσης η χρήση υδατογραφημάτων, μεταδεδομένων και κρυπτογραφικών εργαλείων για την πιστοποίηση της γνησιότητας.
Στην Ελλάδα, η Ειδική Γραμματεία Τεχνητής Νοημοσύνης και Διακυβέρνησης Δεδομένων προτείνει ένα «υβριδικό μοντέλο εμπιστοσύνης», που συνδυάζει τη σήμανση του AI-generated περιεχομένου με μηχανισμούς πιστοποίησης ανθρώπινης δημιουργίας. Τονίζεται, επίσης, η ανάγκη συμπληρωματικών εθνικών μέτρων και αξιόπιστων εργαλείων εποπτείας.
Παράλληλα, η χώρα επενδύει στην ψηφιακή κυριαρχία μέσω κρίσιμων υποδομών, όπως υπερυπολογιστές, κέντρα δεδομένων και υψηλή συνδεσιμότητα. Το AI Factory Pharos αναδεικνύεται σε κεντρικό εθνικό στοίχημα, με στόχο την προώθηση της καινοτομίας, τη συμμετοχή της Ελλάδας στον διεθνή τεχνολογικό χάρτη και τη μετατροπή της σε κόμβο καινοτομίας και συνδιαμορφωτή των μελλοντικών τεχνολογικών εξελίξεων.
