web analytics

Μια εικόνα, χίλιες λέξεις;

Μια εικόνα, χίλιες λέξεις και επιμελώς κρυμμένα ψέματα

– Καλώς ήρθατε στην εποχή της GenAI

443

Βρισκόμαστε σε έναν πόλεμο εις βάρος της αλήθειας με σοβαρές συνέπειες για τους ανθρώπους, τους θεσμούς, τις κοινωνίες και τις δημοκρατίες, προειδοποιεί καθηγητής Ψηφιακής Εγκληματολογίας στο Μπέρκλεϊ.

«Είδα φωτογραφία», λέγαμε κάποτε προς επίρρωση των λεγομένων μας και οι όποιες αμφιβολίες της άλλης πλευράς σταματούσαν εκεί. Ωστόσο, σε μια εποχή όπου η εμπιστοσύνη μας στα αυτονόητα κλονίζεται διαρκώς, η έλευση της παραγωγικής τεχνητής νοημοσύνης (GenAI) καταρρίπτει με κρότο τον κανόνα «μια εικόνα, χίλιες λέξεις».

Γίνεται όλο και πιο δύσκολο να πιστέψουμε οτιδήποτε διαβάζουμε, βλέπουμε ή ακούμε στο διαδίκτυο

Οι κατασκευασμένες φωτογραφίες ξεκίνησαν ως πεδίο δημιουργικότητας και καινοτομίας, αλλά πλέον διαμορφώνουν ολόκληρα αφηγήματα που διατρέχουν την πολιτική, τα μέσα ενημέρωσης, την κοινωνική ζωή, αλλά και το εμπόριο μέσω της εξαπάτησης των καταναλωτών.

Την ώρα που οι επιχειρήσεις προσπαθούν να αξιοποιήσουν τα οφέλη της AI, αναφέρει άρθρο του Business Insider, αντιμετωπίζουν σοβαρούς κινδύνους παραπλάνησης και απώλειας εμπιστοσύνης από πελάτες λόγω της εξάπλωσης της GenAI. Οι απατεώνες δημιουργούν μέσω τεχνητής νοημοσύνης ψεύτικες αγγελίες εργασίας, ιστοσελίδες, βιογραφικά, ακόμα και deepfake βίντεο επαγγελματιών.

Η άλλοτε καινοτομία έχει εξελιχθεί σε πρόβλημα, το οποίο εξαπλώνεται ταχέως σε κλίμακα και πολυπλοκότητα. Ίσως στο όχι και τόσο μακρινό μέλλον ακόμα και αυτά που βλέπουμε ζωντανά μπροστά στα μάτια μας να τελούν υπό καθεστώς αμφισβήτησης.

Πόλεμος εις βάρος της αλήθειας

Τα τελευταία 30 χρόνια, ο Αμερικανός καθηγητής Ψηφιακής Εγκληματολογίας στο Μπέρκλεϊ, Χάνι Φαρίντ, αναπτύσσει τεχνολογίες για την ανάλυση και την πιστοποίηση ψηφιακών εικόνων και βίντεο και η ομάδα του έχει συνεργαστεί με δημοσιογράφους, δικαστήρια και κυβερνήσεις σε μια σειρά υποθέσεων.

Η αύξηση αυτή είναι ένας συνδυασμός παραγόντων. Από τη μία, η παραγωγική τεχνητή νοημοσύνη (GenAI) κατασκευάζει εικόνες όλο και πιο κοντά στην πραγματικότητα και από την άλλη υπάρχουν τα μέσα κοινωνικής δικτύωσης όπου προωθούνται και ενισχύονται ψέματα και συνωμοσίες εις βάρος της αλήθειας.

Αυτό σημαίνει ότι γίνεται όλο και πιο δύσκολο να πιστέψουμε οτιδήποτε διαβάζουμε, βλέπουμε ή ακούμε στο διαδίκτυο. Πρόκειται για πόλεμο εις βάρος της αλήθειας, τονίζει ο Φαρίντ, και αυτό έχει σοβαρές συνέπειες για τους ανθρώπους, τους θεσμούς, τις κοινωνίες και τις δημοκρατίες.

Η GenAI έκανε «παιχνιδάκι» την παραποίηση της πραγματικότητας

Αν και παραποίηση εικόνων εντοπίζεται ήδη από τα μέσα του 19ου αιώνα, με την έλευση των ψηφιακών φωτογραφικών μηχανών και των προγραμμάτων επεξεργασίας αυτό έγινε εύκολο για το ευρύ κοινό.

Πλέον με την GenAI, ο καθένας μπορεί να δημιουργήσει οποιαδήποτε εικόνα, οπουδήποτε, με ένα κλικ. Από μια γάτα που παίζει κιθάρα και άλλα χιουμοριστικά έως εικόνες που σκοπό έχουν να προκαλέσουν το κοινό αίσθημα με ό,τι αυτό συνεπάγεται, να ενοχοποιήσουν κάποιον ή να εκβιάσουν.

Αυτό που κάνει η παραγωγική τεχνητή νοημοσύνη για τη δημιουργία εικόνων είναι να επεξεργάζεται δισεκατομμύρια φωτογραφίες με περιγραφική λεζάντα και κάθε μία από αυτές να αναλύεται μέχρι να μείνει μόνο ο οπτικός θόρυβος, δηλαδή εικονοστοιχεία (πίξελς) σε τυχαία σειρά. Στη συνέχεια, το μοντέλο GenAI μαθαίνει πώς να αντιστρέφει αυτή τη διαδικασία, συνθέτοντας ουσιαστικά τα πίξελς πίσω στην αρχική εικόνα. Στην ουσία είναι στατιστική.

«Όταν αυτή η διαδικασία ολοκληρωθεί δισεκατομμύρια φορές σε ένα ευρύ φάσμα εικόνων, η μηχανή έχει μάθει πώς να μετατρέπει τον οπτικό θόρυβο σε εικόνα που είναι σημασιολογικά συνεπής με αυτό που πληκτρολογείτε» εξηγεί ο Φαρίντ.

Οι AI εικόνες βελτιώνονται εντυπωσιακά χρόνο με τον χρόνο και κάποιες από αυτές φαίνονται τόσο ρεαλιστικές που είναι δύσκολο να αντιληφθούμε ότι είναι κατασκευασμένες, ιδίως με την πρώτη ματιά. Όμως, οι ειδικοί μπορούν να εντοπίσουν τα σημάδια αναλύοντας τον οπτικό θόρυβο (ανεπιθύμητες αλλοιώσεις και διακυμάνσεις) που υπάρχει σε όλες τις φωτογραφίες και προέρχεται από διάφορες πηγές, όπως περιβαλλοντικές συνθήκες ή περιορισμοί του συστήματος λήψης και επεξεργασίας.

Τα «λάθη» που προδίδουν

Ο θόρυβος στις εικόνες AI έχει διαφορές σε σχέση με μια φωτογραφία τραβηγμένη από κάμερα. Όσο μικρές κι αν είναι, μπορούν να αποκαλύψουν την αλήθεια. Π.χ., ομοιόμορφες ή περίεργες παρεμβολές σε περιοχές της εικόνας που κανονικά θα είχαν φυσική «αταξία» ή απουσία της αναμενόμενης μικροτραχύτητας που έχει μια αληθινή φωτογραφία.

Για την αυθεντικοποίηση, οι ειδικοί εξάγουν πρώτα τον λεγόμενο υπολειπόμενο οπτικό θόρυβο (residual noise) για να εντοπίσουν το τυχαίο και μοναδικό αποτύπωμα που αφήνει ο αισθητήρας της κάμερας και που παραμένει σε μια εικόνα ακόμα και μετά την επεξεργασία της. Δηλαδή, εξετάζουν αν ο υπολειπόμενος θόρυβος μοιάζει περισσότερο με αυτόν της φυσικής κάμερας (PRNU) ή με το «συνθετικό αποτύπωμα» που δημιουργεί η AI.

Για παράδειγμα, αν στην απεικόνιση του θορύβου σε ένα μοτίβο διακρίνονται αστεράκια σε γεωμετρική διάταξη (μπορεί να είναι κύκλοι ή άλλα επαναλαμβανόμενα σχήματα), αυτό είναι χαρακτηριστικό σημάδι GenAI. Δηλαδή το μοτίβο θορύβου δεν είναι φυσικό, από αισθητήρα κάμερας, αλλά τεχνητό.

Το επόμενο στοιχείο που αναλύουν οι ειδικοί είναι τα λεγόμενα σημεία φυγής. Στον φυσικό κόσμο, οι παράλληλες γραμμές συγκλίνουν σε ένα σημείο όσο απομακρύνονται από εμάς, π.χ. οι ράγες των τρένων. Η τεχνητή νοημοσύνη δεν το γνωρίζει αυτό, καθώς η λειτουργία της αποτελεί μια στατιστική διαδικασία. Δεν κατανοεί τον φυσικό κόσμο. Επομένως, στις φυσικές και γεωμετρικές ανωμαλίες μιας εικόνας μπορούν να εντοπιστούν στοιχεία χειραγώγησης ή κατασκευής.

Ένα άλλο στοιχείο που δείχνει ότι κάτι δεν πάει καλά στην εικόνα που έχουμε μπροστά μας είναι οι σκιές. Αν τραβώντας από αυτές μια νοητή γραμμή δεν βλέπουμε ένα συνεκτικό σημείο φυγής προς το φως που ρίχνει τις σκιές, καταλαβαίνουμε ότι η σκηνή δεν είναι φυσική.

Επιχείρηση Overload

Χαρακτηριστική περίπτωση εκστρατείας εκτεταμένης παραπληροφόρησης στο διαδίκτυο μέσω AI εικόνων και βίντεο αποτελεί η φιλορωσική Operation Overload, που λειτουργεί από το 2023. Όπως αναφέρει το WIRED που επικαλείται τη σχετική έκθεση, τα δωρεάν εργαλεία AI επέτρεψαν την έκρηξη παραπλανητικού περιεχομένου που επιζητούσε η ομάδα, δημιουργώντας τεράστιες ποσότητες σε εικόνες, βίντεο, QR codes και ψεύτικες ιστοσελίδες.

Στόχος της εν λόγω εκστρατείας είναι να εντείνει κοινωνικές εντάσεις σε θέματα όπως οι εκλογές σε διάφορες χώρες, η μετανάστευση και κυρίως ο πόλεμος στην Ουκρανία. Το περιεχόμενο που παράγει το διανέμει σε πλατφόρμες όπως Telegram, X, TikTok, και Bluesky, ενώ αντί να «κρύβεται» στέλνει χιλιάδες emails σε δημοσιογράφους και fact-checkers ώστε το ψευδές περιεχόμενο να αποκτήσει δημοσιότητα, ακόμα και αν επισημανθεί ως ψεύτικο.

Σύμφωνα με την έκθεση, μεταξύ Σεπτεμβρίου 2024 και Μαΐου 2025 αυξήθηκε δραματικά η ποσότητα του περιεχομένου που παράγεται από τους υπεύθυνους της Operation Overload και λαμβάνει εκατομμύρια προβολές παγκοσμίως. Πολλές από τις ψεύτικες εικόνες που διαμοιράστηκαν – μερικές από τις οποίες έδειχναν μουσουλμάνους μετανάστες να εξεγείρονται και να βάζουν φωτιές στο Βερολίνο και στο Παρίσι – δημιουργήθηκαν με το εργαλείο Flux AI.

Στα συμπεράσματα των ειδικών, υπογραμμίζεται η κατάχρηση των μοντέλων AI text-to-image για την προώθηση του ρατσισμού και την τροφοδότηση αντι-μουσουλμανικών στερεοτύπων. Η Operation Overload χρησιμοποιεί επίσης AI τεχνολογία κλωνοποίησης φωνής για να παραποιήσει βίντεο όπου διακεκριμένες προσωπικότητες και διασημότητες λένε πράγματα που ουδέποτε είπαν.

Για παράδειγμα, τον Φεβρουάριο δημοσίευσαν ένα βίντεο στο X, στο οποίο εμφανιζόταν η Ιζαμπέλ Μπορντόν, ερευνήτρια στο Πανεπιστήμιο του Μονπελιέ της Γαλλίας, να ενθαρρύνει τους Γερμανούς πολίτες να συμμετάσχουν σε μαζικές ταραχές και να ψηφίσουν το ακροδεξιό κόμμα AfD στις ομοσπονδιακές εκλογές. Η παραποίηση είχε γίνει σε βίντεο που είχε ανέβει στο επίσημο κανάλι του πανεπιστημίου στο YouTube, όπου η Μπορντόν συζητούσε για ένα βραβείο κοινωνικών επιστημών που της είχε απονεμηθεί. Ωστόσο, στο παραποιημένο βίντεο, η τεχνολογία κλωνοποίησης φωνής την έκανε να φαίνεται ότι συζητούσε για τις γερμανικές εκλογές.

Πώς θα προστατευτούμε

Και φτάνουμε στο ερώτημα, που απασχολεί όλους και περισσότερους στις μέρες μας, κατά πόσο είναι τελικά δυνατόν να διακρίνουμε το πραγματικό από το ψεύτικο.

Όσο κι αν νιώθουμε όμηροι της αμφισβήτησης που έχει γεννήσει η AI, σημειώνει ο Φαρίντ, δεν πρέπει να υποκύψουμε στα χειρότερα ανθρώπινα ένστικτα που μολύνουν τις διαδικτυακές κοινότητές μας.

«Έχουμε τη δύναμη και μπορούμε να επιφέρουμε αλλαγές», τονίζει και εξηγεί: «Τα εργαλεία που αναπτύσσουμε με την ομάδα μου προορίζονται για δημοσιογράφους, ιδρύματα, δικαστήρια ώστε να βοηθήσουν εκείνους και κατ’ επέκταση εσάς. Επίσης, υπάρχει ένα διεθνές πρότυπο για τα λεγόμενα διαπιστευτήρια περιεχομένου, τα οποία μπορούν να πιστοποιούν την αυθεντικότητα κατά τη στιγμή της δημιουργίας του. Αν και δεν θα λύσουν όλα τα προβλήματά μας, θα αποτελέσουν σίγουρα μέρος μιας ευρύτερης λύσης».

Ο ίδιος προειδοποιεί παράλληλα ότι αυτή τη στιγμή δεν υπάρχουν ιστότοποι που μπορεί να χρησιμοποιήσει ένας απλός χρήστης για να ελέγξει την αυθεντικότητα της εικόνας. Μάλιστα, όπως λέει, επιτήδειοι δημιουργούν ψεύτικο περιεχόμενο και μετά πηγαίνουν σε ψεύτικους ιστότοπους για να το πιστοποιήσουν.

Ένα βασικό πρόβλημα είναι ότι σήμερα τα μέσα κοινωνικής δικτύωσης αποτελούν για πολλούς – ειδικά νέους – βασική πηγή ενημέρωσης, όπου η παραπληροφόρηση ανθεί. Αυτό που μπορούμε να κάνουμε είναι τουλάχιστον να στεκόμαστε κριτικά απέναντι σε ό,τι καταναλώνουμε ως χρήστες και να μην αναπαράγουμε αυτομάτως την πρώτη πληροφορία ή εικόνα που θα δούμε.

Σύμφωνα με τον Φαρίντ, μόνο το ποσοστό των ψεύτικων εικόνων στο διαδίκτυο αγγίζει το 50%. «Βρισκόμαστε σε ένα σταυροδρόμι. Μπορούμε να συνεχίσουμε ό,τι κάνουμε εδώ και 20 χρόνια, επιτρέποντας στην τεχνολογία να μας διαλύσει ως κοινωνία, σπέρνοντας δυσπιστία, μίσος και μισαλλοδοξία. Ή μπορούμε να αλλάξουμε πορεία βρίσκοντας έναν νέο τρόπο να αξιοποιήσουμε τη δύναμη της τεχνολογίας ώστε να λειτουργεί για εμάς και όχι εναντίον μας» καταλήγει.

Ιωάννα Κουμπαρέλη

πηγή: in.gr

Loading

Subscribe
Ειδοποίηση για
6 Σχόλια
Inline Feedbacks
Όλα τα σχόλια
Βασίλης Δουκατζής
Διαχειριστής
07/07/2025 3:33 ΜΜ

Διονύση μας κλέψαν την ακρόπολη!!!
https://www.tiktok.com/@weirdoccult/video/7511995349385415958

Βασίλης Δουκατζής
Διαχειριστής
07/07/2025 5:45 ΜΜ

Ακριβώς! Το είχα δει πριν κανά μήνα και τώρα με αφορμή το άρθρο σου έψαξα και το ξαναβρήκα!

Κώστας Παπαδάκης
07/07/2025 11:05 ΜΜ

Ναι υπάρχει πρόβλημα. Η παραποίηση της πραγματικότητας είναι εδώ.

Πρόβλημα είναι ο εντοπισμός του “κατασκευασμένου”.

Τα κείμενα μπορούν να δημιουργηθούν με τέτοιο τρόπο από τις LLM και να μην εντοπίζονται.

Οι εικόνες που δημιουργούν τόσες πολλές πια εκδόσεις (Αι) που ειδικεύονται στην δημιουργία εικόνας είναι πάρα πολύ καλές, “τεχνητή εικόνα” ψηφίστηκε σαν την καλύτερη φωτογραφία με ψηφοφορία του κοινού, που σοκαρίστηκε από την αποκάλυψη της αλήθειας και αυτό συνέβει μήνες πριν.

Σειρά παίρνει το video που είναι πολύ πιο δύσκολο από τις εικόνες. Στο video έχουμε μια σειρά εικόνων που προβάλλονται με μια ροή, εδώ ευτυχώς είναι πολύπλοκη (ακόμα) για το νευρωνικό δίκτυο η ροή. Μπορούμε να δούμε στο video που μας δίνει ο Βασίλης, κάποια “καρτουνίστικα” σχεδόν στοιχεία, ένα συγκεκριμμένο τρόπο που στήνεται η σκηνή..

Εμένα με ανησυχεί η χρήση του εργαλείου και κυρίως το πως επηρεάζει τους ανθρώπους η αλληλεπίδραση μαζί του.

Είναι επικίνδυνο αλλά δεν με ανησυχεί: που κάθονται και κάνουν ψυχανάλυση με το chatgpt (με τα κοινωνικά δίκτυα οι άνθρωποι έβγαλαν στιγμές από την ζωή τους φωτογραφία, αλλά με το εργαλείο έβγαλαν τα σώψυχα τους), που ξεκίνησε θρησκεία με θεό την Αι .. Η ανθρώπινη βλακεία είναι .. άπειρη.

Με ανησυχεί όμως: ότι επιστήμονες άρχισαν να χρησιμοποιούν περισσότερο γλωσσικά λέξεις που προτιμάει η Αι όταν δημιουργεί επιστημονικές εργασίες, ότι μετράνε χαμηλότερη ενεργητικότητα στους νετρώνες σε όσους χρησιμοποιούν συχνά το εργαλείο αντί να σκέφτονται ..

ειδόμεν..

Δημήτρης Γκενές
Αρχισυντάκτης
07/07/2025 11:08 ΜΜ

Καλησπέρα Διονύση.
Ναι οι “επιμελώς κρυμένες Αλήθειες” και το “αληθοφανές ψέμα” αποκτούν νεες δυνατότητες.
Αλλά πάντα δεν ίσχυε αυτό ;
Και το καιρό του Σωκράτη στην Αθήνα και όταν ο Νίτσε πρότεινε ως λύση την Τέχνη ( αλλά υπάρχει και μαϊμού τέχνη )… και όταν ο Χαξλεϋ προειδοποιούσε για τον κίνδυνο της επιστημονικής δικτατοριας που κάνει αόρατα τα τύχη της φυλακής του νου και εναπόθετε τις ελπίδες του ίσως σε κάποια Δημοκρατία … όπως και ο Σ Τραχανάς δίπλα (στην ανάρτηση της Τίνας…)
Η αλήθεια ( όπως και το δικιο, το όμορφο κ.λ.π ) δεν είναι ποτέ δεδομένη κατάκτηση …είναι στόχος συνεχούς αγώνα κατάκτησης της…

…Μωρ’ είναι δύσκολο πολύ να βγει η αλήθεια στο κλαρί και να λαλεί και να λαλεί … Ι.Καμπανέλης – Μ.Χατζηδάκις

Τελευταία διόρθωση3 μήνες πριν από Δημήτρης Γκενές