Ούτε το ίδιο το διαδίκτυο δεν μπορεί να σταματήσει τα deepfake – Πώς θα προστατευτούμε
Ποιος έκανε την ανάρτηση σύντομα θα έχει μεγαλύτερη σημασία από αυτό που δημοσιεύτηκε
Ούτε το ίδιο το διαδίκτυο δεν μπορεί να σταματήσει τα deepfake – Πώς θα προστατευτούμε
Είναι πλέον ξεκάθαρο πως είναι δυνατό να δημιουργηθεί ψεύτικο αλλά ταυτόχρονα αληθοφανές υλικό με ένα κλικ ποντικιού. Αυτό μπορεί να είναι μεν διασκεδαστικό αλλά μπορεί την ίδια στιγμή και μια ριζοσπαστική αλλαγή σε κοινωνίες που εδώ και πολύ καιρό θεωρούσαν τις εικόνες, το βίντεο και τον ήχο ως μια σιδερένια απόδειξη ότι κάτι είναι πραγματικό.
Οι απατεώνες μέσω τηλεφώνου χρειάζονται τώρα μόλις δέκα δευτερόλεπτα ήχου για να μιμηθούν τις φωνές αγαπημένων προσώπων που βρίσκονται σε κίνδυνο.Το θεμελιώδες πρόβλημα είναι γνωστό. Από την τυπογραφία μέχρι το διαδίκτυο, οι νέες τεχνολογίες συχνά διευκόλυναν τη διάδοση αναληθειών ή τη μίμηση προσώπων με κύρος που παρουσιάζονταν να λένε ή να κάνουν κάτι που δεν είπαν ή δεν έκαναν.
Θα μπορούσε το λογισμικό εντοπισμού ψεύτικων ειδών που υποστηρίζεται από AI, ενσωματωμένο σε προγράμματα περιήγησης ιστού, να αναγνωρίσει περιεχόμενο που δημιουργείται από υπολογιστή; Δυστυχώς όχι.
Συνήθως, επίσημες αρχές και απλοί χρήστες του διαδικτύου χρησιμοποιούσαν μερικές βασικές μεθόδους για να ξεχωρίσουν το ψέμα από την αλήθεια: για παράδειγμα, ένας υπερβολικά μεγάλος αριθμός ορθογραφικών λαθών υποδηλώνει ότι ένα μήνυμα ηλεκτρονικού ταχυδρομείου μπορεί να είναι επίθεση phishing.
Πιο πρόσφατα, οι εικόνες ανθρώπων που δημιουργούνται από τεχνητή νοημοσύνη έχουν συχνά προδοθεί από τα παράξενα χέρια τους με τα καραμπινάτα περισσεύουμενα δάχτυλα. Επίσης, τα fake βίντεο μπορούν εύκολα να εντοπιστούν από την ασυνέπεια εικόνας – ήχου. Το στόμα αυτού που υποτίθεται ότι μιλάει δεν συγχρονίζεται με τον ήχο που ακούγεται.
Πώς εντοπίζονται;
Το πρόβλημα είναι ότι τα ψεύτικα γίνονται όλο και πιο δύσκολο να εντοπιστούν. Η τεχνητή νοημοσύνη βελτιώνεται συνεχώς, καθώς η υπολογιστική ισχύς και τα δεδομένα εκπαίδευσης γίνονται πιο άφθονα.
Θα μπορούσε το λογισμικό εντοπισμού ψεύτικων ειδών που υποστηρίζεται από AI, ενσωματωμένο σε προγράμματα περιήγησης ιστού, να αναγνωρίσει περιεχόμενο που δημιουργείται από υπολογιστή; Δυστυχώς όχι.
Τελικά, τα μοντέλα ΑΙ θα είναι πιθανώς σε θέση να παράγουν απομιμήσεις τέλεια για pixel—ψηφιακούς κλώνους του πώς θα έμοιαζε μια γνήσια εγγραφή ενός γεγονότος, αν είχε συμβεί. Ακόμη και το καλύτερο σύστημα ανίχνευσης δεν θα είχε καμία ρωγμή.
Οι πιθανότητες για ένα απολύτως δυστοπικό μέλλον, όπου ο ένοχος θα θριαμβεύει και ο αθώος θα καταδικάζεται αυξάνονται δραματικά μέρα με τη μέρα. Για παράδειγμα, θα είναι εξαιρετικά δύσκολο να αποφύγουμε έναν κόσμο στον οποίο οποιαδήποτε φωτογραφία ενός ατόμου μπορεί να γίνει πορνογραφική από κάποιον που χρησιμοποιεί ένα μοντέλο ανοιχτού κώδικα στο υπόγειό του, και στη συνέχεια να χρησιμοποιηθεί για εκβιασμό – μια τακτική για την οποία έχει ήδη προειδοποιήσει το FBI.
Οι αξιόπιστες πηγές
Ωστόσο, οι κοινωνίες θα προσαρμοστούν και στους πλαστογράφους. Οι άνθρωποι θα μάθουν ότι οι εικόνες, ο ήχος ή το βίντεο από κάτι δεν αποδεικνύουν ότι αυτό συνέβη.
Το διαδικτυακό περιεχόμενο δεν θα επαληθεύει πλέον τον εαυτό του, οπότε το ποιος δημοσίευσε κάτι θα γίνει εξίσου σημαντικό με το τι δημοσιεύτηκε.
Αν υποθέσουμε ότι οι αξιόπιστες πηγές μπορούν να συνεχίσουν να αυτοπροσδιορίζονται με ασφάλεια -μέσω url, διευθύνσεων ηλεκτρονικού ταχυδρομείου και πλατφορμών κοινωνικής δικτύωσης-, η φήμη και η προέλευση θα γίνουν πιο σημαντικές από ποτέ.
Μπορεί να ακούγεται παράξενο, αλλά αυτό ίσχυε για το μεγαλύτερο μέρος της ιστορίας.
Η εποχή του αξιόπιστου, μαζικά παραγόμενου περιεχομένου ήταν η εξαίρεση. Το γεγονός ότι οι άνθρωποι μπορεί σύντομα να δυσκολεύονται να εντοπίσουν το αόρατο χέρι της ΑΙ δεν σημαίνει ότι η αγορά ιδεών είναι καταδικασμένη. Με τον καιρό, οι απομιμήσεις που θα ευδοκιμήσουν θα είναι κυρίως οι αστείες.
Τα σχόλια είναι κλειστά.