Πριν από μερικούς μήνες, εκατομμύρια τηλεθεατές σε ολόκληρη τη Νότια Κορέα παρακολούθησαν το κανάλι MBN για το καθιερωμένο δελτίο ειδήσεων. Η κεντρική παρουσιάστρια μετέδωσε τις σημαντικότερες ειδήσεις της ημέρας που στην πλειονότητά τους αφορούσαν την πανδημία. Ωστόσο, το συγκεκριμένο δελτίο διέφερε. Επρόκειτο για μία οπτική οφθαλμαπάτη.
Οι θεατές έβλεπαν και άκουγαν τη δημοφιλή δημοσιογράφο, αλλά στην πραγματικότητα αυτή δεν ήταν εκεί. Είχε αντικατασταθεί από μια deepfake εκδοχή της. Ένα αντίγραφο δηλαδή που δημιουργήθηκε από υπολογιστή, το οποίο και στοχεύει να μιμηθεί τέλεια τη φωνή, τις χειρονομίες και
τις εκφράσεις του προσώπου κάποιου. Οι θεατές, πάντως, είχαν ενημερωθεί εκ των προτέρων.Οι περισσότεροι σχολίασαν το πόσο ρεαλιστικό ήταν, ενώ κάποιοι εξέφρασαν την ανησυχία τους για το ότι η πραγματική παρουσιάστρια ενδεχομένως να χάσει και τη δουλειά της. Το τηλεοπτικό δίκτυο, πάντως, θα συνεχίσει να χρησιμοποιεί το deepfake για μερικές έκτακτες ειδήσεις, ενώ η εταιρεία πίσω από την τεχνολογία τεχνητής νοημοσύνης δήλωσε ότι βρίσκεται σε αναζήτηση επενδυτών από την Κίνα και τις ΗΠΑ.
Η συγκεκριμένη τεχνολογία έγινε ευρέως γνωστή, όταν κυκλοφόρησαν στα σόσιαλ μίντια τρία βίντεο με πρωταγωνιστή τον “Τομ Κρουζ”. Είχε την εμφάνιση του διάσημου ηθοποιού, τη φωνή του, τις εκφράσεις, το γέλιο και τις χαρακτηριστικές κινήσεις του. Δεν ήταν, όμως, ο ίδιος. Ξεκαθαρίστηκε ότι πρόκειται για deepfake (μια σύνθετη λέξη που προέρχεται από τα deep learning και fake).
Ψηφιακός “πονοκέφαλος” τα deepfakes
Αυτό σημαίνει τροποποιημένα βίντεο, στα οποία ένα άτομο, σε υπάρχουσα φωτογραφία ή βίντεο, αντικαθίσταται από ένα άλλο. Τα deepfakes δημιουργήθηκαν το 2014 από τον Ίαν Γκουντφέλοου, πρώην διευθυντή του συστήματος μηχανικής μάθησης της ειδικής ομάδας Project της Apple. Το 2017, ένας χρήστης της πορνογραφικής ιστοσελίδας Reddit, με το ψευδώνυμο deepfake, ανάρτησε ένα πορνογραφικό βίντεο με “πρωταγωνίστρια” την Ισραηλινή ηθοποιό Γκαλ Γκαντότ.
Στην περίπτωση του Τομ Κρουζ, η αληθοφάνεια των βίντεο επιβεβαίωσε το πόσο έχει εξελιχθεί η συγκεκριμένη τεχνολογία, εγείροντας ερωτήματα και ανησυχίες. Εξάλλου και μόνο ο όρος deepfake που περιλαμβάνει τη λέξη “ψεύτικο” κουβαλάει μία αρνητική χροιά. Άτομα που ειδικεύονται στην ασφάλεια του Διαδικτύου σημειώνουν ότι τα συγκεκριμένα βίντεο αποδεικνύουν ότι έχουμε φτάσει στο σημείο όπου δεν μπορεί να διακρίνει κάποιος τη διαφορά μεταξύ αληθινού και ψεύτικου. Εκτός από τη μάστιγα των fake news, τα deepfake αναδεικνύονται σε νέο πονοκέφαλο. Διαδίδονται πολύ εύκολα και λόγω του καθολικά προσβάσιμου λογισμικού.
Πίσω από αυτό βρίσκεται η πρόοδος της τεχνητής νοημοσύνης. Αν έπρεπε να την ορίσει κανείς θα έλεγε ότι πρόκειται για την τεχνολογία, όπου μηχανές σκέπτονται και δρουν σαν άνθρωποι, συχνά πολύ πιο αποτελεσματικά και γρήγορα. Έχει εισέλθει στη ζωή μας και αλληλεπιδρούμε μαζί της. Η εφαρμογή της είναι πιο έντονη στα μέσα κοινωνικής δικτύωσης. Οι αλληλεπιδράσεις που έχουμε με άλλους χρήστες διαμορφώνουν τον αλγόριθμο κατά τέτοιο τρόπο, ώστε να καταλήγουμε να βλέπουμε πιο συχνά αυτά που μας ενδιαφέρουν, ή που ο αλγόριθμος “νομίζει” ότι μας ενδιαφέρουν, επειδή ανοίξαμε κάποιες σελίδες.
Κυρίαρχη η τεχνητή νοημοσύνη
Προσεχώς, η τεχνητή νοημοσύνη αναμένεται να κυριαρχήσει. Θα έχει παρουσία σε όλους τους τομείς, συμβάλοντας θετικά, από την υγεία έως τη γεωργία και από την ασφάλεια έως τη μεταποίηση. Μεταξύ άλλων, δημιουργεί και οπτικό περιεχόμενο. Το σύστημα τεχνητής νοημοσύνης που ανέπτυξε η εταιρεία του Έλον Μάσκ δημιούργησε ένα θεατρικό έργο (ολόκληρο το κείμενο) μελετώντας χιλιάδες θεατρικά κείμενα.
Ένας αλγόριθμος τεχνητής νοημοσύνης στο Ισραήλ έχει εκπαιδευτεί, βλέποντας οπτικό υλικό όπως παλιά βίντεο και φωτογραφίες, να ζωντανεύει ανθρώπους που δεν υπάρχουν πλέον στη ζωή. Υπολογιστές δημιούργησαν νέα πορτρέτα, τα οποία ήταν έτσι σχεδιασμένα ώστε να είναι ελκυστικά, σε προσωπικό επίπεδο, σε αυτούς που τα έβλεπαν.
Ερευνητές από τα πανεπιστήμια του Ελσίνκι και της Κοπεγχάγης απέδειξαν ότι ένας υπολογιστής είναι σε θέση να βρει τα χαρακτηριστικά προσώπου που θεωρεί κάποιος ελκυστικά και, με βάση αυτά, να δημιουργήσει νέες εικόνες που ταιριάζουν στα κριτήριά του. Τεράστιες εταιρείες αφήνουν την αξιολόγηση βιογραφικών για θέσεις εργασίας στους υπολογιστές. Έχουν υπάρξει, μάλιστα, καταγγελίες ότι το σύστημα ταυτοποίησης της Uber, το οποίο βασίζεται στους υπολογιστές είναι άκρως ρατσιστικό! Το λογισμικό αδυνατούσε να αναγνωρίσει και να επαληθεύσει σκουρόχρωμα πρόσωπα, απορρίπτοντας τέτοιους υποψήφιους πελάτες.
Ερωτήματα και ανησυχίες
Όπως κάθε τί, όμως, χρειάζεται ένα αυστηρό πλαίσιο, βασικούς κανόνες και γενικές προδιαγραφές. Ακόμα και το πλαίσιο είναι δύσκολο να διαμορφωθεί. Σύμφωνα με έρευνες, παρατηρούνται σημαντικές διαφορές στον τρόπο με τον οποίο ο δημόσιος και ο ιδιωτικός τομέας αντιλαμβάνονται το μέλλον της τεχνητής νοημοσύνης, όσον αφορά σε ζητήματα ηθικής, διακυβέρνησης, ιδιωτικότητας και ρυθμιστικού πλαισίου.
Αλλά και χωρίς αυτό τον διαχωρισμό και πάλι εγείρονται σημαντικά ερωτήματα και ανησυχίες για τις πολιτικές, κοινωνικές και ηθικές προεκτάσεις. Πόσο ασφαλείς είμαστε όταν οι υπολογιστές επιλύουν προβλήματα με αυτονομία, μιμούμενοι όχι μόνο την ανθρώπινη ικανότητα μάθησης, αλλά και τους ίδιους τους ανθρώπους; Όταν συλλέγουν στοιχεία, δημιουργούν τα άβαταρ τους, αφαιρώντας από την εξίσωση τη μεταβλητή του ανθρώπινου παράγοντα.
Είναι παραπάνω από σαφές ότι στα λάθος χέρια κάτι τέτοιο θα μπορούσε να είναι όχι απλά παραπλανητικό, αλλά καταστροφικό. Ακόμα και η κατάχρησή του σε ανυποψίαστους δέκτες είναι επιζήμια. Πρωτίστως, τίθεται ζήτημα αξιοπιστίας. Μπορεί να κατευθύνει το κοινό που δεν διακρίνει το αληθινό από το κατασκευασμένο. Πλήττεται η ακεραιότητα και η αμεροληψία κάθε πληροφορίας, η οποία μπορεί να είναι κατασκευασμένη από τους διαχειριστές του συστήματος για ίδιον όφελος. Έχουν ήδη υπάρξει θύματα των deepfakes στα σόσιαλ μίντια, γυναίκες που ερήμην τους πρωταγωνίστησαν σε ερωτικά βίντεο.
Αλγόριθμοι εναντίον ανθρώπων
Αυτό σημαίνει ότι ένας εντυπωσιακός όγκος πληροφορίας για κάθε έναν από εμάς υπάρχει διαθέσιμος και μπορεί να στραφεί εναντίον μας με αυτό τον τρόπο. Ένας αλγόριθμος, δηλαδή, στοχεύει έναν άνθρωπο. Μέσω των φωτογραφιών και των βίντεο (για να δημιουργηθεί ένα deepfake βίντεο απαιτούνται πολλές φωτογραφίες του προσώπου που θέλει κανείς να μιμηθεί) υποκλέπτει λήψεις από διαφορετικές γωνίες και μιμείται τη συμπεριφορά και τον τρόπο ομιλίας του. Υποκλέπτει, δηλαδή, την ταυτότητά του. Τo 96% των deepfakes που κυκλοφορούν στο Διαδίκτυο είναι πορνογραφικής φύσης και αναμένεται η τάση αυτή να συνεχιστεί.
Τί θα συμβεί, όμως, στην περίπτωση που αναβαθμιστούν από εργαλείο ικανοποίησης ερωτικών φαντασιώσεων μερικών αντρών σε παντοδύναμο πολιτικό εργαλείο; Δύο χρόνια νωρίτερα, το Διαδίκτυο γέμισε από πλαστά βίντεο με πρωταγωνιστή τον Μπαράκ Ομπάμα. Οργανισμοί δηλώνουν ανήσυχοι για το πώς πλαστά βίντεο μπορούν να χρησιμοποιηθούν προκειμένου να υπονομευθεί η ίδια η δημοκρατία. Υποθετικά μπορούν να δημιουργήσουν το απόλυτο χάος, σε παγκόσμιο επίπεδο.
Ένα βίντεο, στο οποίο μια ηγετική προσωπικότητα ανακοινώνει μια ψεύτικη είδηση, μπορεί να επιφέρει πλήγμα στην παγκόσμια οικονομία και να επηρεάσει εκατομμύρια ανθρώπους. Από τον Δεκέμβριο 2018, ο αριθμός των deepfakes στο Διαδίκτυο διπλασιάζεται περίπου κάθε έξι μήνες. Η ραγδαία αυτή αύξηση δεν αναμένεται να σταματήσει. Οι ειδικοί παραδέχονται τον επικείμενο κίνδυνο. Υποστηρίζουν ότι οι ειδήμονες μπορεί να εντοπίσουν τα τεχνικά προβλήματα σε τέτοια βίντεο. Αυτό, όμως, δεν αλλάζει το γεγονός ότι ο απλός χρήστης δεν μπορεί.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου