Φανταστείτε κάποιον που δημιούργησε ένα deepfake βίντεο από εσάς απλά κλέβοντας τη φωτο προφίλ σας στο Facebook. Ευτυχώς, οι κακοί δεν έχουν τα χέρια τους σε αυτή την τεχνολογία ακόμα.
Αλλά η Samsung έχει καταλάβει πώς να το κάνει να συμβεί.
Λογισμικό για τη δημιουργία deepfake κλιπ που κάνουν τους ανθρώπους να φαίνονται να κάνουν ή να λένε πράγματα που δεν έκαναν ποτέ - συνήθως απαιτεί μεγάλα σύνολα δεδομένων για να δημιουργήσουν μια ρεαλιστική πλαστογραφία. Τώρα, η Samsung έχει αναπτύξει ένα νέο σύστημα τεχνητής νοημοσύνης που μπορεί να δημιουργήσει ένα πλαστό κλιπ, τροφοδοτώντας το με μία φωτογραφία.
Η τεχνολογία, φυσικά, μπορεί να χρησιμοποιηθεί για διασκέδαση, όπως να φέρει ένα κλασικό πορτρέτο στη ζωή. Η Μόνα Λίζα, της οποίας το αινιγματικό χαμόγελο ζωντανεύει σε τρία διαφορετικά βίντεο για να επιδείξει τη νέα τεχνολογία, υπάρχει μόνο ως ενιαία ακίνητη εικόνα. Ένα εργαστήριο τεχνητής νοημοσύνης της Samsung στη Ρωσία ανέπτυξε την τεχνολογία, η οποία αναλύθηκε σε μια εργασία νωρίτερα αυτή την εβδομάδα.
Εδώ είναι το μειονέκτημα: Αυτές οι τεχνικές και η ταχεία ανάπτυξή τους δημιουργούν επίσης κινδύνους παραπληροφόρησης, παραβιάσεων των εκλογών και απάτης, σύμφωνα με τον Hany Farid, ερευνητή του Dartmouth που ειδικεύεται στην εγκληματολογία των μέσων μαζικής ενημέρωσης.
"Μετά την τάση του προηγούμενου έτους, αυτή και οι σχετικές τεχνικές απαιτούν όλο και λιγότερα δεδομένα και παράγουν όλο και πιο εξελιγμένο και συναρπαστικό περιεχόμενο", δήλωσε ο Farid. Παρόλο που η διαδικασία της Samsung μπορεί να δημιουργήσει οπτικά προβλήματα, "αυτά τα αποτελέσματα είναι ένα ακόμα βήμα στην εξέλιξη των τεχνικών ... οδηγώντας στη δημιουργία περιεχομένου πολυμέσων που τελικά θα είναι αδιαίρετο από το πραγματικό πράγμα".
Όπως το Photoshop για βίντεο σχετικά με στεροειδή, το deepfake λογισμικό παράγει πλαστά με τη χρήση μηχανικής μάθησης για να κατασκευάσει πειστικά ένα κινούμενο, ομιλούν άνθρωπο. Παρόλο που ο χειρισμός του υπολογιστή από το βίντεο υπήρχε εδώ και δεκαετίες, τα συστήματα deepfake έχουν κάνει όχι μόνο ευκολότερους αλλά και πιο ανθεκτικούς κλιπς. Σκεφτείτε τους ως φωτορεαλιστικές ψηφιακές μαριονέτες.
Πολλοί βαθύτατοι, όπως και εκείνος που ζωντανεύει τη Mona Lisa, είναι αβλαβείς διασκέδαση. Η τεχνολογία κατέστησε δυνατή την ύπαρξη ενός ολόκληρου είδους μιμών, μεταξύ των οποίων και το πρόσωπο στο οποίο το πρόσωπο του Νικολάου Κέιτζ τοποθετείται σε ταινίες και τηλεοπτικές εκπομπές στις οποίες δεν ανήκε. Ωστόσο, η τεχνολογία deepfake μπορεί επίσης να είναι ύπουλη, όπως όταν χρησιμοποιείται για να μεταμοσχεύσει το πρόσωπο ενός ανυποψίαστου προσώπου σε ρητές ταινίες ενηλίκων, μια τεχνική που χρησιμοποιείται μερικές φορές στην πορνογραφία εκδίκησης.
Στα χαρτιά, το εργαστήριο AI της Samsung χαρακτήρισε τις δημιουργίες του «ρεαλιστικές κεφαλές νευρωνικών συνομιλιών». Ο όρος "συνομιλίες" αναφέρεται στο είδος του βίντεο που μπορεί να δημιουργήσει το σύστημα. Είναι παρόμοια με εκείνα τα κουτιά βίντεο των ειδικών που βλέπετε στα τηλεοπτικά νέα. Η λέξη "νευρική" είναι ένα νεύμα στα νευρωνικά δίκτυα, ένας τύπος μηχανικής μάθησης που μιμείται τον ανθρώπινο εγκέφαλο.
Οι ερευνητές είδαν την ανακάλυψη τους να χρησιμοποιείται σε πλήθος εφαρμογών, συμπεριλαμβανομένων των βιντεοπαιχνιδιών, του κινηματογράφου και της τηλεόρασης. "Η ικανότητα αυτή έχει πρακτικές εφαρμογές τηλεπαρουσίας, συμπεριλαμβανομένων των τηλεδιάσκεψης και των παιχνιδιών πολλών παικτών, καθώς και της βιομηχανίας ειδικών εφέ», έγραψαν.
Το χαρτί συνοδεύτηκε από ένα βίντεο που δείχνει τις δημιουργίες της ομάδας, κάτι που συνέβη και με ενα απογοητευτικό soundtrack.
Συνήθως, ένα συνθετικό κεφάλι ομιλίας απαιτεί από εσάς να εκπαιδεύσετε ένα σύστημα τεχνητής νοημοσύνης σε ένα μεγάλο σύνολο εικόνων εικόνων ενός μόνο ατόμου. Επειδή χρειάζονταν τόσες πολλές φωτογραφίες ενός ατόμου, οι βαθιά στόχοι ήταν συνήθως δημόσιες προσωπικότητες, όπως διασημότητες και πολιτικοί.
Το σύστημα της Samsung χρησιμοποιεί ένα τέχνασμα που φαίνεται να εμπνέεται από το διάσημο απόσπασμα του Alexander Graham Bell, «Πριν από οτιδήποτε άλλο, η προετοιμασία είναι το κλειδί για την επιτυχία». Το σύστημα ξεκινάει με ένα μακρύ "μετα-μάθημα" στο οποίο παρακολουθεί πολλά βίντεο για να μάθει πώς κινούνται τα ανθρώπινα πρόσωπα. Στη συνέχεια, εφαρμόζει αυτό που έχει μάθει σε ένα ενιαίο ακόμα ή μια μικρή χούφτα από φωτογραφίες για να παράγει ένα λογικά ρεαλιστικό βίντεο κλιπ.
Σε αντίθεση με ένα πραγματικό deepfake βίντεο, τα αποτελέσματα από ένα μόνο ή μικρό αριθμό εικόνων φουντώνουν κατά την αναπαραγωγή λεπτών λεπτομερειών. Για παράδειγμα, ένα ψευδώνυμο της Marilyn Monroe στο βίντεο επίδειξης του εργαστηρίου της Samsung έχασε το περίφημο mole του εικονιδίου, σύμφωνα με τον Siwei Lyu, καθηγητή ηλεκτρονικών υπολογιστών στο Πανεπιστήμιο του Albany στη Νέα Υόρκη, ο οποίος ειδικεύεται στην εγκληματολογία των μέσων μαζικής ενημέρωσης και στη μηχανική μάθηση. Σημαίνει επίσης ότι τα συνθετικά βίντεο τείνουν να διατηρούν κάποια ομοιότητα όποιος έπαιξε το ρόλο της ψηφιακής μαριονέτας. Αυτός είναι ο λόγος για τον οποίο κάθε ένα από τα κινούμενα πρόσωπα της Mona Lisa μοιάζει με ένα ελαφρώς διαφορετικό άτομο.
Γενικά, ένα σύστημα deepfake αποσκοπεί στην εξάλειψη αυτών των οπτικών λόξυγγας. Αυτό απαιτεί σημαντικές ποσότητες δεδομένων εκπαίδευσης τόσο από το βίντεο εισόδου όσο και από το άτομο-στόχο.
Η πτυχή αυτής της προσέγγισης είναι πολύ χρήσιμη, δήλωσε ο Lyu, διότι σημαίνει ότι ένα μεγάλο δίκτυο μπορεί να εκπαιδευτεί σε μεγάλο αριθμό βίντεο, το οποίο είναι το μέρος που διαρκεί πολύ. Αυτό το είδος του συστήματος μπορεί στη συνέχεια να προσαρμοστεί γρήγορα σε ένα νέο άτομο-στόχο χρησιμοποιώντας μόνο μερικές εικόνες χωρίς εκτεταμένη επανεκπαίδευση, είπε. "Αυτό εξοικονομεί χρόνο στην έννοια και καθιστά το μοντέλο γενικεύσιμο."
Η ταχεία πρόοδος της τεχνητής νοημοσύνης σημαίνει ότι κάθε φορά που ένας ερευνητής μοιράζεται μια σημαντική ανακάλυψη στη βαθιά δημιουργία, οι κακοί ηθοποιοί μπορούν να ξεκινήσουν να αποξέσουν μαζί τα δικά τους εργαλεία με τη δικαιοσύνη για να το μιμηθούν. Οι πρόοδοι της Samsung είναι πιθανό να βρουν το δρόμο τους στα χέρια περισσότερων ανθρώπων πολύ σύντομα.
Οι δυσλειτουργίες στα ψεύτικα βίντεο που γίνονται με τη νέα προσέγγιση της Samsung μπορεί να είναι ξεκάθαρες και προφανείς. Αλλά δε θα είναι και τόσο ωραίο για όποιον καταλήγει σε ένα deepfake που παράγεται από εκείνη την χαμογελαστή φωτογραφία που δημοσιεύτηκε στο Facebook.