Πίνακας περιεχομένων:

Deep fakes: Το Neuroset διδάχθηκε να παράγει πλαστά ήχου και βίντεο
Deep fakes: Το Neuroset διδάχθηκε να παράγει πλαστά ήχου και βίντεο

Βίντεο: Deep fakes: Το Neuroset διδάχθηκε να παράγει πλαστά ήχου και βίντεο

Βίντεο: Deep fakes: Το Neuroset διδάχθηκε να παράγει πλαστά ήχου και βίντεο
Βίντεο: 25 Путеводитель в Сингапуре Путеводитель 2024, Απρίλιος
Anonim

Για να δημιουργήσουμε μια «μεμονωμένη» εικόνα ειδήσεων για οποιονδήποτε από εμάς και να παραποιήσουμε τα δημοσιεύματα των μέσων που έχουν επιλεγεί σε αυτήν, οι προσπάθειες ενός προγραμματιστή αρκούν σήμερα. Ειδικοί στην τεχνητή νοημοσύνη και την κυβερνοασφάλεια είπαν στην Izvestia σχετικά.

Πιο πρόσφατα, εκτίμησαν ότι αυτό απαιτούσε τη δουλειά πολλών ομάδων. Μια τέτοια επιτάχυνση κατέστη δυνατή με την ανάπτυξη τεχνολογιών για επιθέσεις σε νευρωνικά δίκτυα και τη δημιουργία απομιμήσεων ήχου και βίντεο με τη χρήση προγραμμάτων για τη δημιουργία «deep fakes». Η εφημερίδα Izvestia δέχθηκε πρόσφατα παρόμοια επίθεση, όταν τρεις λιβυκές πύλες ειδήσεων δημοσίευσαν αμέσως ένα μήνυμα που φέρεται να εμφανίστηκε σε ένα από τα τεύχη. Σύμφωνα με τους ειδικούς, μέσα σε 3-5 χρόνια μπορούμε να περιμένουμε μια εισβολή ρομποτικών χειριστών, που θα μπορούν αυτόματα να δημιουργήσουν πολλά ψεύτικα.

Γενναίος νέος κόσμος

Υπάρχουν όλο και περισσότερα έργα που προσαρμόζουν την εικόνα της πληροφορίας στην αντίληψη συγκεκριμένων χρηστών. Ένα παράδειγμα της δουλειάς τους ήταν η πρόσφατη δράση τριών λιβυκών πυλών, που δημοσίευσαν μια είδηση που φέρεται να δημοσιεύτηκε στο τεύχος της Izvestia στις 20 Νοεμβρίου. Οι δημιουργοί του πλαστού τροποποίησαν το πρωτοσέλιδο της εφημερίδας, αναρτώντας σε αυτό ένα μήνυμα σχετικά με τις διαπραγματεύσεις μεταξύ του Στρατάρχη Χαλίφα Χάφταρ και του Πρωθυπουργού της Κυβέρνησης Εθνικής Συμφωνίας (PNS) Fayez Sarraj. Το ψεύτικο, σε γραμματοσειρά Izvestia, συνοδευόταν από μια φωτογραφία των δύο ηγετών που τραβήχτηκαν τον Μάιο του 2017. Η ετικέτα με το λογότυπο της έκδοσης κόπηκε από το πραγματικό τεύχος της 20ης Νοεμβρίου και όλα τα άλλα κείμενα στη σελίδα από το τεύχος της 23ης Οκτωβρίου.

Από την πλευρά των ειδικών, στο άμεσο μέλλον, τέτοιες παραποιήσεις μπορούν να γίνουν αυτόματα.

The Truman Show - 2019: Πώς τα νευρωνικά δίκτυα έμαθαν να παραποιούν την εικόνα των ειδήσεων
The Truman Show - 2019: Πώς τα νευρωνικά δίκτυα έμαθαν να παραποιούν την εικόνα των ειδήσεων

«Οι τεχνολογίες τεχνητής νοημοσύνης είναι πλέον εντελώς ανοιχτές και οι συσκευές λήψης και επεξεργασίας δεδομένων μικραίνουν και γίνονται φθηνότερες», δήλωσε ο Γιούρι Βίλσιτερ, Διδάκτωρ Φυσικών και Μαθηματικών Επιστημών, Καθηγητής της Ρωσικής Ακαδημίας Επιστημών, επικεφαλής του τμήματος FSUE «GosNIAS». είπε στην Izvestia. - Επομένως, είναι πολύ πιθανό στο εγγύς μέλλον ούτε το κράτος και οι μεγάλες εταιρείες, αλλά απλώς ιδιώτες να μπορούν να μας κρυφακούουν και να κατασκοπεύουν, καθώς και να χειραγωγούν την πραγματικότητα. Τα επόμενα χρόνια, θα είναι δυνατό, αναλύοντας τις προτιμήσεις των χρηστών, να τον επηρεάσουμε μέσω ειδήσεων και πολύ έξυπνων πλαστών.

Σύμφωνα με τον Γιούρι Βιλσίτερ, τεχνολογίες που μπορούν να χρησιμοποιηθούν για μια τέτοια παρέμβαση στο ψυχικό περιβάλλον υπάρχουν ήδη. Θεωρητικά, η εισβολή των ρομποτικών ρομπότ μπορεί να αναμένεται σε λίγα χρόνια, είπε. Ένα περιοριστικό σημείο εδώ μπορεί να είναι η ανάγκη συλλογής μεγάλων βάσεων δεδομένων παραδειγμάτων απόκρισης πραγματικών ανθρώπων σε τεχνητά ερεθίσματα με παρακολούθηση μακροπρόθεσμων συνεπειών. Μια τέτοια παρακολούθηση πιθανότατα θα απαιτήσει αρκετά ακόμη χρόνια έρευνας προτού επιτευχθούν με συνέπεια στοχευμένες επιθέσεις.

Επίθεση στο όραμα

Ο Alexey Parfentiev, επικεφαλής του τμήματος ανάλυσης στο SearchInform, συμφωνεί επίσης με τον Yuri Vilsiter. Σύμφωνα με τον ίδιο, οι ειδικοί προβλέπουν ήδη επιθέσεις σε νευρωνικά δίκτυα, αν και τώρα πρακτικά δεν υπάρχουν τέτοια παραδείγματα.

- Ερευνητές από τη Gartner πιστεύουν ότι έως το 2022, το 30% όλων των επιθέσεων στον κυβερνοχώρο θα στοχεύουν στην καταστροφή των δεδομένων στα οποία εκπαιδεύεται το νευρωνικό δίκτυο και στην κλοπή έτοιμα μοντέλων μηχανικής μάθησης. Τότε, για παράδειγμα, τα μη επανδρωμένα οχήματα μπορεί ξαφνικά να αρχίσουν να παρεξηγούν τους πεζούς με άλλα αντικείμενα. Και δεν θα μιλήσουμε για οικονομικό ή κίνδυνο φήμης, αλλά για τη ζωή και την υγεία των απλών ανθρώπων, πιστεύει ο ειδικός.

Οι επιθέσεις σε συστήματα όρασης υπολογιστών πραγματοποιούνται ως μέρος της έρευνας τώρα. Ο σκοπός τέτοιων επιθέσεων είναι να κάνουν το νευρωνικό δίκτυο να ανιχνεύσει κάτι στην εικόνα που δεν υπάρχει. Ή, αντίθετα, να μην δούμε τι σχεδιάστηκε.

The Truman Show - 2019: Πώς τα νευρωνικά δίκτυα έμαθαν να παραποιούν την εικόνα των ειδήσεων
The Truman Show - 2019: Πώς τα νευρωνικά δίκτυα έμαθαν να παραποιούν την εικόνα των ειδήσεων

"Ένα από τα ενεργά αναπτυσσόμενα θέματα στον τομέα της εκπαίδευσης των νευρωνικών δικτύων είναι οι λεγόμενες επιθέσεις αντιπάλου ("αντίπαλες επιθέσεις." - Izvestia)", εξήγησε ο Vladislav Tushkanov, αναλυτής Ιστού στο Kaspersky Lab. - Στις περισσότερες περιπτώσεις, απευθύνονται σε συστήματα υπολογιστικής όρασης. Για να πραγματοποιήσετε μια τέτοια επίθεση, στις περισσότερες περιπτώσεις, χρειάζεται να έχετε πλήρη πρόσβαση στο νευρωνικό δίκτυο (τις λεγόμενες επιθέσεις λευκού κουτιού) ή στα αποτελέσματα της δουλειάς του (επιθέσεις μαύρου κουτιού). Δεν υπάρχουν μέθοδοι που μπορούν να εξαπατήσουν οποιοδήποτε σύστημα όρασης υπολογιστή στο 100% των περιπτώσεων. Επιπλέον, έχουν ήδη δημιουργηθεί εργαλεία που σας επιτρέπουν να δοκιμάζετε τα νευρωνικά δίκτυα για αντοχή σε αντίθετες επιθέσεις και να αυξάνετε την αντίστασή τους.

Κατά τη διάρκεια μιας τέτοιας επίθεσης, ο εισβολέας προσπαθεί με κάποιο τρόπο να αλλάξει την αναγνωρισμένη εικόνα έτσι ώστε το νευρωνικό δίκτυο να μην λειτουργεί. Συχνά, ο θόρυβος υπερτίθεται στη φωτογραφία, παρόμοιος με αυτόν που εμφανίζεται όταν φωτογραφίζετε σε ένα δωμάτιο με κακή φωτισμό. Ένα άτομο συνήθως δεν παρατηρεί καλά τέτοιες παρεμβολές, αλλά το νευρωνικό δίκτυο αρχίζει να δυσλειτουργεί. Αλλά για να πραγματοποιήσει μια τέτοια επίθεση, ο εισβολέας χρειάζεται πρόσβαση στον αλγόριθμο.

Σύμφωνα με τον Stanislav Ashmanov, Γενικό Διευθυντή του Neuroset Ashmanov, επί του παρόντος δεν υπάρχουν μέθοδοι αντιμετώπισης αυτού του προβλήματος. Επιπλέον, αυτή η τεχνολογία είναι διαθέσιμη σε οποιονδήποτε: ένας μέσος προγραμματιστής μπορεί να τη χρησιμοποιήσει κατεβάζοντας το απαραίτητο λογισμικό ανοιχτού κώδικα από την υπηρεσία Github.

The Truman Show - 2019: Πώς τα νευρωνικά δίκτυα έμαθαν να παραποιούν την εικόνα των ειδήσεων
The Truman Show - 2019: Πώς τα νευρωνικά δίκτυα έμαθαν να παραποιούν την εικόνα των ειδήσεων

- Μια επίθεση σε ένα νευρωνικό δίκτυο είναι μια τεχνική και αλγόριθμοι για την εξαπάτηση ενός νευρωνικού δικτύου, που το κάνουν να παράγει ψευδή αποτελέσματα και στην πραγματικότητα να το σπάει σαν κλειδαριά πόρτας, - πιστεύει ο Ashmanov. - Για παράδειγμα, τώρα είναι πολύ εύκολο να κάνετε το σύστημα αναγνώρισης προσώπου να πιστεύει ότι δεν είστε εσείς, αλλά ο Arnold Schwarzenegger μπροστά του - αυτό γίνεται με την ανάμειξη πρόσθετων που δεν γίνονται αντιληπτά από το ανθρώπινο μάτι στα δεδομένα που έρχονται στο νευρωνικό δίκτυο. Οι ίδιες επιθέσεις είναι δυνατές για συστήματα αναγνώρισης και ανάλυσης ομιλίας.

Ο ειδικός είναι σίγουρος ότι θα χειροτερέψει - αυτές οι τεχνολογίες έχουν πάει στις μάζες, οι απατεώνες τις χρησιμοποιούν ήδη και δεν υπάρχει προστασία εναντίον τους. Καθώς δεν υπάρχει προστασία από την αυτοματοποιημένη δημιουργία πλαστών βίντεο και ήχου.

Βαθιά ψεύτικα

Οι τεχνολογίες Deepfake που βασίζονται στο Deep Learning (τεχνολογίες βαθιάς μάθησης νευρωνικών δικτύων. - Izvestia) αποτελούν ήδη πραγματική απειλή. Τα ψεύτικα βίντεο ή ήχου δημιουργούνται με επεξεργασία ή επικάλυψη των προσώπων διάσημων ανθρώπων που υποτίθεται ότι προφέρουν το απαραίτητο κείμενο και παίζουν τον απαραίτητο ρόλο στην πλοκή.

«Το Deepfake σάς επιτρέπει να αντικαταστήσετε τις κινήσεις των χειλιών και την ανθρώπινη ομιλία με βίντεο, το οποίο δημιουργεί μια αίσθηση ρεαλισμού αυτού που συμβαίνει», λέει ο Andrey Busargin, διευθυντής του τμήματος προστασίας καινοτόμων εμπορικών σημάτων και πνευματικής ιδιοκτησίας στο Group-IB. - Ψεύτικες διασημότητες «προσφέρουν» στους χρήστες στα κοινωνικά δίκτυα να συμμετέχουν στην κλήρωση πολύτιμων δώρων (smartphone, αυτοκίνητα, χρηματικά ποσά) κ.λπ. Οι σύνδεσμοι από τέτοιες δημοσιεύσεις βίντεο συχνά οδηγούν σε ιστότοπους απάτης και phishing, όπου οι χρήστες καλούνται να εισαγάγουν προσωπικά στοιχεία, συμπεριλαμβανομένων στοιχείων τραπεζικής κάρτας. Τέτοια συστήματα αποτελούν απειλή τόσο για τους απλούς χρήστες όσο και για δημόσια πρόσωπα που αναφέρονται σε διαφημίσεις. Αυτό το είδος απάτης αρχίζει να συσχετίζει τις εικόνες διασημοτήτων με απάτες ή διαφημισμένα αγαθά, και εδώ είναι που αντιμετωπίζουμε ζημιά προσωπικής επωνυμίας, λέει.

The Truman Show - 2019: Πώς τα νευρωνικά δίκτυα έμαθαν να παραποιούν την εικόνα των ειδήσεων
The Truman Show - 2019: Πώς τα νευρωνικά δίκτυα έμαθαν να παραποιούν την εικόνα των ειδήσεων

Μια άλλη απειλή συνδέεται με τη χρήση «ψεύτικων ψήφων» για τηλεφωνική απάτη. Για παράδειγμα, στη Γερμανία, εγκληματίες του κυβερνοχώρου χρησιμοποίησαν ψεύτικη φωνή για να κάνουν τον επικεφαλής μιας θυγατρικής από το Ηνωμένο Βασίλειο να μεταφέρει επειγόντως 220.000 ευρώ σε μια τηλεφωνική συνομιλία, παριστάνοντας τον διευθυντή της εταιρείας.σε λογαριασμό Ούγγρου προμηθευτή. Ο επικεφαλής της βρετανικής φίρμας υποψιάστηκε ένα κόλπο όταν το «αφεντικό» του ζήτησε δεύτερο χρηματικό ένταλμα, αλλά η κλήση προήλθε από έναν αυστριακό αριθμό. Μέχρι εκείνη τη στιγμή, η πρώτη δόση είχε ήδη μεταφερθεί σε λογαριασμό στην Ουγγαρία, από όπου τα χρήματα αποσύρθηκαν στο Μεξικό.

Αποδεικνύεται ότι οι τρέχουσες τεχνολογίες σας επιτρέπουν να δημιουργήσετε μια μεμονωμένη εικόνα ειδήσεων γεμάτη με ψεύτικες ειδήσεις. Επιπλέον, σύντομα θα είναι δυνατή η διάκριση των πλαστών από το πραγματικό βίντεο και ήχος μόνο μέσω υλικού. Σύμφωνα με τους ειδικούς, τα μέτρα που απαγορεύουν την ανάπτυξη νευρωνικών δικτύων είναι απίθανο να είναι αποτελεσματικά. Επομένως, σύντομα θα ζήσουμε σε έναν κόσμο στον οποίο θα είναι απαραίτητο να επανελέγξουμε συνεχώς τα πάντα.

«Πρέπει να προετοιμαστούμε για αυτό, και αυτό πρέπει να γίνει αποδεκτό», τόνισε ο Γιούρι Βίλσιτερ. - Η ανθρωπότητα δεν είναι η πρώτη φορά που περνά από τη μια πραγματικότητα στην άλλη. Ο κόσμος, ο τρόπος ζωής και οι αξίες μας διαφέρουν ριζικά από τον κόσμο στον οποίο ζούσαν οι πρόγονοί μας πριν από 60.000 χρόνια, πριν από 5.000 χρόνια, πριν από 2.000 χρόνια, ακόμη και πριν από 200-100 χρόνια. Στο εγγύς μέλλον, ένα άτομο θα στερηθεί σε μεγάλο βαθμό την ιδιωτική ζωή και ως εκ τούτου θα αναγκαστεί να μην κρύψει τίποτα και να ενεργήσει με ειλικρίνεια. Ταυτόχρονα, τίποτα στην περιβάλλουσα πραγματικότητα και στη δική του προσωπικότητα δεν μπορεί να ληφθεί με πίστη, όλα θα πρέπει να αμφισβητούνται και να ελέγχονται συνεχώς. Θα είναι όμως τρομερή αυτή η μελλοντική πραγματικότητα; Οχι. Απλώς θα είναι τελείως διαφορετικό.

Συνιστάται: