Deepfake stanie siÄ™ w najbliższych latach jednym z podstawowych narzÄ™dzi w rÄ™kach cyberprzestÄ™pców. Technika łączenia zdjęć, filmów i gÅ‚osu – czÄ™sto wykorzystywana w celach rozrywkowych – może być także groźnym instrumentem sÅ‚użącym dezinformacji, ale i atakom wyÅ‚udzajÄ…cym dane czy pieniÄ…dze. Walka z takimi zagrożeniami staje siÄ™ przedmiotem prac wielu naukowców. Badacze z Uniwersytetu Waszyngtona w St. Louis opracowali mechanizm obronny AntiFake, który ma zapobiegać nieautoryzowanej syntezie mowy, utrudniajÄ…c sztucznej inteligencji odczytanie kluczowych cech gÅ‚osu. Zapotrzebowanie na takie narzÄ™dzia bÄ™dzie rosÅ‚o wraz z rozwojem rynku generatywnej SI.
– PojÄ™cie „deepfake” skÅ‚ada siÄ™ z dwóch czÅ‚onów. Pierwszy z nich, deep, odnosi siÄ™ do głębokich sieci neuronowych, które stanowiÄ… najbardziej rozwiniÄ™ty aspekt uczenia maszynowego. Fake oznacza tworzenie faÅ‚szywego obrazu twarzy lub gÅ‚osu. W naszym kontekÅ›cie sÅ‚owo to oznacza, że cyberprzestÄ™pca może wykorzystać głębokie sieci neuronowe, aby podrobić mowÄ™ danej osoby – mówi w wywiadzie dla agencji Newseria Innowacje Zhiyuan Yu, doktorant na Wydziale Informatyki Uniwersytetu Waszyngtona w St. Louis. – Zastosowanie deepfake’ów do celów zÅ‚oÅ›liwych ataków może przybrać wiele form. JednÄ… z nich jest wykorzystanie ich do rozpowszechniania faÅ‚szywych informacji i mowy nienawiÅ›ci, również na podstawie gÅ‚osu osób powszechnie znanych. PrzykÅ‚adowo przestÄ™pca użyÅ‚ gÅ‚osu prezydenta Bidena, aby wypowiedzieć Rosji wojnÄ™. MieliÅ›my również do czynienia z sytuacjami, kiedy cyberprzestÄ™pca wykorzystaÅ‚ gÅ‚os użytkownika, aby przejść weryfikacjÄ™ tożsamoÅ›ci w banku. Takie sytuacje staÅ‚y siÄ™ częściÄ… naszego życia.
Eksperci WithSecure przewidujÄ…, że w 2024 roku dojdzie do nasilenia problemu dezinformacji z użyciem technologii deepfake. BÄ™dzie siÄ™ tak dziaÅ‚o gÅ‚ównie z uwagi na to, że to rok wyborów prezydenckich w USA oraz do Parlamentu Europejskiego.
– W obliczu zagrożeÅ„ zwiÄ…zanych z deepfake’ami proponujemy aktywne przeciwdziaÅ‚anie im za pomocÄ… technologii AntiFake. PowstaÅ‚e dotychczas rozwiÄ…zania systemowe opierajÄ… siÄ™ na wykrywaniu zagrożeÅ„. WykorzystujÄ… techniki analizy sygnaÅ‚u mowy lub metody wykrywania oparte o fizykÄ™, aby rozróżnić, czy dana próbka jest autentycznÄ… wypowiedzÄ… danej osoby, czy zostaÅ‚a wygenerowana przez sztucznÄ… inteligencjÄ™. Nasza technologia AntiFake opiera siÄ™ jednak na zupeÅ‚nie innej metodzie proaktywnej – mówi Zhiyuan Yu.
Wykorzystana przez twórców metoda bazuje na dodaniu niewielkich zakÅ‚óceÅ„ do próbek mowy. Oznacza to, że gdy cyberprzestÄ™pca użyje ich do syntezy mowy, wygenerowana próbka bÄ™dzie brzmiaÅ‚a zupeÅ‚nie inaczej niż użytkownik. Nie uda siÄ™ wiÄ™c za jej pomocÄ… oszukać rodziny ani obejść gÅ‚osowej weryfikacji tożsamoÅ›ci.
– Niewiele osób ma dostÄ™p do wykrywaczy deepfake’ów. Wyobraźmy sobie, że dostajemy e-mail, który zawiera próbkÄ™ gÅ‚osu, lub otrzymujemy takÄ… próbkÄ™ na portalu spoÅ‚ecznoÅ›ciowym. Niewiele osób poszuka wtedy wykrywacza w sieci, aby przekonać siÄ™, czy próbka jest autentyczna. WedÅ‚ug nas ważne jest przede wszystkim zapobieganie takim atakom. JeÅ›li przestÄ™pcy nie uda siÄ™ wygenerować próbki gÅ‚osu, który brzmi jak gÅ‚os danej osoby, do ataku wcale nie dojdzie – podkreÅ›la badacz.
Od strony technologicznej rozwiÄ…zanie bazuje na dodaniu zakÅ‚óceÅ„ do próbek dźwiÄ™ku. ProjektujÄ…c system, twórcy musieli siÄ™ zmierzyć z kilkoma problemami projektowymi. Pierwszym byÅ‚o to, jakiego rodzaju zakÅ‚ócenia powinny zostać naÅ‚ożone na dźwiÄ™k tak, by byÅ‚y niewychwytywalne dla ucha, a jednak skuteczne.
– To prawda, że im wiÄ™cej zakÅ‚óceÅ„, tym lepsza ochrona, jednak gdy oryginalna próbka bÄ™dzie siÄ™ skÅ‚adać z samych zakÅ‚óceÅ„, użytkownik nie może z niej w ogóle korzystać – mówi Zhiyuan Yu.
Ważne byÅ‚o też to, by stworzyć rozwiÄ…zanie uniwersalne, które sprawdzi siÄ™ w różnego rodzaju syntezatorach mowy.
– ZastosowaliÅ›my model uczenia zespoÅ‚owego, na potrzeby którego zebraliÅ›my różne modele i stwierdziliÅ›my, że enkoder mowy jest bardzo ważnym elementem syntezatora. PrzeksztaÅ‚ca on próbki mowy na wektory, które odzwierciedlajÄ… cechy mowy danej osoby. Jest on najważniejszym elementem syntezatora stanowiÄ…cym o tożsamoÅ›ci osoby mówiÄ…cej w wygenerowanej mowie. ChcieliÅ›my zmodyfikować osadzone fragmenty z zastosowaniem enkodera. UżyliÅ›my czterech różnych enkoderów, aby zapewnić uniwersalne zastosowanie do różnych próbek gÅ‚osu – wyjaÅ›nia naukowiec z Uniwersytetu Waszyngtona w St. Louis.
Kod źródÅ‚owy technologii opracowanej na Wydziale Informatyki Uniwersytetu Waszyngtona w St. Louis jest ogólnodostÄ™pny. W testach prowadzonych na najpopularniejszych syntezatorach AntiFake wykazaÅ‚ 95-proc. skuteczność. Poza tym narzÄ™dzie to byÅ‚o testowane na 24 uczestnikach, aby potwierdzić, że jest dostÄ™pne dla różnych populacji. Jak wyjaÅ›nia ekspert, gÅ‚ównym ograniczeniem tego rozwiÄ…zania jest to, że cyberprzestÄ™pcy mogÄ… próbować obejść zabezpieczenie, usuwajÄ…c zakÅ‚ócenia z próbki. Istnieje też ryzyko, że pojawiÄ… siÄ™ nieco inaczej skonstruowane syntezatory, co do których tak pomyÅ›lana technologia nie bÄ™dzie już skuteczna. Zdaniem ekspertów bÄ™dÄ… jednak w dalszym ciÄ…gu toczyć siÄ™ prace nad wyeliminowaniem ryzyka ataków za pomocÄ… deepfake’ów. Obecnie AntiFake potrafi chronić krótkie nagrania, ale nic nie stoi na przeszkodzie, aby rozwijać go do ochrony dÅ‚uższych nagraÅ„, a nawet muzyki.
– JesteÅ›my przekonani, że niedÅ‚ugo pojawi siÄ™ wiele innych opracowaÅ„, które bÄ™dÄ… miaÅ‚y na celu zapobieganie takim problemom. Nasza grupa pracuje wÅ‚aÅ›nie nad ochronÄ… przed nieuprawnionym generowaniem piosenek i utworów muzycznych, ponieważ dostajemy wiadomoÅ›ci od producentów i ludzi pracujÄ…cych w branży muzycznej z zapytaniami, czy nasz mechanizm AntiFake można wykorzystać na ich potrzeby. CiÄ…gle wiÄ™c pracujemy nad rozszerzeniem ochrony na inne dziedziny – podkreÅ›la Zhiyuan Yu.
Future Market Insights szacowaÅ‚, że wartość rynku generatywnej sztucznej inteligencji zamknie siÄ™ w 2023 roku w kwocie 10,9 mld dol. W ciÄ…gu najbliższych 10 lat jego wzrost bÄ™dzie spektakularny, bo utrzyma siÄ™ na poziomie Å›rednio 31,3 proc. rocznie. Oznacza to, że w 2033 roku przychody rynku przekroczÄ… 167,4 mld dol. Autorzy raportu zwracajÄ… jednak uwagÄ™ na to, że treÅ›ci generowane przez sztucznÄ… inteligencjÄ™ mogÄ… być wykorzystywane w zÅ‚oÅ›liwy sposób, na przykÅ‚ad w faÅ‚szywych filmach, dezinformacji lub naruszeniach wÅ‚asnoÅ›ci intelektualnej.
