Wiadomości branżowe

Ochrona przed deepfake’ami staje się coraz pilniejszą potrzebą. Innowacyjna technologia pozwoli zapobiec fałszowaniu mowy

Ochrona przed deepfake’ami staje się coraz pilniejszą potrzebą. Innowacyjna technologia pozwoli zapobiec fałszowaniu mowy
Deepfake stanie siÄ™ w najbliższych latach jednym z podstawowych narzÄ™dzi w rÄ™kach cyberprzestÄ™pców. Technika łączenia zdjęć, filmów i gÅ‚osu – czÄ™sto wykorzystywana w celach rozrywkowych – może być

Deepfake stanie siÄ™ w najbliższych latach jednym z podstawowych narzÄ™dzi w rÄ™kach cyberprzestÄ™pców. Technika łączenia zdjęć, filmów i gÅ‚osu – czÄ™sto wykorzystywana w celach rozrywkowych – może być także groźnym instrumentem sÅ‚użącym dezinformacji, ale i atakom wyÅ‚udzajÄ…cym dane czy pieniÄ…dze. Walka z takimi zagrożeniami staje siÄ™ przedmiotem prac wielu naukowców. Badacze z Uniwersytetu Waszyngtona w St. Louis opracowali mechanizm obronny AntiFake, który ma zapobiegać nieautoryzowanej syntezie mowy, utrudniajÄ…c sztucznej inteligencji odczytanie kluczowych cech gÅ‚osu. Zapotrzebowanie na takie narzÄ™dzia bÄ™dzie rosÅ‚o wraz z rozwojem rynku generatywnej SI.

– PojÄ™cie „deepfake” skÅ‚ada siÄ™ z dwóch czÅ‚onów. Pierwszy z nich, deep, odnosi siÄ™ do głębokich sieci neuronowych, które stanowiÄ… najbardziej rozwiniÄ™ty aspekt uczenia maszynowego. Fake oznacza tworzenie faÅ‚szywego obrazu twarzy lub gÅ‚osu. W naszym kontekÅ›cie sÅ‚owo to oznacza, że cyberprzestÄ™pca może wykorzystać głębokie sieci neuronowe, aby podrobić mowÄ™ danej osoby – mówi w wywiadzie dla agencji Newseria Innowacje Zhiyuan Yu, doktorant na Wydziale Informatyki Uniwersytetu Waszyngtona w St. Louis. – Zastosowanie deepfake’ów do celów zÅ‚oÅ›liwych ataków może przybrać wiele form. JednÄ… z nich jest wykorzystanie ich do rozpowszechniania faÅ‚szywych informacji i mowy nienawiÅ›ci, również na podstawie gÅ‚osu osób powszechnie znanych. PrzykÅ‚adowo przestÄ™pca użyÅ‚ gÅ‚osu prezydenta Bidena, aby wypowiedzieć Rosji wojnÄ™. MieliÅ›my również do czynienia z sytuacjami, kiedy cyberprzestÄ™pca wykorzystaÅ‚ gÅ‚os użytkownika, aby przejść weryfikacjÄ™ tożsamoÅ›ci w banku. Takie sytuacje staÅ‚y siÄ™ częściÄ… naszego życia.

Eksperci WithSecure przewidujÄ…, że w 2024 roku dojdzie do nasilenia problemu dezinformacji z użyciem technologii deepfake. BÄ™dzie siÄ™ tak dziaÅ‚o gÅ‚ównie z uwagi na to, że to rok wyborów prezydenckich w USA oraz do Parlamentu Europejskiego.

W obliczu zagrożeÅ„ zwiÄ…zanych z deepfake’ami proponujemy aktywne przeciwdziaÅ‚anie im za pomocÄ… technologii AntiFake. PowstaÅ‚e dotychczas rozwiÄ…zania systemowe opierajÄ… siÄ™ na wykrywaniu zagrożeÅ„. WykorzystujÄ… techniki analizy sygnaÅ‚u mowy lub metody wykrywania oparte o fizykÄ™, aby rozróżnić, czy dana próbka jest autentycznÄ… wypowiedzÄ… danej osoby, czy zostaÅ‚a wygenerowana przez sztucznÄ… inteligencjÄ™. Nasza technologia AntiFake opiera siÄ™ jednak na zupeÅ‚nie innej metodzie proaktywnej – mówi Zhiyuan Yu.

A to już wiesz?  Rossmann przyspiesza ekspansjÄ™

Wykorzystana przez twórców metoda bazuje na dodaniu niewielkich zakÅ‚óceÅ„ do próbek mowy. Oznacza to, że gdy cyberprzestÄ™pca użyje ich do syntezy mowy, wygenerowana próbka bÄ™dzie brzmiaÅ‚a zupeÅ‚nie inaczej niż użytkownik. Nie uda siÄ™ wiÄ™c za jej pomocÄ… oszukać rodziny ani obejść gÅ‚osowej weryfikacji tożsamoÅ›ci.

Niewiele osób ma dostÄ™p do wykrywaczy deepfake’ów. Wyobraźmy sobie, że dostajemy e-mail, który zawiera próbkÄ™ gÅ‚osu, lub otrzymujemy takÄ… próbkÄ™ na portalu spoÅ‚ecznoÅ›ciowym. Niewiele osób poszuka wtedy wykrywacza w sieci, aby przekonać siÄ™, czy próbka jest autentyczna. WedÅ‚ug nas ważne jest przede wszystkim zapobieganie takim atakom. JeÅ›li przestÄ™pcy nie uda siÄ™ wygenerować próbki gÅ‚osu, który brzmi jak gÅ‚os danej osoby, do ataku wcale nie dojdzie – podkreÅ›la badacz.

Od strony technologicznej rozwiÄ…zanie bazuje na dodaniu zakÅ‚óceÅ„ do próbek dźwiÄ™ku. ProjektujÄ…c system, twórcy musieli siÄ™ zmierzyć z kilkoma problemami projektowymi. Pierwszym byÅ‚o to, jakiego rodzaju zakÅ‚ócenia powinny zostać naÅ‚ożone na dźwiÄ™k tak, by byÅ‚y niewychwytywalne dla ucha, a jednak skuteczne.

– To prawda, że im wiÄ™cej zakÅ‚óceÅ„, tym lepsza ochrona, jednak gdy oryginalna próbka bÄ™dzie siÄ™ skÅ‚adać z samych zakÅ‚óceÅ„, użytkownik nie może z niej w ogóle korzystać – mówi Zhiyuan Yu.

Ważne byÅ‚o też to, by stworzyć rozwiÄ…zanie uniwersalne, które sprawdzi siÄ™ w różnego rodzaju syntezatorach mowy.

ZastosowaliÅ›my model uczenia zespoÅ‚owego, na potrzeby którego zebraliÅ›my różne modele i stwierdziliÅ›my, że enkoder mowy jest bardzo ważnym elementem syntezatora. PrzeksztaÅ‚ca on próbki mowy na wektory, które odzwierciedlajÄ… cechy mowy danej osoby. Jest on najważniejszym elementem syntezatora stanowiÄ…cym o tożsamoÅ›ci osoby mówiÄ…cej w wygenerowanej mowie. ChcieliÅ›my zmodyfikować osadzone fragmenty z zastosowaniem enkodera. UżyliÅ›my czterech różnych enkoderów, aby zapewnić uniwersalne zastosowanie do różnych próbek gÅ‚osu – wyjaÅ›nia naukowiec z Uniwersytetu Waszyngtona w St. Louis.

A to już wiesz?  Współpraca Volvo Cars i Ericsson w zakresie usÅ‚ug internetowych

Kod źródÅ‚owy technologii opracowanej na Wydziale Informatyki Uniwersytetu Waszyngtona w St. Louis jest ogólnodostÄ™pny. W testach prowadzonych na najpopularniejszych syntezatorach AntiFake wykazaÅ‚ 95-proc. skuteczność. Poza tym narzÄ™dzie to byÅ‚o testowane na 24 uczestnikach, aby potwierdzić, że jest dostÄ™pne dla różnych populacji. Jak wyjaÅ›nia ekspert, gÅ‚ównym ograniczeniem tego rozwiÄ…zania jest to, że cyberprzestÄ™pcy mogÄ… próbować obejść zabezpieczenie, usuwajÄ…c zakÅ‚ócenia z próbki. Istnieje też ryzyko, że pojawiÄ… siÄ™ nieco inaczej skonstruowane syntezatory, co do których tak pomyÅ›lana technologia nie bÄ™dzie już skuteczna. Zdaniem ekspertów bÄ™dÄ… jednak w dalszym ciÄ…gu toczyć siÄ™ prace nad wyeliminowaniem ryzyka ataków za pomocÄ… deepfake’ów. Obecnie AntiFake potrafi chronić krótkie nagrania, ale nic nie stoi na przeszkodzie, aby rozwijać go do ochrony dÅ‚uższych nagraÅ„, a nawet muzyki.

JesteÅ›my przekonani, że niedÅ‚ugo pojawi siÄ™ wiele innych opracowaÅ„, które bÄ™dÄ… miaÅ‚y na celu zapobieganie takim problemom. Nasza grupa pracuje wÅ‚aÅ›nie nad ochronÄ… przed nieuprawnionym generowaniem piosenek i utworów muzycznych, ponieważ dostajemy wiadomoÅ›ci od producentów i ludzi pracujÄ…cych w branży muzycznej z zapytaniami, czy nasz mechanizm AntiFake można wykorzystać na ich potrzeby. CiÄ…gle wiÄ™c pracujemy nad rozszerzeniem ochrony na inne dziedziny – podkreÅ›la Zhiyuan Yu.

Future Market Insights szacowaÅ‚, że wartość rynku generatywnej sztucznej inteligencji zamknie siÄ™ w 2023 roku w kwocie 10,9 mld dol. W ciÄ…gu najbliższych 10 lat jego wzrost bÄ™dzie spektakularny, bo utrzyma siÄ™ na poziomie Å›rednio 31,3 proc. rocznie. Oznacza to, że w 2033 roku przychody rynku przekroczÄ… 167,4 mld dol. Autorzy raportu zwracajÄ… jednak uwagÄ™ na to, że treÅ›ci generowane przez sztucznÄ… inteligencjÄ™ mogÄ… być wykorzystywane w zÅ‚oÅ›liwy sposób, na przykÅ‚ad w faÅ‚szywych filmach, dezinformacji lub naruszeniach wÅ‚asnoÅ›ci intelektualnej.

Artykuly o tym samym temacie, podobne tematy