ZbliżajÄ…ce siÄ™ wybory w ponad 50 krajach, w tym w USA i w Polsce, zachÄ™cÄ… twórców szkodliwych treÅ›ci do wzmożonego dziaÅ‚ania z wykorzystaniem sztucznej inteligencji. NajwiÄ™cej deepfake’ów prawdopodobnie powstanie latem tego roku. Analitycy sprawdzili, jakie miejsca w cyfrowym Å›wiecie sÄ… swoistymi inkubatorami dla dziaÅ‚aÅ„ „zÅ‚ych aktorów”, i sporzÄ…dzili ich mapÄ™. To maÅ‚e platformy sÄ… gÅ‚ównym źródÅ‚em powstawania i rozpowszechniania szkodliwych treÅ›ci. W tym kontekÅ›cie unijny Akt o usÅ‚ugach cyfrowych można ocenić jako nietrafiony, bo takie maÅ‚e platformy bÄ™dÄ… praktycznie poza kontrolÄ… przepisów. Naukowcy sugerujÄ… podejmowanie w walce z tym zjawiskiem dziaÅ‚aÅ„ opartych na realistycznych scenariuszach, a caÅ‚kowite jego wyeliminowanie do takich nie należy. Dlatego lepiej ograniczać skutki dezinformacji.
– Wszyscy mówiÄ… o tym, co może osiÄ…gnąć sztuczna inteligencja dziaÅ‚ajÄ…ca bez kontroli w mediach spoÅ‚ecznoÅ›ciowych. BiorÄ…c pod uwagÄ™ zagrożenia i tzw. bad actors, czyli „zÅ‚ych aktorów”, oraz wybory, które majÄ… siÄ™ odbyć w tym roku w wielu krajach, również w Polsce, prawdopodobnie także w Wielkiej Brytanii, a z pewnoÅ›ciÄ… w USA i Indiach – gÅ‚osować bÄ™dÄ… łącznie 3 mld ludzi – mamy do czynienia z problemem fake newsów i dezinformacji w internecie. Można siÄ™ zastanawiać, co może pójść nie tak przy wykorzystaniu sztucznej inteligencji i jej możliwoÅ›ci dziaÅ‚ania przez całą dobÄ™ bez ograniczeÅ„ co do prÄ™dkoÅ›ci, potencjaÅ‚u i zdolnoÅ›ci do tworzenia nowych rzeczy w sposób przypominajÄ…cy dziaÅ‚ania czÅ‚owieka. OczywiÅ›cie wiele może pójść nie tak – mówi w wywiadzie dla agencji Newseria Innowacje prof. Neil Johnson, fizyk z Uniwersytetu Jerzego Waszyngtona, prowadzÄ…cy Dynamic Online Networks Laboratory, zajmujÄ…ce siÄ™ mapowaniem internetu.
Problem zagrożeÅ„, jakie niesie niekontrolowane wykorzystywanie sztucznej inteligencji, zostaÅ‚ już zauważony przez UniÄ™ EuropejskÄ…. Jednym z narzÄ™dzi, które ma sÅ‚użyć kontroli tego zjawiska, jest Akt o usÅ‚ugach cyfrowych (DSA) wchodzÄ…cy w życie 17 lutego. To tzw. konstytucja internetu, czyli zbiór ogólnounijnych przepisów dotyczÄ…cych usÅ‚ug cyfrowych, podmiotów dziaÅ‚ajÄ…cych jako poÅ›rednicy dla konsumentów oraz towarów, usÅ‚ug i treÅ›ci. Celem wprowadzenia DSA ma być zbudowanie bezpieczniejszego i bardziej sprawiedliwego Å›wiata online. W stosunku do najwiÄ™kszych platform internetowych przepisy zaczęły obowiÄ…zywać już w sierpniu ub.r.
To wÅ‚aÅ›nie na różnego typu platformy nowe przepisy nakÅ‚adajÄ… najwiÄ™cej obowiÄ…zków. Dotyczy to m.in. ich roli w uÅ‚atwianiu użytkownikom rozpowszechniania faÅ‚szywych, nielegalnych i szkodliwych treÅ›ci czy dokonywania oszustw w zakresie handlu elektronicznego. W ostatnich latach platformy staÅ‚y siÄ™ bowiem najważniejszym miejscem wymiany informacji i poglÄ…dów, z którego czerpiÄ… setki milionów, a nawet miliardów użytkowników na caÅ‚ym Å›wiecie.
Problem polega jednak na tym, że brakuje chociażby jednoznacznych kryteriów, które oznaczaÅ‚yby to, kiedy zaczynamy mieć do czynienia ze szkodliwÄ… treÅ›ciÄ….
– Wszystkie dyskusje nad kierunkami polityki, czÄ™sto prowadzone przez same platformy, które dysponujÄ… wiedzÄ… jedynie o sobie, zawsze sÄ… oparte na niejednoznacznych kryteriach opisowych odnoszÄ…cych siÄ™ do „zÅ‚ych” podmiotów w sieci – zauważa prof. Neil Johnson. – Nasze badanie miaÅ‚o na celu zidentyfikowanie, gdzie kryjÄ… siÄ™ te zagrożenia, gdzie dziaÅ‚ajÄ… szkodliwe podmioty i gdzie sÄ… ich spoÅ‚ecznoÅ›ci. Wyobraźmy sobie, że chcemy rozwiÄ…zać problem zwiÄ…zany z ruchem drogowym w Londynie, Nowym Jorku, Warszawie – jak to zrobimy, jeÅ›li nie mamy mapy miasta?
Badacze postanowili wiÄ™c przeprowadzić iloÅ›ciowÄ… analizÄ™ naukowÄ…, która miaÅ‚a przewidzieć, w jaki sposób te podmioty bÄ™dÄ… nadużywać sztucznej inteligencji na caÅ‚ym Å›wiecie.
– Jest to pierwsze badanie, w którym przyjrzeliÅ›my siÄ™ liczbom i lokalizacji aktywnoÅ›ci sztucznej inteligencji na wiÄ™kszÄ… skalÄ™. JeÅ›li obejrzymy nagranie dowolnej dyskusji z udziaÅ‚em polityków w USA, Europie, Wielkiej Brytanii na temat internetu i sztucznej inteligencji, te dyskusje sÄ… maÅ‚o konkretne i wydaje siÄ™, że politycy nie do koÅ„ca rozumiejÄ…, co siÄ™ dzieje, i nie winiÄ™ ich za to – próby zgłębienia tej kwestii zajęły mi caÅ‚e życie, a oni majÄ… dwie godziny, żeby zapoznać siÄ™ z tematem. Problem jednak polega na tym, że to oni podejmujÄ… decyzje – mówi fizyk z Uniwersytetu Jerzego Waszyngtona. – Sztuczna inteligencja w połączeniu z internetem wszystko zmieni, ponieważ jest to nowa technologia stale dostÄ™pna od rÄ™ki dla wszystkich na caÅ‚ym Å›wiecie. Pierwsze badanie na ten temat jest ważne. ByliÅ›my zaskoczeni, że nikt wczeÅ›niej nie zajÄ…Å‚ siÄ™ tym zagadnieniem.
Na poczÄ…tek badacze wytypowali kilka podmiotów, które można byÅ‚o sklasyfikować jako „zÅ‚ych aktorów”. Sprawdzili ich powiÄ…zania, odbiorców i ich przyjacióÅ‚, a nastÄ™pnie stworzyli ich mapÄ™.
– OczekiwaliÅ›my, że przez analogiÄ™ do miasta wszyscy dobrzy ludzie mieszkajÄ… w centrum, poÅ›rodku mamy licznÄ… populacjÄ™, a wszystko, co podejrzane, dzieje siÄ™ na obrzeżach. UzyskaliÅ›my jednak wyniki przeciwne do tego zaÅ‚ożenia. Obok istnienia dużych platform, takich jak Facebook, X (poprzednio Twitter) czy TikTok, czyli gÅ‚ównych platform zrzeszajÄ…cych ogromne liczby ludzi należących do spoÅ‚ecznoÅ›ci skupionych wokóÅ‚ na przykÅ‚ad rodzicielstwa lub ulubionych potraw, sÄ… spoÅ‚ecznoÅ›ci najczęściej istniejÄ…ce na mniejszych platformach, połączonych z tymi dużymi. Razem z pozostaÅ‚ymi tworzÄ… one caÅ‚y ekosystem, w którym sztuczna inteligencja na usÅ‚ugach szkodliwych podmiotów może dziaÅ‚ać swobodnie – wyjaÅ›nia badacz Dynamic Online Networks Laboratory. – Dwa–trzy miliardy osób na Å›wiecie należy do spoÅ‚ecznoÅ›ci, na przykÅ‚ad wielbicieli pizzy czy rodziców.
OkazaÅ‚o siÄ™, że najwiÄ™ksze platformy co prawda majÄ… najwiÄ™ksze znaczenie pod wzglÄ™dem potencjalnych szkód, ale już nie pod wzglÄ™dem tego, gdzie taka sztuczna inteligencja powstanie oraz gdzie bÄ™dÄ… dziaÅ‚ać spoÅ‚ecznoÅ›ci „zÅ‚ych aktorów”, szerzÄ…cych rasizm, nienawiść, skierowanych przeciwko kobietom, rzÄ…dom czy wyznawcom okreÅ›lonych religii. Badacze odkryli, że takie spoÅ‚ecznoÅ›ci bÄ™dÄ… dziaÅ‚ać jako rezerwuar szkodliwych treÅ›ci na mniejszych platformach, takich jak np. Telegram czy Gab. Te natomiast majÄ… nie być objÄ™te przepisami wynikajÄ…cymi z DSA. W ocenie badaczy jest to wiÄ™c rozwiÄ…zanie nie do koÅ„ca trafione, które w dodatku teraz mogÄ… powielić także Stany Zjednoczone.
– Ponieważ nie dysponowano mapÄ… przy opracowywaniu przepisów, poczyniono zaÅ‚ożenie, że wiÄ™ksze platformy majÄ… wiÄ™kszy wpÅ‚yw. Jest to jedynie zaÅ‚ożenie i podobnie jak w każdym innym przypadku w nauce nie można po prostu tworzyć zaÅ‚ożeÅ„ bez ich weryfikacji. Nasze badanie polegaÅ‚o na przetestowaniu tych zaÅ‚ożeÅ„ i wnioski okazaÅ‚y siÄ™ do niego przeciwne – podkreÅ›la prof. Neil Johnson. – Wszyscy skupiajÄ… siÄ™ na tym, jakie nieprawdziwe treÅ›ci mogÄ… być rozpowszechniane. Ale nieważne, co to za informacje, najważniejsza jest ich lokalizacja. UstaliliÅ›my, gdzie kryjÄ… siÄ™ zagrożenia. Na tej samej zasadzie lokalizacja pojazdów w mieÅ›cie jest ważniejsza dla zrozumienia ruchu drogowego niż wiedza o tym, że sÄ… to dwa samochody BMW i jedna Toyota.
Jak podkreÅ›la ekspert, w dyskusji na temat dezinformacji dominujÄ… dwie strategie: caÅ‚kowite wyeliminowanie lub opanowanie problemu. Jego zdaniem pierwsza jest z góry skazana na porażkÄ™. Takie dziaÅ‚anie wymagaÅ‚oby ogromnej skali szczegóÅ‚owych i kosztownych dziaÅ‚aÅ„, bez gwarancji, że to cokolwiek da.
– Przejdźmy wiÄ™c do drugiej strategii, która polega na opanowaniu problemu. Jest to bardziej kontrowersyjna strategia, ponieważ wedÅ‚ug wiÄ™kszoÅ›ci ludzi trzeba te problemy usunąć, zamiast je opanowywać. Ale jako przykÅ‚ad można podać tu COVID-19 – nie wyeliminowaliÅ›my go caÅ‚kowicie, ale można powiedzieć, że go opanowaliÅ›my. Sedno sprawy polega na tym, że dla rzÄ…dów, podmiotów czy platform jest to strategia, której powinni unikać. Sprawa jednak zostaÅ‚a upolityczniona – ale mogÄ™ to powiedzieć jako naukowiec na podstawie wyników badaÅ„ – w sferze politycznej argument, że faÅ‚szywe informacje należy usuwać, zawsze bÄ™dzie brzmiaÅ‚ bardziej szlachetnie, zawsze bÄ™dzie siÄ™ wydawać lepszym wyjÅ›ciem. Problem polega na tym, że bez mapy, a o ile wiem, tylko my takÄ… mapÄ… dysponujemy, poznawszy ten problem od realnej strony, jego usuniÄ™cie jest niemożliwe – podkreÅ›la badacz Dynamic Online Networks Laboratory.
Zgodnie z szacunkami poczynionymi w trakcie badania latem tego roku napÄ™dzane sztucznÄ… inteligencjÄ… dziaÅ‚ania „zÅ‚ych aktorów” stanÄ… siÄ™ codziennoÅ›ciÄ…. Badacze ocenili to na podstawie analogii z podobnymi technologicznie incydentami z 2008 i 2013 roku. Pierwszy dotyczyÅ‚ ataków algorytmicznych na amerykaÅ„skie rynki finansowe, a drugi chiÅ„skich cyberataków na infrastrukturÄ™ USA. To prognoza szczególnie niebezpieczna, zwÅ‚aszcza w kontekÅ›cie zbliżajÄ…cych siÄ™ wyborów.
– To bÄ™dÄ… naprawdÄ™ interesujÄ…ce wybory, ponieważ poprzednio mieliÅ›my do czynienia z kilkoma botami na Twitterze i paroma dziwnymi stronami internetowymi. Nie wiadomo, jaki byÅ‚ ich faktyczny wpÅ‚yw w wyborach prezydenckich w USA z 2016 i 2020 roku. Teraz sytuacja ze sztucznÄ… inteligencjÄ… przedstawia siÄ™ caÅ‚kowicie inaczej – można jÄ… wykorzystać na wiÄ™kszÄ… skalÄ™, dysponujÄ…c wiÄ™kszÄ… szybkoÅ›ciÄ…. WiÄ™kszość populacji USA korzysta z internetu i jeÅ›li sami nie majÄ… kont w mediach spoÅ‚ecznoÅ›ciowych, to ma je ich rodzeÅ„stwo, rodzice czy dzieci, wiÄ™c sÄ… pod ich poÅ›rednim wpÅ‚ywem. Ten wpÅ‚yw dotyczy caÅ‚ej populacji, chyba że ktoÅ› mieszka w chacie w samym sercu Montany. Mamy do czynienia z nowÄ… technologiÄ… i – pomijajÄ…c ocenÄ™, kto jest tutaj po dobrej, a kto po zÅ‚ej stronie – ci, którzy lepiej siÄ™ niÄ… posÅ‚ugujÄ…, wygrajÄ… – ostrzega prof. Neil Johnson. – W krajach, w których w tym roku sÄ… wybory, bÄ™dziemy otrzymywać wiadomoÅ›ci gÅ‚osowe bÄ™dÄ…ce deepfake’ami. BÄ™dzie to prawdziwa bitwa w sieci i wyÅ›cig zbrojeÅ„, który bÄ™dzie polegaÅ‚ na tym, kto użyje tej technologii w wiÄ™kszym stopniu. Czy takie narzÄ™dzia powinny być stosowane? OczywiÅ›cie, że nie, ale to nie zmienia faktu, że tak bÄ™dzie.
