Wiadomości branżowe

Użytkownicy social mediów są narażeni na mowę nienawiści i treści ekstremistyczne. Polityki ochronne serwisów wciąż mają poważne luki

Użytkownicy social mediów są narażeni na mowę nienawiści i treści ekstremistyczne. Polityki ochronne serwisów wciąż mają poważne luki
Naukowcy z Wielkiej Brytanii wykazali, że użytkownicy mediów spoÅ‚ecznoÅ›ciowych nawet przez poÅ‚owÄ™ czasu tam spÄ™dzanego mogÄ… mieć styczność z przekazami z mowÄ… nienawiÅ›ci i treÅ›ciami ekstremistycznymi. To daje

Naukowcy z Wielkiej Brytanii wykazali, że użytkownicy mediów spoÅ‚ecznoÅ›ciowych nawet przez poÅ‚owÄ™ czasu tam spÄ™dzanego mogÄ… mieć styczność z przekazami z mowÄ… nienawiÅ›ci i treÅ›ciami ekstremistycznymi. To daje Å›rednio ok. 70 minut dziennie. I to mimo prowadzenia przez platformy spoÅ‚ecznoÅ›ciowe polityki chroniÄ…cej użytkowników przed takimi treÅ›ciami. Naukowcy wskazujÄ… na dużą rozbieżność miÄ™dzy negatywnymi doÅ›wiadczeniami osób korzystajÄ…cych z portali spoÅ‚ecznoÅ›ciowych a wprowadzonym przez te serwisy poziomem zabezpieczeÅ„ przed rozpowszechnianiem niepożądanych treÅ›ci.

– Szacunkowa liczba osób, które obecnie korzystajÄ… z mediów spoÅ‚ecznoÅ›ciowych na Å›wiecie, wynosi ok. 60 proc., co oznacza, że korzystajÄ… z nich wÅ‚aÅ›ciwie wszyscy, jeÅ›li odliczymy osoby zbyt mÅ‚ode, żeby mieć konto w mediach spoÅ‚ecznoÅ›ciowych, i osoby bÄ™dÄ…ce podeszÅ‚ym wieku. Mówimy wiÄ™c o populacji w wieku od ok. 16 lat do 70- czy 80-latków, która stale roÅ›nie. Z biegiem lat media spoÅ‚ecznoÅ›ciowe staÅ‚y siÄ™ częściÄ… życia codziennego i komunikacji, również w pracy. Wiele osób realizuje siÄ™ zawodowo w mediach spoÅ‚ecznoÅ›ciowych. Należą one wiÄ™c do istotnych elementów naszego życia spoÅ‚ecznego w internecie – mówi agencji Newseria Innowacje Thomas Williams z Uniwersytetu Huddersfield w Wielkiej Brytanii.

Badanie opublikowane przez „Global Network on Extremism and Technology” miaÅ‚o na celu porównanie doÅ›wiadczeÅ„ użytkowników social mediów pod wzglÄ™dem narażenia na treÅ›ci nienawistne i ekstremistyczne (w tym promujÄ…ce rasizm, antysemityzm i ksenofobiÄ™) a zabezpieczeniami wprowadzonymi przez te serwisy. DoÅ›wiadczenia użytkowników zbadano za pomocÄ… kwestionariusza zawierajÄ…cego skalÄ™ narażenia na ekstremalne treÅ›ci (OECE). SkÅ‚adaÅ‚ siÄ™ z 12 pytaÅ„ na temat mowy nienawiÅ›ci, oÅ›miu dotyczÄ…cych treÅ›ci ekstremistycznych. Każde pytanie dotyczÄ…ce mowy nienawiÅ›ci dotyczyÅ‚o innego tematu, np. konkretnych ras, pÅ‚ci i religii. Część kwestionariusza dotyczÄ…ca komunikacji ekstremistycznej skupiaÅ‚a siÄ™ na materiaÅ‚ach, które wychwalajÄ…, wspierajÄ… lub reprezentujÄ… skrajnÄ… ideologiÄ™ lub grupÄ™. MiarÄ… doÅ›wiadczeÅ„ użytkowników byÅ‚a szeÅ›ciopunktowa skala Likerta – od odpowiedzi „nigdy” do „zawsze”.

A to już wiesz?  Zysk z PodwójnÄ… Siłą w Kredyt Banku

Wyniki kwestionariusza naukowcy zestawili nastÄ™pnie z dziaÅ‚aniami portali w zakresie polityki ochronnej. NajwiÄ™ksze serwisy, takie jak Facebook, Twitter, YouTube, Pinterest czy Instagram, w wytycznych dla swoich spoÅ‚ecznoÅ›ci otwarcie zaznaczajÄ…, że nie tolerujÄ… mowy nienawiÅ›ci i ekstremizmu. Choć serwisy ciÄ…gle ulepszajÄ… swoje Å›rodki ochronne, okazuje siÄ™, że użytkownicy sÄ… bardzo narażeni na niepożądane treÅ›ci.

 Po porównaniu wyników stwierdziliÅ›my, że prawie wszystkie portale spoÅ‚ecznoÅ›ciowe, z których korzysta wiÄ™kszość populacji, stwierdzajÄ…, że nie tolerujÄ… żadnych form mowy nienawiÅ›ci ani wymiany treÅ›ci ekstremistycznych, a jednak uczestnicy naszego badania zgÅ‚aszali, że byli narażeni na takie treÅ›ci dosyć czÄ™sto. ByÅ‚o tak w przypadku ok. 48 proc. czasu korzystania z mediów spoÅ‚ecznoÅ›ciowych. Skoro przeciÄ™tny użytkownik spÄ™dza w social mediach 2,5 godziny dziennie, oznacza to ok. 70 minut dziennie narażenia na materiaÅ‚y o charakterze ekstremistycznym – podkreÅ›la Thomas Williams.

Naukowcy sÄ… zdania, że istnieje kilka możliwych wyjaÅ›nieÅ„ rozbieżnoÅ›ci miÄ™dzy doÅ›wiadczeniami użytkowników a politykÄ… ochronnÄ… portali spoÅ‚ecznoÅ›ciowych. W przypadku firm, których siedzibÄ… sÄ… Stany Zjednoczone, problemem mogÄ… być uwarunkowania prawne. Znane serwisy, takie jak Facebook, Twitter czy Reddit, sÄ… chronione ustawÄ… Communications Decency Act z 1996 roku, która zapewnia ochronÄ™ witryn mediów spoÅ‚ecznoÅ›ciowych w zakresie treÅ›ci i nakÅ‚ada odpowiedzialność za publikacje na użytkowników, którzy je zamieszczajÄ…. Ci z kolei majÄ… konstytucyjne prawo do wolnoÅ›ci sÅ‚owa, co teoretycznie może chronić osoby promujÄ…ce treÅ›ci nienawistne i skrajne.

KolejnÄ… podnoszonÄ… przez naukowców kwestiÄ… jest to, że serwisy spoÅ‚ecznoÅ›ciowe wykrywajÄ… znacznÄ… ilość niepożądanych treÅ›ci i usuwajÄ… je, zanim użytkownicy zdążą siÄ™ z nimi zapoznać. Raport Facebooka wskazuje, że jest to 82 proc. mowy nienawiÅ›ci i 99,1 proc. treÅ›ci ekstremistycznych. W przypadku Instagrama te wartoÅ›ci wynoszÄ… odpowiednio 95,3 proc. i 95,1 proc. Jednak ta pozostaÅ‚a, niewielka część, która nie jest natychmiast wyÅ‚apywana, stanowi prawie poÅ‚owÄ™ treÅ›ci, na które użytkownicy zgÅ‚aszajÄ… narażenie. Poza tym okazuje siÄ™, że moderowanie treÅ›ci jest skuteczniejsze w przypadku komunikacji i propagandy ekstremistycznej. Mowa nienawiÅ›ci jest dla serwisów trudniejsza do wykrycia, dlatego to na niÄ… użytkownicy portali sÄ… narażeni w wiÄ™kszym stopniu.

A to już wiesz?  Demontaż OFE, czyli mikoÅ‚ajkowy prezent dla ZUS-u

– Wyniki badania sÄ… niepokojÄ…ce i zaskakujÄ…ce, dlatego że im bardziej jesteÅ›my narażeni na szkodliwe treÅ›ci, tym wiÄ™ksza szansa, że trafiÄ… one do osób podatnych na nie, do osób, które można nakÅ‚onić lub zachÄ™cić do przyłączenia siÄ™ do zwolenników tych ideologii. Prowadzi to także do wzrostu liczby osób prezentujÄ…cych postawy radykalne i wiÄ™kszego prawdopodobieÅ„stwa wystÄ…pienia aktów przemocy, jeÅ›li proces radykalizacji bÄ™dzie postÄ™powaÅ‚ – zauważa badacz z Uniwersytetu Huddersfield.

Jego zdaniem można skuteczniej ograniczyć ilość niepożądanych treÅ›ci docierajÄ…cych do użytkowników serwisów spoÅ‚ecznoÅ›ciowych.

 Portale mogÄ… korzystać z badaÅ„ naukowych, które wskazujÄ… na luki w obecnych politykach bezpieczeÅ„stwa. NastÄ™pnie mogÄ… na tej podstawie wprowadzać strategie bezpieczeÅ„stwa. Z kolei użytkownicy mogÄ… korzystać z mechanizmów wewnÄ™trznych portali i zgÅ‚aszać materiaÅ‚y o charakterze ekstremistycznym, szkodliwe i cechujÄ…ce siÄ™ nienawiÅ›ciÄ… wobec okreÅ›lonych grup lub treÅ›ci nawoÅ‚ujÄ…ce do przemocy. JeÅ›li wystarczajÄ…ca liczba osób bÄ™dzie to robić, moderatorzy portali otrzymajÄ… te zgÅ‚oszenia i, miejmy nadziejÄ™, bÄ™dÄ… usuwać te treÅ›ci, co z kolei sprawi, że nie zobaczÄ… ich kolejne osoby, które potencjalnie mogÅ‚yby ulec radykalizacji – mówi Thomas Williams. – DziÄ™ki poznawaniu procesu radykalizacji osób w internecie, który odbywa siÄ™ przez kontakt z dużymi iloÅ›ciami materiaÅ‚ów o charakterze ekstremistycznym, możemy podjąć dziaÅ‚ania w przyszÅ‚oÅ›ci, wskazujÄ…c potencjalne ulepszenia dziaÅ‚aÅ„ zabezpieczajÄ…cych, które pomogÄ… portalom spoÅ‚ecznoÅ›ciowym zapewnić bezpieczeÅ„stwo.

NajwiÄ™ksze serwisy zabezpieczajÄ… publikowane treÅ›ci, zatrudniajÄ…c moderatorów, którzy aktywnie reagujÄ… na przejawy mowy nienawiÅ›ci i ekstremizmu, ale w coraz wiÄ™kszym stopniu wykorzystujÄ… też do tego sztucznÄ… inteligencjÄ™. Rzadko jednak ujawniajÄ…, jak wdrażajÄ… wielojÄ™zyczne modele jÄ™zykowe i na ile sÄ… one skuteczne w moderowaniu treÅ›ci na skalÄ™ globalnÄ…. Niedawne badanie przeprowadzone przez Centrum Demokracji i Technologii pokazuje, że wielojÄ™zyczne modele jÄ™zykowe, na których opiera siÄ™ moderowanie treÅ›ci przez SI, może mieć wiele ograniczeÅ„. Jest to widoczne zwÅ‚aszcza w spoÅ‚ecznoÅ›ciach posÅ‚ugujÄ…cych siÄ™ jÄ™zykami mniej reprezentowanymi w internecie, a wiÄ™c dajÄ…cymi SI mniejsze szanse na dostosowanie swoich modeli do tych jÄ™zyków. Jednym z nich jest jÄ™zyk baskijski.

A to już wiesz?  UE przyspiesza prace nad zielonym wodorem. BÄ™dÄ… dodatkowe Å›rodki na zmniejszanie ryzyka inwestycji w tÄ™ technologiÄ™

PrzykÅ‚adowo „uso” oznacza w nim gołębicÄ™, a może być rozumiane jako obelga używana wobec mężczyzn prezentujÄ…cych siÄ™ kobieco. System moderacji sztucznej inteligencji opierajÄ…cy siÄ™ na anglojÄ™zycznych danych szkoleniowych może nie zrozumieć kontekstu tego sÅ‚owa. Dostosuje je do symboliki gołębicy stosowanej w jÄ™zyku angielskim, czyli oznaczajÄ…cej pokój. W efekcie SI nie zakwalifikuje sÅ‚owa „uso” jako treÅ›ci homofobicznych.

Artykuly o tym samym temacie, podobne tematy