W 2024 roku w Polsce odnotowano ponad 627 tys. zgÅ‚oszeÅ„ przypadków naruszeÅ„ bezpieczeÅ„stwa systemów teleinformatycznych. To o 60 proc. wiÄ™cej niż w 2023 roku, kiedy zgÅ‚oszono ich blisko 391 tys. CyberprzestÄ™pcy stosujÄ… coraz bardziej zaawansowane techniki ataków, w tym wykorzystujÄ…ce sztucznÄ… inteligencjÄ™. W ostatnim czasie gÅ‚oÅ›no jest o przypadkach vibe hackingu, który z uwagi na poziom zautomatyzowania i szybkość dziaÅ‚ania może stanowić poważne zagrożenie dla naszego cyberbezpieczeÅ„stwa.
– Vibe hacking to jest najnowsza technika cyberataku, która w krótkich sÅ‚owach sprowadza siÄ™ do tego, że nie jest potrzebne zaawansowane kodowanie, tylko promptowanie. Demokratyzuje nam siÄ™ w tym momencie cyberbezpieczeÅ„stwo i cyberprzestÄ™pczość przede wszystkim, ponieważ to, co kiedyÅ› wymagaÅ‚o lat nauki i interdyscyplinarnych zespoÅ‚ów, obecnie może zrobić czÅ‚owiek za pomocÄ… sztucznej inteligencji, która za niego wykona zÅ‚oÅ›liwy kod i wiele wiÄ™cej – mówi agencji Newseria Ewelina Wachulec, senior engineering manager w Dell Technologies. – Przede wszystkim to oznacza zupeÅ‚nie innÄ… skalÄ™ i szybkość ataków hakerskich, ponieważ sztuczna inteligencja automatyzuje caÅ‚y ich przebieg, od poczÄ…tku do koÅ„ca. To oznacza, że jesteÅ›my bardziej narażeni na ich efekty, na to, że te kampanie bÄ™dÄ… skuteczne i że stracimy wrażliwe dla nas dane lub zostaniemy poddani żądaniom okupu.
Zgodnie z raportem firmy Anthropic „Threat Intelligence Report: August 2025” zespóÅ‚ badawczy zidentyfikowaÅ‚ operacjÄ™ oznaczonÄ… jako GTG-2002, która wyznacza nowy etap wykorzystania sztucznej inteligencji, w tym agentów kodujÄ…cych, w cyberprzestÄ™pczoÅ›ci, okreÅ›lany jako vibe hacking. Chodzi o instruowanie AI, by wygenerowaÅ‚a kod sÅ‚użący do ataku czy omijania zabezpieczeÅ„. W analizowanym przypadku sprawcy wykorzystali narzÄ™dzie kodujÄ…ce firmy Anthropic do automatyzacji dziaÅ‚aÅ„ zwiÄ…zanych z przygotowaniem i realizacjÄ… ataków. W ciÄ…gu miesiÄ…ca zaatakowali w ten sposób 17 różnych organizacji, w tym w sektorze rzÄ…dowym, opieki zdrowotnej, sÅ‚użb ratunkowych i instytucji religijnych. Analitycy wskazujÄ…, że sztuczna inteligencja peÅ‚niÅ‚a rolÄ™ nie tylko doradcy, ale i aktywnego operatora.
– Mamy przykÅ‚ad z lipca 2025 roku, kiedy powszechnie dostÄ™pny model zostaÅ‚ wykorzystany do zhakowania 17 organizacji i wykradzenia poufnych danych. Natomiast dobra wiadomość jest taka, że te modele sÄ… zabezpieczane, że jest peÅ‚na wspóÅ‚praca zarówno twórców technologii, jak i sÅ‚użb bezpieczeÅ„stwa oraz dziaÅ‚ów cyberbezpieczeÅ„stwa. Moim zdaniem obecnie nie można zastosować szeroko i powszechnie dostÄ™pnego modelu do vibe hackingu, do ataku cybernetycznego, a jeszcze niedawno byÅ‚o to możliwe. Czyli to jest wyÅ›cig – metody hakerów siÄ™ rozwijajÄ…, ale metody obrony również – podkreÅ›la Ewelina Wachulec.
Sztuczna inteligencja bywa też wykorzystywana w innego rodzaju atakach. W sprawozdaniu PeÅ‚nomocnika RzÄ…du do Spraw CyberbezpieczeÅ„stwa za 2024 rok przewiduje siÄ™, że w polskiej cyberprzestrzeni w latach 2025–2026 dojdzie do wiÄ™kszej liczby kampanii, w których oszuÅ›ci bÄ™dÄ… wykorzystywać AI do wygenerowania faÅ‚szywego gÅ‚osu i wizerunku. Z badania „Postawy Polaków wobec cyberbezpieczeÅ„stwa 2025” przygotowanego przez Warszawski Instytut BankowoÅ›ci wspólnie ze ZwiÄ…zkiem Banków Polskich wynika, że 23 proc. Polaków uznaje deepfake za najwiÄ™ksze zagrożenie w internecie. Za ich poÅ›rednictwem mogÄ… być realizowane np. mistyfikacje inwestycyjne, np. w kryptowaluty.
– Nie mamy danych na temat tego, kto najczęściej staje siÄ™ celem ataków z wykorzystaniem sztucznej inteligencji. Natomiast to jest bardzo ciekawy wÄ…tek, ponieważ nie podejmuje ona takich decyzji jak ludzie. Ona po prostu szuka w automatyczny sposób luk w zabezpieczeniach. Sztucznej inteligencji nie interesuje, kto jest atakowany, ona po prostu w bezlitosny i zautomatyzowany sposób wyszukuje podatnoÅ›ci, luki, przygotowuje schematy ataku i atakuje – tÅ‚umaczy ekspertka Dell Technologies.
Z raportu KPMG „Barometr CyberbezpieczeÅ„stwa” wynika, że w ubiegÅ‚ym roku 83 proc. polskich firm zarejestrowaÅ‚o przynajmniej jeden incydent zwiÄ…zany z cyberbezpieczeÅ„stwem. To o 16 pkt proc. wiÄ™cej niż rok wczeÅ›niej. Skala cyberataków prowadzi do wiÄ™kszego skupienia biznesu na bezpieczeÅ„stwie cyfrowym. Wykorzystanie sztucznej inteligencji do wsparcia dziaÅ‚ów IT zajmuje drugie miejsce wÅ›ród najczÄ™stszych obszarów zastosowania AI w firmach – wskazaÅ‚o na nie 34 proc. badanych korzystajÄ…cych z tej technologii w swoich organizacjach. Jedynie 13 proc. zadeklarowaÅ‚o, że stosuje jÄ… bezpoÅ›rednio w obszarze cyberbezpieczeÅ„stwa, co zdaniem autorów raportu może wynikać z braków kadrowych oraz nadal ograniczonych zasobów finansowych, mimo systematycznego wzrostu inwestycji.
– WierzÄ™, że nasze firmy majÄ… narzÄ™dzia do obrony przed cyberprzestÄ™pczoÅ›ciÄ…, ponieważ temat cyberbezpieczeÅ„stwa nie jest nowy. Zmienia siÄ™ tylko skala tych ataków i dostÄ™p do nich. To jest ciÄ…gÅ‚y wyÅ›cig, bo po obu stronach mamy dostÄ™p do tej samej technologii. ChciaÅ‚abym z całą mocÄ… podkreÅ›lić jednak, że nie nadążamy z edukacjÄ… i Å›wiadomoÅ›ciÄ… tych zagrożeÅ„ – zauważa Ewelina Wachulec.
Z raportu ESET i DAGMA BezpieczeÅ„stwo IT „Cyberportret polskiego biznesu 2025” wynika, że 1/5 pracowników wysoko ocenia swoje kompetencje z zakresu cyberbezpieczeÅ„stwa. Co trzeci przyznaje, że daÅ‚ wiarÄ™ treÅ›ci deepfake, z którÄ… siÄ™ zapoznaÅ‚.
– Wiedza na temat tego, jakie sÄ… schematy ataków cyberprzestÄ™pczych, jest nam potrzebna, ponieważ inaczej nie bÄ™dziemy siÄ™ mogli przed niÄ… bronić. RównoczeÅ›nie, jeÅ›li bÄ™dzie wsparta detekcjÄ… prób takich ataków, to one zostanÄ… zablokowane – uważa ekspertka Dell Technologies. – Potrzebna jest nam Å›wiadomość, że takie technologie istniejÄ…, że w publicznych modelach zostaÅ‚o zablokowane wykorzystywanie ich do zÅ‚ych celów, ale istnieje podziemie, w których sÄ… tworzone modele do takich celów. Zarówno w Å›rodowisku biznesowym, firmach, jak i we wÅ‚asnych domach potrzebujemy wiedzieć, jak siÄ™ chronić i ta wiedza jest nam dużo bardziej potrzebna.
Dane z raportu „Postawy Polaków wobec cyberbezpieczeÅ„stwa 2025” pokazujÄ…, że okoÅ‚o 30 proc. mieszkaÅ„ców Polski jest zdania, że Å›wiadomość mÅ‚odzieży na temat bezpiecznego i zdrowego korzystania z sieci powinni ksztaÅ‚tować nauczyciele poprzez wprowadzenie obowiÄ…zkowych zajęć z edukacji cyfrowej. 28 proc. respondentów uważa natomiast, że dzieci powinny mieć przykÅ‚ad wÅ‚aÅ›ciwych postaw cyfrowych w domu rodzinnym i uczyć siÄ™ w nim balansu miÄ™dzy Å›wiatem offline a online.
– Potrzebujemy edukacji na każdym poziomie. SzkoÅ‚y powinny edukować, co to jest deepfake i voice cloning, że gÅ‚os, który siÄ™ usÅ‚yszy po drugiej stronie monitora, to niekoniecznie bÄ™dzie czÅ‚owiek, który ma dobre zamiary – podkreÅ›la Ewelina Wachulec. – PowinniÅ›my zaprosić do tego edukacjÄ™ powszechnÄ…, rozmawiać o tym w firmach. Nie powinniÅ›my trzymać tej wiedzy tylko w zespoÅ‚ach cyberbezpieczeÅ„stwa, tech defence, tylko powinniÅ›my edukować na każdym możliwym polu, bardzo szeroko, również wewnÄ…trz firm.
Jak dodaje, nawet jeÅ›li wiedza dotyczÄ…ca obecnych zagrożeÅ„ jest wysoka, trzeba jÄ… stale aktualizować. Pokazuje to przykÅ‚ad vibe hackingu, który jest nowym rodzajem zagrożenia.
