Deepfake’i: Nowe Zagrożenie w Sieci

plotkosfera.pl 3 godzin temu

W ostatnich latach sztuczna inteligencja stała się coraz bardziej zaawansowana, co prowadzi do powstawania nowych zagrożeń w sieci. Jednym z największych problemów jest pojawienie się deepfake’ów, czyli fałszywych nagranić audio i wideo, które wyglądają jak prawdziwe. Technologia deepfake rozwija się błyskawicznie, stając się narzędziem w rękach oszustów, szantażystów i manipulatorów.

Według raportu „Dezinformacja oczami Polaków 2024”, aż 40 proc. ankietowanych zetknęło się z takimi treściami. Problem narasta, a platformy społecznościowe nie zawsze nadążają z reakcją. Co możemy zrobić, by się chronić? Deepfake’i to wygenerowane bądź też zmanipulowane przez sztuczną inteligencję zdjęcia, dźwięki lub treści wideo. Do ich tworzenia wykorzystywane są zaawansowane algorytmy AI, dlatego użytkownikom coraz trudniej jest odróżnić treści rzeczywiste od fałszywych.

Deepfake’i bywają wykorzystywane do manipulacji, szantażu, niszczenia reputacji, oszustw i wyłudzeń finansowych. Ryzyko związane z deepfake’ami rośnie wraz z coraz większym dostępem do narzędzi sztucznej inteligencji. Dziś niemal każdy, kto ma dostęp do internetu, może stworzyć filmy lub obrazy przedstawiające sytuacje, które w rzeczywistości nigdy nie miały miejsca.

Wyniki raportu Fundacji Digital Poland przygotowanego w ramach inicjatywy „Razem przeciwko dezinformacji” wskazują, iż trzy czwarte ankietowanych (77 proc.) przewiduje wzrost skali tego zjawiska w ciągu nadchodzących 10 lat. – Ryzyko w kwestii generowania deepfake’ów i bycia na nie podatnym tak naprawdę rośnie każdego dnia. Co ciekawe, z dnia na dzień te deepfake’i stają się też coraz lepsze, bo jak już raz została ta technologia stworzona, to teraz choćby sztuczna inteligencja sama siebie doskonali. To powoduje, iż ludzkie oko i słuch już za tym nie nadążają – mówi agencji Newseria Tomasz Turba, specjalista ds. bezpieczeństwa z serwisu Sekurak.pl.

Co gorsza, cały świat, łącznie ze światem przestępczym, skierował się w stronę mikropłatności. Czyli dzisiaj nie musimy mieć superkomputera, nie musimy mieć superusługi za 1 tys. dol. za dzień, żeby wygenerować taki materiał, tylko wystarczy model subskrypcyjny i 5 dol. miesięcznie i przestępcy takie deepfake’i generują. Portale społecznościowe są zalewane przez wygenerowane dzięki AI filmy i nagrania przedstawiające polityków, osoby zaufania publicznego czy celebrytów wygłaszających kontrowersyjne poglądy, reklamujących fałszywe produkty czy usługi finansowe.

Deepfake’i są również wykorzystywane do tworzenia kompromitujących treści, które mogą powodować straty wizerunkowe czy finansowe. Zanim jednak platformy zareagują i odpowiednio je oznaczą, deepfake’i stają się viralami, które docierają do milionów odbiorców. – Na razie walka z deepfake’ami jest bardzo nierówna z tego względu, iż w świecie cyberbezpieczeństwa zawsze było tak, iż przestępcy wyprzedzali wszelkie mechanizmy obrony. Tutaj przestępcy nie muszą już być pierwsi, tylko muszą być dokładniejsi w tworzeniu – mówi Tomasz Turba.

– Kluczową rolę powinna odgrywać nasza czujność, bo jak patrzymy na jakiś materiał wideo czy czytamy jakiegoś newsa, to często nie jesteśmy już w stanie dojrzeć, czy to jest wygenerowane przez człowieka, na przykład zdjęcie przez fotografa, czy jednak przez sztuczną inteligencję. Co ciekawe, mogą nas w tym wspierać również narzędzia oparte na sztucznej inteligencji. – Z jednej strony rozwija się gałąź przestępcza AI z deepfake’ami, ale z drugiej strony mamy coraz więcej narzędzi do ich detekcji. Tam, gdzie ludzka percepcja już nie daje rady, to wtedy komputer AI wychwyci, iż ten obraz jest za doskonały albo czegoś brakuje. I wtedy powie nam: hola, hola, nie wchodź tam, bo tam jest deepfake – mówi specjalista ds. bezpieczeństwa.

– My w dalszym ciągu musimy się szkolić odnośnie do zagrożeń w internecie. I my możemy wykorzystać te narzędzia, ale one mają skończoną moc obliczeniową i tam nic się nie dzieje, a przestępca może być coraz bardziej dokładny w tworzeniu materiału itd. Ekspert podkreśla, iż nasza czujność będzie skuteczniejsza niż zakazy czy kontrola treści, bo o to w świecie mediów społecznościowych jest bardzo trudno. – Musielibyśmy wprowadzić pełną kontrolę internetu na to, co kto ogląda, wtedy moglibyśmy to kontrolować. Ale to jest Korea Północna w internecie, a nie wiem, czy państwo pamiętacie, ale była walka w sprawie ACTA, iż nie będzie cenzury w internecie, więc na pewno to też nie jest adekwatna droga – mówi Tomasz Turba.

Jego zdaniem jest jednak pewien sposób na to, by skutecznie walczyć z deepfake’ami. Z raportu „Dezinformacja oczami Polaków. 2024” wynika, iż 86 proc. ankietowanych zgadza się z opinią, iż wszystkie informacje wygenerowane przez AI powinny być wyraźnie oznaczane. – Wystarczyłoby każdy portal społecznościowy oprogramować tak, żeby te wszystkie materiały, które użytkownik widzi podczas scrollowania, od razu przebiegały przez silnik do wykrywania, czy to jest deepfake. o ile w ciągu pół sekundy ten silnik stwierdzi, iż to jest materiał fejkowy, to powinien on zostać odpowiednio oznaczony. Czyli to, co rzeczywiście TikTok proponuje jako rozwiązanie do swoich materiałów, mogłoby się sprawdzić. Pytanie tylko, czy wszystkie portale społecznościowe poszłyby w tę stronę, bo to są ogromne koszty – dodaje ekspert serwisu Sekurak.

Idź do oryginalnego materiału