Między innowacją a manipulacjąDeepfake
Z każdym rokiem narzędzia AI stają się skuteczniejsze, a wygenerowane przez nie treści coraz trudniejsze do odróżnienia od rzeczywistości. Coraz bardziej jesteśmy narażeni na manipulacje, zwłaszcza te z zastosowaniem technologii deepfake, czyli fałszywych, hiperrealistycznych obrazów lub nagrań…
W erze cyfrowej większość naszej komunikacji odbywa się online, a podstawowym źródłem informacji o świecie jest internet. Narzędzia sztucznej inteligencji stają się coraz bardziej powszechne, wpływając na sposób, w jaki postrzegamy rzeczywistość. Systemy rekomendacyjne podsuwają nam treści, automatyczne tłumaczenia znoszą bariery językowe, a dostępne narzędzia, takie jak ChatGPT czy Midjourney, sprawiają, że coraz częściej jesteśmy konsumentami treści generowanych przez AI.
Coraz bardziej narażeni na manipulacje
Technologie generatywne stymulują naszą kreatywność i produktywność oraz stwarzają nieznane wcześniej możliwości w biznesie czy edukacji, jednocześnie będąc powodem nowych wyzwań w dziedzinie bezpieczeństwa. Coraz bardziej jesteśmy narażeni na manipulacje, zwłaszcza te z zastosowaniem technologii deepfake, czyli fałszywych, hiperrealistycznych obrazów, treści wideo lub audio, wygenerowanych z użyciem głębokich sieci neuronowych. O ile dawniej ich tworzenie wymagało wiedzy eksperckiej i sporych nakładów, dziś wystarczy odpowiednie oprogramowanie, często dostępne za darmo lub w chmurze za niewielką opłatą. Co więcej, z każdym rokiem narzędzia AI stają się skuteczniejsze, a wygenerowane przez nie treści coraz trudniejsze do odróżnienia od rzeczywistości.
Technologie generatywne stymulują naszą kreatywność i produktywność, jednocześnie będąc powodem nowych wyzwań w dziedzinie bezpieczeństwa.
Siła sztucznej inteligencji
Obrazy ludzi z nadmiarowymi palcami, które zdarzały się wcześniej, obecnie odchodzą do historii. Już teraz można zmienić twarz i głos postaci na filmie, a jej mimikę dostosować do słów wypowiadanych w języku, którym nie posługuje się osoba mówiąca. Możliwe jest także tzw. klonowanie głosu, czyli podstawienie głosu innej osoby, realizowane w czasie rzeczywistym, bezpośrednio w trakcie rozmowy. Tworzone są też narzędzia do generowania hiperrealistycznych filmów na podstawie samego opisu.
Postęp w tej dziedzinie sprawia, że w perspektywie kilkuletniej jakiekolwiek zdjęcia, nagrania audio i wideo przestaną być wiarygodnymi dowodami w sądzie. Co prawda równolegle powstają też modele do detekcji deepfake’ów, ale z czasem nie będą w stanie skutecznie rozpoznawać treści syntetycznych, nie mówiąc o tym, że rozpoznają je z ograniczonym prawdopodobieństwem.
Dezinformacja
Niezależnie od możliwości rozpoznawania deepfake’ów stanowią one potężne narzędzie dezinformacji i manipulacji. Na co dzień rzadko kiedy weryfikujemy informacje pojawiające się w mediach, przy czym jesteśmy konsumentami nie tylko treści ze źródeł oficjalnych, jak agencje informacyjne, ale także z mediów społecznościowych, gdzie treści kontrowersyjne, ze względu na algorytmy rekomendacyjne, rozchodzą się najszybciej.
Już teraz zmanipulowane treści są wykorzystywane w kampaniach wyborczych.
We wrześniu 2023 r. na Słowacji, na dwa dni przed wyborami, pojawiło się nagranie głosu lidera jednej z partii, na którym mówił o kupowaniu głosów wyborczych, zmanipulowanym liczeniu głosów i przekupieniu dziennikarzy. Mimo że nagranie zostało uznane za deepfake, to w trakcie ciszy wyborczej – ze względu na obowiązujące na Słowacji prawo – nie można było podważyć jego prawdziwości. Pojawiają się głosy, że było ono dziełem służb rosyjskich i niewykluczone, że przyczyniło się do wygrania partii SMER, optującej za wycofaniem wsparcia militarnego dla Ukrainy. Przykład pokazuje, jak wielkie możliwości daje deepfake nie tylko w kontekście walki politycznej, ale także prowadzenia działań dywersyjnych obcych służb. Zwłaszcza w 2024 r. możemy być świadkami wielu takich działań, gdyż jest to rok wyborów w aż 76 krajach.
Różne twarze deepfake’ów
Deepfake umożliwia nie tylko manipulowanie opinią publiczną, wpływanie na procesy demokratyczne czy niszczenie czyjejś reputacji. Znany jest przypadek oszustwa finansowego w Hongkongu, gdzie przestępcy zasymulowali poprzez deepfake wideokonferencję z dyrektorem finansowym firmy i innymi osobami, w czasie której nakłonili jednego z pracowników do przelania 25 mln dolarów na fałszywe konto. Są także przypadki manipulowania rynkiem finansowym. Dla przykładu w 2023 r. Russia Today opublikowała film przedstawiający eksplozję w pobliżu Pentagonu, powodując wahania na amerykańskiej giełdzie.
Czy w życiu codziennym jesteśmy wolni od takich zagrożeń? Okazuje się, że nie, bowiem podrobienie głosu, np. członka rodziny lub przyjaciela, możliwe jest nawet na komputerze domowym i to jedynie za cenę prądu. Sprawia to, że oszustwa „na wnuczka” mogą nabrać zupełnie nowej skali. Wygenerowanie ilustracji do tego artykułu zajęło nam zaledwie kilka minut.
Musimy nauczyć się ostrożności
Same regulacje prawne, oznaczanie treści wygenerowanych przez AI czy zakaz skanowania twarzy w miejscach publicznych, mimo że ważne, nie uchronią nas przed deepfake’ami. Musimy nauczyć się ostrożności, ograniczonego zaufania do newsów i ich weryfikacji, ale także ochrony własnego wizerunku i głosu.
Interesujesz się tematami AI? Zajrzyj do naszej społeczności AI Connect na Viva Engage i odkrywaj, co dzieje się w tematach AI na bieżąco!
Małgorzata Stolarska, Tribe Aplikacji Operacyjnych, CIO
Autor ilustracji: Bartłomiej Orlik, Tribe Aplikacji Operacyjnych, CIO
W roli astronauty: Rafał Kostowski, Tribe Aplikacji Operacyjnych, CIO