Prezydent zachęca do "wyjątkowo korzystnych inwestycji"? NASK ostrzega: to deepfake

Naukowa i Akademicka Sieć Komputerowa poinformowała w czwartek o rosnącej liczbie oszustw wykorzystujących wizerunki znanych osób, tzw. deepfake. Technologia ta polega na posługiwaniu się obrazem lub głosem innych osób sztucznie wygenerowanym przy użyciu sztucznej inteligencji.

2024-05-23, 14:01

Prezydent zachęca do "wyjątkowo korzystnych inwestycji"? NASK ostrzega: to deepfake
NASK ostrzega przed fałszywymi materiałami zachęcającymi do "wyjątkowo korzystnych" inwestycji, które reklamują postacie znanych osób, jak np. prezydent Andrzej Duda, których wizerunek i głos w rzeczywistości powstał w technologii deepfake. Foto: facebook.com/NASKpl

W oszustwach, o których informuje NASK, wykorzystywano m.in. wizerunek prezydenta Andrzeja Dudy i ministry zdrowia Izabeli Leszczyny.

Prezydent zachęca do inwestowania? Uwaga! To deepfake!

NASK podała, że w zidentyfikowanych oszustwach typu deepfake, na filmach krążących w sieci do "wyjątkowo korzystnych" inwestycji finansowych mieli zachęcać prezydent Andrzej Duda, ministra zdrowia Izabela Leszczyna, piłkarz Robert Lewandowski, prezes InPostu Rafał Brzoska, czy influencer Kamil Labudda (Budda).

Wymienione osoby - jak podaje NASK - mówiły "swoim" głosem, a treść fałszywego przekazu zgadzała się z ruchami ust i gestykulacją. Eksperci zwracają uwagę, że od początku maja pojawiło się wiele nowych oszustw wykorzystujących technologię deepfake i wizerunki znanych osób, które wyglądają coraz bardziej wiarygodnie.

"O oszustwach bazujących na technologii deepfake po raz kolejny zrobiło się głośno w marcu 2024 r. Na Facebooku pojawiły się wówczas nagrania wideo, w których wykorzystano wizerunek prezesa InPostu do reklamowania fałszywej inwestycji. Mimo szybkiej reakcji Rafała Brzoski i zgłoszeniu sprawy do administratorów Meta, stanowcze protesty polskiego biznesmena nie spowodowały reakcji serwisu przez wiele dni" - pisze w komunikacie NASK.

REKLAMA

Jak działa deepfake?

Jak zaznacza NASK, w nagraniach umieszczonych na Facebooku oszuści wykorzystali technikę lip-sync, czyli manipulację, która polegała nie tylko na podmianie tekstu mówionego głosem osoby występującej na nagraniu, ale także na dostosowaniu ruchu ust do wypowiadanych słów.

- Technologie umożliwiają obecnie przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu "text-to-speech", wystarczy im zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo, na przykład z dowolnego przemówienia czy wiecu politycznego. Dla technologii "speech-to-speech", w której intonacja, emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty oryginalnego materiału - wyjaśnia cytowana w komunikacie kierująca w NASK Zespołem Analizy Deepfake Ewelina Bartuzi-Trokielewicz.

NASK ostrzega

NASK podała, że materiały typu deepfake często są dodatkowo osadzone w szablonie przekazu telewizyjnego, najczęściej programu informacyjnego, co ma dodatkowo podkreślać rangę przekazywanych treści i zwiększać ich wiarygodność.

- Łatwość, z jaką można stworzyć fałszywe materiały audiowizualne, zwiększa ryzyko manipulacji i dezinformacji. Dlatego istotne jest zwiększenie świadomości społecznej na temat rozwoju i możliwości technologii generowania treści syntetycznych. Użytkownicy mediów społecznościowych powinni ostrożnie podchodzić do treści wideo, które wydają się niezweryfikowane lub podejrzane. Dotyczy to zwłaszcza tych materiałów, które mają potencjalny wpływ na publiczne postrzeganie znaczących postaci i instytucji - ostrzegła cytowana w komunikacie ekspertka NASK.

REKLAMA

Czytaj również:

PAP/jmo

Polecane

REKLAMA

Wróć do strony głównej