Rosyjskie operacje wpływu w Polsce przy użyciu bota ChatGPT. OpenAI potwierdza

Grupy z Rosji, Chin, Iranu i Izraela wykorzystywały modele AI do prowadzenia ukrytych operacji wpływu w mediach społecznościowych, publikując m.in. komentarze w języku polskim - podał w czwartek koncern stojący za aplikacją ChatGPT. Firma poinformowała o skasowaniu kont powiązanych z tymi grupami.

2024-05-30, 20:32

Rosyjskie operacje wpływu w Polsce przy użyciu bota ChatGPT. OpenAI potwierdza
"Historia pokazuje, że operacje wpływu, które przez lata nie przynosiły żadnych rezultatów, mogą nagle osiągnąć przełom, jeśli nikt na nie nie uważa" - mówi autor raport na temat AI. Foto: Shutterstock/Iryna Imago/trambler58

Jak podała w nowym raporcie firma, jej dochodzenie wykryło pięć siatek użytkowników: dwie z Rosji, jedną z Chin i po jednej z Iranu i Izraela. Wśród nich odkryto jedną wcześniej nieznaną operację, nazwaną przez OpenAI "Bad Grammar" (zła gramatyka), która używała ChatGPT do ulepszenia bota na Telegramie i tworzenia krótkich komentarzy w języku polskim i angielskim.

Dodatkowo, w ramach znanej już wcześniej operacji nazwanej "Doppelganger" powiązanej z rosyjskim wywiadem, Rosjanie korzystali z modeli AI do tworzenia postów po francusku, niemiecku, włosku i polsku, które były zamieszczane na portalu X (d. Twitter) i portalu z memami 9GAG, a także do tworzenia całych artykułów zamieszczanych na stronach imitujących rzeczywiste media.

W podobny sposób - do ulepszania botów i tworzenia artykułów i komentarzy - platformy OpenAI wykorzystywały grupy z Chin (znana od dawna operacja "Spamuflaż"), Iranu i Izraela.

Tworzono alternatywne media

"Treści publikowane w ramach tych różnych operacji skupiały się na szerokim spektrum zagadnień, w tym inwazji Rosji na Ukrainę, konflikcie w Gazie, wyborach w Indiach, polityce w Europie i Stanach Zjednoczonych oraz krytyce chińskiego rządu ze strony chińskich dysydentów i obcych rządów" - napisał autor raportu i szef zespołu ds. rozpoznania i dochodzeń Ben Nimmo.

REKLAMA

Podczas briefingu prasowego Nimmo stwierdził, że choć modele AI ułatwiły i usprawniły pracę grup stojących za operacjami wpływu, żadna z nich nie trafiła ze swoimi treściami do szerszego grona odbiorców. Przestrzegł jednak, że nie należy lekceważyć tych prób.

"Historia pokazuje, że operacje wpływu, które przez lata nie przynosiły żadnych rezultatów, mogą nagle osiągnąć przełom, jeśli nikt na nie nie uważa" - dodał.

Czytaj także: 

PAP/agkm/wmkor

Polecane

REKLAMA

Wróć do strony głównej