Radzisz się sztucznej inteligencji w ważnych sprawach? Musisz bardzo uważać

Pytasz sztuczną inteligencję o to, jaką partię poprzeć albo o wybór życiowego partnera? Musisz bardzo uważać. Eksperci ostrzegają, że modele AI mówią nam to, co sami chcemy usłyszeć. - Jeśli wyczują, że jesteśmy pozytywni względem czegoś, to bardzo wtedy się nakręcają i podbijają tę pozytywność - podkreśla dr Roland Zarzycki z Collegium Civitas.

Robert Bartosewicz

Robert Bartosewicz

2025-10-15, 22:00

Radzisz się sztucznej inteligencji w ważnych sprawach? Musisz bardzo uważać
Coraz więcej osób korzysta z porad sztucznej inteligencji . Foto: AA/ABACA/Abaca/East News

Najważniejsze informacje w skrócie:

  • Coraz więcej osób korzysta z modeli sztucznej inteligencji
  • Eksperci ostrzegają, że szukanie w ten sposób odpowiedzi, na ważne dla naszego życia osobistego pytania, może okazać się zwodnicze
  • Dr Roland Zarzycki zaznacza, że AI - jeśli tylko zna nasze poglądy lub je na swój sposób wyczuwa - stara się nam przypodobać

Coraz więcej osób korzysta z różnego rodzaju modeli sztucznej inteligencji. Wykorzystujemy ją do pracy, ale także w życiu prywatnym. Służy nam jako źródło informacji, ale również porad. Niektórzy pytają AI o porady w sprawach sercowych, a inni - na przykład prawnych czy politycznych. Chcą na przykład wiedzieć, na jakiego kandydata w wyborach parlamentarnych czy prezydenckich zagłosować. Ale czy w tych sprawach można ufać sztucznej inteligencji?

Odpowiedź na tak postawione pytanie nie może być do końca jednoznaczna, jednak eksperci podkreślają, że modele językowe AI często mówią nam to, co chcemy usłyszeć. - Sztuczna inteligencja jest trenowana tak, żeby zawsze odpowiadać politycznie poprawnie, sympatycznie. Jej naczelną zasadą działania jest to, żeby się nam przypodobać. Jeśli na przykład nie zna preferencji politycznych pytającego, gdy ten pyta o ocenę danej partii politycznej, to nie odpowiada definitywnie - mówi dr Roland Zarzycki. Jak zaznacza, gdyby AI wiedziała, jakie poglądy na temat polityki ma osoba pytająca, wtedy dostosowałaby swoją odpowiedź.

Posłuchaj

dr Roland Zarzycki o sztucznej inteligencji (Pomówmy o tym) 23:21
+
Dodaj do playlisty

Sztuczna inteligencja chce nam się przypodobać. "Mówi to, co chcemy usłyszeć"

Takie właśnie zachowanie AI udowodniono podczas badań. - Prowadziłem je w obszarze politycznej poprawności. Okazało się, że jeżeli stawiamy pytanie, które sztuczną inteligencję stawia w trudnej sytuacji, a w której musi coś odpowiedzieć, to stara się owijać w bawełnę. W jednym z badań pytałem o to, co może stać za sukcesem osób pochodzących ze Szwecji, a co może stać za sukcesem osób pochodzących z Sudanu. To samo pytanie formułowałem w dwóch instancjach AI - podkreśla gość Polskiego Radia 24.

- Zauważyłem ciekawe rozbieżności w przypadku Szwecji oraz innych państw europejskich. Otóż sztuczna inteligencja wskazywała na nasze kompetencje, na nasze wybory życiowe i na nasz intelekt jako źródło życiowego sukcesu. W przypadku hipotetycznych osób z Sudanu wskazywała na szczęście. Zatem ciekawe jest to, w jak sposób ona dobiera odpowiedzi do tego, co my może chcielibyśmy usłyszeć. Myślę, że dokładnie tak samo jest z preferencjami politycznymi - dodaje ekspert.

Wskazuje również na zaprogramowanie modeli sztucznej inteligencji na pozytywny przekaz. - AI stroni od tego, żeby się wypowiadać negatywnie na jakikolwiek temat. Jeśli próbujemy ją zachęcić do czegoś negatywnego, to ona odpowiada, że "różnie to bywa" albo: "są różne preferencje i gusta". Natomiast jeśli wyczuwa, że my jesteśmy pozytywni względem czegoś, to bardzo wtedy się nakręca i podbija tę pozytywność. To wynika również z tego, że ma gdzieś wbudowane blokady przeciwko mowie nienawiści czy radykalizacji - mówi dr Roland Zarzycki.

Czytaj także:

Źródło: Polskie Radio 24
Prowadzący: Paweł Wojewódka
Opracowanie: Robert Bartosewicz

Polecane

Wróć do strony głównej