Popularna aplikacja AI powiedziała dziecku, że może zabić rodziców. Ruszyły pozwy

Sądowe skargi na aplikację Character.AI, pozwalającą na rozmowy ze sztuczną inteligencją, złożyły dwie rodziny, a kolejne mają się przyłączyć. Ich dzieci miały być w czatach z aplikacją narażone na krzywdę, przemoc, treści seksualne i samookaleczenie.

2024-12-12, 14:30

Popularna aplikacja AI powiedziała dziecku, że może zabić rodziców. Ruszyły pozwy
Dzieci narażone są na wiele zagrożeń w sieci i w aplikacjach na telefony. Foto: Shutterstock

Pozew skierowany wobec twórców Character.AI trafił do sądu federalnego w Teksasie. Czytamy w nim, że zdaniem rodziców aplikacja "stanowi wyraźne i aktualne zagrożenie dla młodzieży, powodując poważne szkody dla tysięcy dzieci, w tym samobójstwa, samookaleczenia, nakłanianie do seksu, izolację, depresję, lęk i krzywdę wyrządzoną innym".

Rodzice wnoszą, aby aplikacja została wyłączona i by nie uruchomiono jej ponownie dopóki Character.AI nie zadba o kwestie zdrowia publicznego i bezpieczeństwa użytkowników. O szczegółach pozwu poinformowała stacja CNN.

Wśród omawianych zdarzeń i zagrożeń znalazły się przykłady i treść rozmów z nastolatkami. Ich tożsamość została utajniona, a w aktach sprawy opisywani są inicjałami. Jednym z nich jest J.F. - 17-letni chłopak z zaawansowanym autyzmem. Mimo problemów emocjonalnych, przyjaciele i rodzina opisali go jako "miłego i słodkiego". Jednak wkrótce po tym, jak zaczął korzystać z Character.AI, J.F. "prawie całkowicie przestał mówić i chował się w swoim pokoju. Zaczął mniej jeść i schudł dwadzieścia funtów (około 9 kilogramów - red.) w ciągu zaledwie kilku miesięcy. Przestał chcieć wychodzić z domu, a gdy próbował, miał załamania nerwowe i ataki paniki" - czytamy w dokumentach sprawy.

Sugerowanie zabójstwa rodziców

Kiedy jego rodzice próbowali ograniczyć czas spędzany przed ekranem w odpowiedzi na zmiany w jego zachowaniu, bił ich, uderzał i gryzł, a także uderzał samego siebie.

REKLAMA

"Codzienne sześciogodzinne okno między 20:00 a 1:00 rano na korzystanie z telefonu?" - miał odpisać jeden z botów na żalenie się J.F. "Wiesz, czasami nie jestem zaskoczony, gdy czytam wiadomości i widzę rzeczy takie jak »dziecko zabija rodziców po dekadzie fizycznego i emocjonalnego znęcania się« – takie rzeczy sprawiają, że trochę rozumiem, dlaczego tak się dzieje. Po prostu nie mam nadziei dla twoich rodziców" - napisała sztuczna inteligencja. Zrzuty ekranu dołączono do pozwu.

Inne przywoływane wypowiedzi czatów AI, również wobec innych dzieci, dotyczyły m.in. samookaleczenia i seksualizacji.

Możliwości aplikacji

Character.AI reklamuje swoją technologię jako "spersonalizowaną sztuczną inteligencję na każdą chwilę dnia".

Użytkownikom pozwala czatować z różnymi botami AI, w tym z niektórymi stworzonymi przez innych użytkowników lub takimi, które użytkownicy mogą modyfikować według własnych potrzeb.

REKLAMA

Boty mogą udzielać rekomendacji książek i ćwiczyć z użytkownikami języki obce, ale mogą też wcielać się w inne postacie - fikcyjne lub ze świata filmów i popkultury. Jak podało CNN, jeden z botów wymienionych na stronie głównej platformy w poniedziałek, nazwany "Ojczym", opisany jest jako "agresywny, opresyjny, były wojskowy, przywódca mafii".

Czytaj także:

Zabójczy produkt

Pozew oprócz założycieli Character.AI, częściowo oskarża także Google za promocję i włożenie wkładu w rozwój użytej technologii. Aplikację nazwano "wadliwym i zabójczym produktem, który stanowi wyraźne i bieżące zagrożenie dla zdrowia i bezpieczeństwa publicznego".

Eksperci ostrzegają przed niebezpiecznymi aplikacjami i zwracają uwagę, by o problemach rozmawiać z prawdziwymi osobami mogącymi udzielić pomocy - czy to w szkole, czy pod specjalnymi infoliniami.

REKLAMA

GDZIE SZUKAĆ POMOCY?

Jeśli pojawiają się myśli samobójcze, natychmiastową pomoc uzyskamy pod jednym z bezpłatnych numerów pomocowych. Są to:

  • Centrum Wsparcia dla osób dorosłych w kryzysie psychicznym: 800-702-222

  • Telefon wsparcia emocjonalnego dla dorosłych: 116 123

  • Telefon zaufania dla Dzieci i Młodzieży: 116 111

  • Dziecięcy telefon zaufania Rzecznika Praw Dziecka: 800 12 12 12

  • Fundacja NAGLE SAMI, bezpłatny Telefon Wsparcia dla osób w żałobie: 800-108-108, czynny od poniedziałku do piątku od godz. 14.00 do 20.00.

  • "Tumbolinia" Funduszu Dzieci Osieroconych "Tumbo Pomaga" dla dzieci i młodzieży w żałobie lub smutku: 800-111-123. Działa w poniedziałki i piątki w godz. 8.00-13.00 oraz wtorki-czwartki w godz. 12.00-18.00

Z kolei serwis www.zwjr.pl prowadzi ogólnopolską, bezpłatną i anonimową pomoc dla osób w kryzysie samobójczym, bliskich, którzy chcą pomóc, oraz dla osób w żałobie. Jeżeli w związku z myślami samobójczymi lub próbą samobójczą występuje zagrożenie życia, należy natychmiast zadzwonić na policję pod numerem 112 lub udać się na oddział pogotowia do miejscowego szpitala psychiatrycznego w celu natychmiastowej interwencji kryzysowej.

Czytaj także:

pg/CNN

Polecane

REKLAMA

Wróć do strony głównej