Treści erotyczne w ChatGPT. Decyzja OpenAI przeraziła rodziców
OpenAI zamierza dopuścić treści erotyczne i flirtowanie do ChatGPT - po to, by jej sztuczna inteligencja była jak najbardziej ludzka. Komputery będą także umiały dopasować język - np. pod względem liczby stosowanych emotikonek i stylu wypowiedzi - do odbiorcy, o ile ten będzie sobie tego życzył - zapowiedział twórca OpenAI Sam Altman.
2025-10-16, 10:07
Choć nowe zasady mają dotyczyć wyłącznie dorosłych, to i tak budzą przerażenie rodziców, szczególnie w kontekście problemów z generowaniem treści dla dorosłych na urządzeniach nieletnich użytkowników.
Erotyka dla użytkowników ChatGPT. "Tylko jeśli tego chcesz"
Zmiany, jakie mają zostać w grudniu wprowadzone w najnowszym modelu ChatGPT, wynikają z polityki "traktowania dorosłych jak dorosłych" - napisał Sam Altman w mediach społecznościowych. Ich pierwszą częścią będzie danie użytkownikom możliwości sterowania "osobowością" sztucznej inteligencji. "Jeśli chcesz, aby Twój ChatGPT odpowiadał w bardzo ludzki sposób, używał mnóstwa emotikonów lub zachowywał się jak przyjaciel, ChatGPT powinien to zrobić (ale tylko wtedy, gdy tego chcesz, a nie dlatego, że używamy maxxingu)" - napisał Altman na X.
Oświadczył, że planowane są znacznie dalej idące zmiany. "W grudniu, kiedy w jeszcze większym stopniu wprowadzimy bramki wieku w związku z naszą zasadą, pozwolimy na jeszcze więcej - nawet treści erotyczne, dla zweryfikowanych użytkowników" - napisał Altman.
OpenAI chce się rozwijać, ale jakim kosztem? Nowe pomysły giganta budzą wątpliwości rodziców
Zmiana ma pomóc w przyciągnięciu nowych subskrybentów albo powstrzymaniu ewentualnego odpływu do konkurencji, ale jednocześnie budzi ogromne kontrowersje. Krytycy ostrzegają, że otwarcie się na erotykę może zachęcić ustawodawców do wprowadzenia większych restrykcji dotyczących chatbotów.
Przed wprowadzeniem erotyki do ChatGPT przestrzegają także rodzice. Obawiają się oni, że takie treści i tak będą przeciekały, co stworzy poważny problem i zagrożenie dla nieletnich użytkowników sieci. "Sprawa jest tym bardziej drażliwa, że w tym roku firma została pozwana przez rodziców 16-latka z USA, który odebrał sobie życie. W pozwie znalazły się logi rozmów nastolatka z ChatGPT, w których pisał o myślach samobójczych" - przypomina Fakt.pl wskazując, że algorytmy regulujące bezpieczeństwo treści wyświetlanych dzieciom do tej pory były zawodne.
Czytaj także:
- Barbie zyska nowe życie? Wkracza w erę sztucznej inteligencji
- Awaria ChatGPT. Ustalono przyczynę problemów
Źródła: Polskie Radio/Fakt.pl/X/OpenAI/mbl