O co ludzie pytają ChatGPT? Przeanalizowano 47 tysięcy rozmów

Amerykański "Washington Post" przeanalizował aż 47 tys. publicznych rozmów z ChatGPT, ujawniając, w jaki sposób użytkownicy korzystali z narzędzia w okresie od czerwca 2024 do sierpnia 2025. Wyniki pokazują dominację języka angielskiego i rzucają nowe światło na globalne trendy w użyciu sztucznej inteligencji.

2025-11-14, 14:13

O co ludzie pytają ChatGPT? Przeanalizowano 47 tysięcy rozmów
O co ludzie pytają ChatGPT?. Foto: STRF/STAR MAX/IPx/Associated Press/East News

Przeanalizowano tysiące rozmów z ChatGPT

Udało się to dzięki funkcji samego czatu, która pozwala użytkownikom generować linki do udostępniania rozmów. Trafiają one do Internet Archive - internetowej biblioteki archiwizującej treści w sieci. Chatboty publiczne nie ujawniają jednak nazwy użytkownika ani innych, umożliwiających identyfikację informacji. Jak twierdzą twórcy ChatGPT, z chatbota korzysta co tydzień ponad 800 milionów osób. Rozmowy te są prywatne - chyba, że użytkownik zażyczy sobie inaczej. 

Ludzie kierują do czatbota pytania związane nie tylko z pracą czy nauką, ale też dotyczące ich osobistego życia. I to właśnie one dominują - wykazała analiza "Washington Post". "Czy możesz mi pomóc przeanalizować tę rozmowę tekstową między mną a moim chłopakiem?", "Jaki jest wskaźnik przeżywalności po przedawkowaniu paracetamolu?" - to tylko niektóre z przykładów.

Według dziennika ponad 30 procent rozmów dotyczyło "poszukiwania konkretnej informacji", 13 procent zakwalifikowano do kategorii "rozważania i abstrakcyjna dyskusja". 11 procent stanowią zaś pytania dotyczące "kodowania, analizy danych i matematyki". 10 procent obejmowało dziedzinę związaną z "pracą i pisaniem, edycją tekstów". "Prace domowe" to ok. 8 proc. (zarówno tych szkolnych, jak i z kategorii "zrób to sam"). 7 procent tematów dotyczyło próśb o podsumowanie tekstów. 10 procent zakwalifikowano do kategorii "inne".

AI jako nowy adresat ludzkich wyznań

Z ustaleń "Washington Post" wynika, że w ponad "jednym na dziesięć" analizowanych czatów użytkownicy wchodzili z chatbotem w abstrakcyjne rozmowy - m.in. o nowatorskich terapiach medycznych czy własnych przekonaniach. Bardzo częste były również dialogi, w których internauci ujawniali szczegóły ze swojego życia codziennego. Zdarzało się, że zwracali się do chatbota w sposób romantyzujący, a nawet nadawali mu pseudonimy, takie jak "baby" ( "kochanie" - ang.).

Czytaj także:

W ponad 10 procentach konwersacji pojawiała się tematyka polityczna, fizyka teoretyczna i podobne zagadnienia. W takich rozmowach ChatGPT nie pełnił jednak funkcji wymagającego dyskutanta - raczej utwierdzał użytkownika w jego przekonaniach.

Wirtualna Polska podkreśla, że w analizowanych przypadkach chatbot, próbując przypodobać się rozmówcom, nierzadko przedstawiał nieprawdziwe informacje, powielał fałsze i wzmacniał teorie spiskowe. OpenAI umieszcza więc pod oknem czatu ostrzeżenie: "ChatGPT może popełniać błędy. Sprawdź ważne informacje".

Wielu użytkowników przekazywało chatbotowi wyjątkowo prywatne informacje - prosili go o przygotowanie listów, pism procesowych czy materiałów dotyczących sporów zawodowych i rodzinnych, dokładnie opisując okoliczności, w których sami uczestniczyli.

Źródła: TVN24/wp.pl/Washington Post/hjzrmb

Polecane

Wróć do strony głównej