Nietypowa praktyka. Dowódca armii USA pozwala czatowi GPT podejmować decyzje
Jeden z najwyższych rangą generałów armii Stanów Zjednoczonych twierdzi, że pozwala czatowi GPT podejmować decyzje wojskowe - donoszą zagraniczne media.
2025-10-15, 15:23
Generał armii USA korzysta z czatu GPT do zarządzania wojskiem
Chodzi o dowódcę amerykańskiej armii w Korei Południowej, Williama "Hanka" Taylora, który poinformował, że - rzeczywiście - korzysta ze sztucznej inteligencji przy podejmowaniu decyzji wojskowych i personalnych dotyczących żołnierzy podlegających pod jego dowództwo.
- Staram się budować modele, które pomogą nam wszystkim - tłumaczył generał. Dotyczy to również Połączonego Dowództwa Organizacji Narodów Zjednoczonych w Korei Południowej, któremu Taylor obecnie przewodzi jako szef sztabu.
"Czat GPT i ja staliśmy się sobie bliscy"
- Czat GPT i ja staliśmy się ostatnio sobie naprawdę bliscy - powiedział generał w rozmowie z "Business Insider". Tego typu rozwiązania coraz częściej pojawiają się w amerykańskiej armii. Jak dodał William "Hank" Taylor, jego celem jest poprawa jakości i trafności decyzji.
- Jako dowódca chcę podejmować lepsze decyzje - powiedział amerykański wojskowy. - Chcę mieć pewność, że podejmuję je we właściwym momencie, aby dały mi przewagę - dodał.
Sztuczna inteligencja jest między innymi integrowana z technologią dronów, namierzaniem i przetwarzaniem danych. Algorytm AI pilotował zmodyfikowanego F-16 w symulowanej walce powietrznej.
- Gigant zwolni 4000 ludzi. Zastąpi ich sztuczna inteligencja
- InPost szykuje "własne Allegro"? Ma w tym pomóc AI
- Co się stanie, gdy powiesz po zakupach "chargeback"? Tajna broń klientów
Czat GPT. Problemy i zagrożenia
Eksperci już od dłuższego czasu apelują jednak o ostrożność w korzystaniu z czatu GPT, ponieważ liczne są przypadki udzielania przez niego nieprecyzyjnych lub nawet błędnych odpowiedzi. Opisywano również sytuacja, w których użytkownicy czata GPT zwracali się do niego o wsparcie w kryzysie psychicznym, co może prowadzić do poważnego zagrożenia życia lub zdrowia.
Poza tym - jak pisze portal Futurism.com - wykazano, że przez "ponad połowę czasu" czat GPT generuje fałszywe informacje na temat podstawianych mu faktów. "Problematyczna historia, jeśli weźmiemy pod uwagę fakt, że obecnie pomaga on zarządzać armią USA w cieniu jednego z najdłużej trwających geopolitycznych starć nowożytności" - zauważa serwis.
Źródła Business Insider/Futurism.com/hjzrmb