Nietypowa praktyka. Dowódca armii USA pozwala czatowi GPT podejmować decyzje

Jeden z najwyższych rangą generałów armii Stanów Zjednoczonych twierdzi, że pozwala czatowi GPT podejmować decyzje wojskowe - donoszą zagraniczne media.

2025-10-15, 15:23

Nietypowa praktyka. Dowódca armii USA pozwala czatowi GPT podejmować decyzje
Generał William "Hank" Taylor używa AI do podejmowania decyzji wojskowych. Foto: YONHAP/PAP/EPA

Generał armii USA korzysta z czatu GPT do zarządzania wojskiem

Chodzi o dowódcę amerykańskiej armii w Korei Południowej, Williama "Hanka" Taylora, który poinformował, że - rzeczywiście - korzysta ze sztucznej inteligencji przy podejmowaniu decyzji wojskowych i personalnych dotyczących żołnierzy podlegających pod jego dowództwo.

- Staram się budować modele, które pomogą nam wszystkim - tłumaczył generał. Dotyczy to również Połączonego Dowództwa Organizacji Narodów Zjednoczonych w Korei Południowej, któremu Taylor obecnie przewodzi jako szef sztabu.

"Czat GPT i ja staliśmy się sobie bliscy"

Czat GPT i ja staliśmy się ostatnio sobie naprawdę bliscy - powiedział generał w rozmowie z "Business Insider". Tego typu rozwiązania coraz częściej pojawiają się w amerykańskiej armii. Jak dodał William "Hank" Taylor, jego celem jest poprawa jakości i trafności decyzji. 

- Jako dowódca chcę podejmować lepsze decyzje - powiedział amerykański wojskowy. - Chcę mieć pewność, że podejmuję je we właściwym momencie, aby dały mi przewagę - dodał. 

Sztuczna inteligencja jest między innymi integrowana z technologią dronów, namierzaniem i przetwarzaniem danych. Algorytm AI pilotował zmodyfikowanego F-16 w symulowanej walce powietrznej.

Czytaj także:

Czat GPT. Problemy i zagrożenia

Eksperci już od dłuższego czasu apelują jednak o ostrożność w korzystaniu z czatu GPT, ponieważ liczne są przypadki udzielania przez niego nieprecyzyjnych lub nawet błędnych odpowiedzi. Opisywano również sytuacja, w których użytkownicy czata GPT zwracali się do niego o wsparcie w kryzysie psychicznym, co może prowadzić do poważnego zagrożenia życia lub zdrowia.  

Poza tym - jak pisze portal Futurism.com - wykazano, że przez "ponad połowę czasu" czat GPT generuje fałszywe informacje na temat podstawianych mu faktów. "Problematyczna historia, jeśli weźmiemy pod uwagę fakt, że obecnie pomaga on zarządzać armią USA w cieniu jednego z najdłużej trwających geopolitycznych starć nowożytności" - zauważa serwis.

Źródła Business Insider/Futurism.com/hjzrmb

Polecane

Wróć do strony głównej