Odszedł z Google, teraz ostrzega przed AI. "Może być zagrożeniem dla ludzkości"

Geoffrey Hinton, naukowiec nazywany często "ojcem chrzestnym sztucznej inteligencji" odszedł z pracy w Google'u, by ostrzegać przed zagrożeniami związanymi z AI. Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później. Oczywiście teraz już tak nie sądzę - powiedział w wywiadzie dla "New York Timesa".

2023-05-02, 15:50

Odszedł z Google, teraz ostrzega przed AI. "Może być zagrożeniem dla ludzkości"
zdjęcie ilustracyjne. Foto: Shutterstock/Lets Design Studio

Rozwój modeli sztucznej inteligencji, takich jak związany z Microsoftem ChatGPT czy konkurencyjnego oprogramowania opracowywanego przez Google'a jest coraz bardziej niebezpieczny - ostrzegł naukowiec.

Co jest prawdą?

Internet może zostać zalany przez fałszywe grafiki, nagrania i teksty, tak że przeciętny odbiorca "nie będzie już w stanie odróżnić, co jest prawdą" - zauważył Hinton.

Technologia AI może też wywrócić do góry nogami dotychczasowy rynek pracy, na razie jest w stanie zastąpić przede wszystkim pracowników zajmujących się żmudnymi zadaniami, takich jak asystenci, tłumacze czy sekretarki, ale to się może zmienić - zaznaczył rozmówca "NYT". 

"Zagrożenie dla ludzkości"

Przyszłe wersje AI mogą być ostatecznie zagrożeniem dla ludzkości, ponieważ analizują ogromne ilości danych i często uczą się zupełnie nieoczekiwanego zachowania - podkreśla Hinton. To ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni - dodał.

Trudno jest także zapobiec temu, by AI nie była wykorzystywana przez złych ludzi do złych celów - ocenia Hinton. Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - ostrzega.

Sztuczna inteligencja pod kontrolą

Największą nadzieją jest porozumienie naukowców dotyczące sposobów panowania nad AI; sądzę, że ta technologia nie powinna być rozwijana do czasu, gdy uda się zrozumieć, czy możemy ją kontrolować - skonkludował badacz.

Czytaj także:

Urodzony w Wielkiej Brytanii Hinton przez wiele lat pracował na uniwersytecie w kanadyjskim Toronto. Przez całą karierę akademicką i zawodową zajmował się sztuczną inteligencją, w szczególności sieciami neuronowymi. Jak podkreśla, nie odszedł z Google'a, by krytykować poczynania tej konkretnej firmy, ale by mówić o zagrożeniach związanych z rozwojem sztucznej inteligencji bez zwracania uwagi na to, jak może to wpłynąć na Google'a.

"Google zachowuje się bardzo odpowiedzialnie" - zaznaczył Hinton w poniedziałkowym wpisie na Twitterze.

REKLAMA

PAP/IAR/PR24/akg

Polecane

REKLAMA

Wróć do strony głównej