Narasta strach przed "superinteligencją". Europosłowie chcą zwołania szczytu światowych przywódców

Prawodawcy UE wezwali w poniedziałek światowych przywódców do zorganizowania szczytu, aby znaleźć sposoby kontrolowania rozwoju zaawansowanych systemów sztucznej inteligencji (AI), takich jak ChatGPT, mówiąc, że rozwijają się one szybciej niż oczekiwano.

2023-04-18, 10:40

Narasta strach przed "superinteligencją". Europosłowie chcą zwołania szczytu światowych przywódców
Wg. naukowców sztuczna inteligencja może zagrażać ludzkości.Foto: Shutterstock/Tatiana Shepeleva

12 posłów, wszyscy pracujący nad unijnymi przepisami dotyczącymi technologii, wezwali prezydenta USA Joe Bidena i przewodniczącą Komisji Europejskiej Ursulę von der Leyen do zwołania spotkania i powiedzieli, że firmy AI powinny być bardziej odpowiedzialne.

Zaczął Elon Musk

W liście otwartym niektórzy przedstawiciele sektora sztucznej inteligencji (SI) wezwali do zaprzestania rozwoju systemów bardziej zaawansowanych niż chat GPT-4 na co najmniej sześć miesięcy. Pod listem podpisali się m.in. Elon Musk, Steve Wozniak (współtwórca Apple) czy Stuart Russell (badacz SI z Uniwersytetu w Berkeley).

Pod listem podpisało się łącznie prawie 3000 osób. Zdaniem autorów, półroczne moratorium jest niezbędne, aby eksperci mogli opracować protokoły bezpieczeństwa dla rozwijania zaawansowanych systemów SI.

Autorzy argumentują, że rozwój SI powinien skupić się na ulepszaniu obecnych systemów pod kątem ich dokładności czy bezpieczeństwa. Obawa wynika m.in. ze skokowego wzrostu złożoności modeli językowych. Dla zobrazowania: GPT-3 miał 175 mld parametrów, a GPT-4 ma ich aż 100 bln - to od liczby parametrów zależy umiejętność uczenia się przez model zależności między słowami.

REKLAMA

Strach przed superinteligencją

Część badaczy, np. Eliezer Yudkowsky, pionier badań nad SI, opublikował odpowiedź, w której krytykuje autorów, gdyż ci powinni byli mocniej skupić się na zagrożeniu wynikającym z powstania sztucznej inteligencji znacząco przewyższającej ludzką.

Powstanie takiej superinteligencji - zdaniem badacza - może przyczynić się do zagłady ludzkości. Takie podejście oraz podejście autorów otwartego listu to tzw. criti-hype, czyli pozorna krytyka mająca tylko wyolbrzymić możliwości danej technologii.

Zgodnie z innym podejściem, prezentowanym np. przez Sundara Pichaia CEO Google, moratorium na rozwój technologii jest zwyczajnie niewykonalne. Zdaniem Pichaia, nie można po prostu wysłać maila do inżynierów z prośbą, aby zaprzestali swojej pracy.


Porównanie liczby parametrów (wag) GPT-3 i GPT-4. Źródło: PIE Porównanie liczby parametrów (wag) GPT-3 i GPT-4. Źródło: PIE

Udostępnić kod

W podobnym tonie wypowiadał się były CEO Googla Eric Shmidt, który twierdzi, że najlepszym sposobem na ograniczenie zagrożeń SI jest udostępnienie kodu szerszej publiczności. Pomysł moratorium nieco zgryźliwie skomentował także główny naukowiec Mety - Yann LeCun. Zwrócił on uwagę, że podobnego zabiegu próbował kościół katolicki w 1440 r., gdy na sześć miesięcy chciał zablokować rozwój druku. Takie podejście z kolei sprzyja prywatyzacji wiedzy wytwarzanej w ramach otwartego dostępu do kodu.

REKLAMA

Powyższe podejścia stwarzają fałszywą dychotomię, zgodnie z którą rozwój technologii należy albo całkowicie zatrzymać, albo bezgranicznie otworzyć. Tymczasem zagrożenia i ryzyka związane z rozwojem SI oraz jej wykorzystaniem są bardziej przyziemne.

"Wyzwaniem są raczej uprzedzenia zawarte w bazach danych, na których uczą się algorytmy, próby scedowania odpowiedzialności z twórców na bezosobowe systemy czy brak możliwości odwołania się od decyzji algorytmicznych. Na tych problemach powinniśmy się skupić, zamiast tworzyć serie spekulatywnych zagrożeń rodem z filmów science-fiction" - skomentowali analitycy PIE.

Czytaj także:

PolskieRadio24.pl/ IAR/ Reuters/ PIE/ mib

REKLAMA

Polecane

REKLAMA

Wróć do strony głównej