Globalny szczyt poświęcony AI. Wiceprezydent USA: sztuczna inteligencja może być zagrożeniem dla demokracji

2023-11-01, 20:11

Globalny szczyt poświęcony AI. Wiceprezydent USA: sztuczna inteligencja może być zagrożeniem dla demokracji
Sztuczna inteligencja może być niebezpieczna nie tylko, gdy służy do produkcji broni chemicznej, czy biologicznej, ale też, gdy pomaga w tworzeniu i okłamywaniu społeczeństwa - powiedziała Harris. Foto: Phonlamai Photo/Shutterstock

Sztuczna inteligencja może być egzystencjalnym zagrożeniem dla demokracji - mówiła wiceprezydent USA podczas pierwszego globalnego szczytu poświęconego ryzyku związanym z AI.

Kamala Harris podkreślała w podlondyńskim Bletchley, że sztuczna inteligencja może być niebezpieczna nie tylko dlatego, gdy służy do produkcji broni chemicznej, czy biologicznej, będąc egzystencjalnym zagrożeniem dla życia. Ale też, gdy pomaga w tworzeniu okłamywaniu społeczeństwa.

- Gdy ludzie na całym świecie nie potrafią odróżnić prawdy od fikcji ze względu na powódź wspomaganej przez sztuczną inteligencję dezinformację, pytam: czyż to nie jest egzystencjalnym zagrożeniem dla demokracji? - pytała polityk.

Do Bletchley przylecieli między innymi szef ONZ Antonio Guterres czy szef Tesli oraz właściciel Twittera/X, Elon Musk. Są tu reprezentanci 27 rządów, think tanków, a także takich firm jak: Google, Meta i Microsoft. Gospodarzem jest brytyjski premier, Rishi Sunak.

Regulacje sztucznej inteligencji

W poniedziałek prezydent Joe Biden zapowiedział wprowadzenie pierwszych regulacji dotyczących systemów sztucznej inteligencji. Obejmują one wymóg testowania najbardziej zaawansowanych produktów sztucznej inteligencji w celu zapewnienia, by nie były wykorzystywane do produkcji broni biologicznej lub nuklearnej.

"Wraz ze wzrostem możliwości sztucznej inteligencji rosną jej konsekwencje dla bezpieczeństwa Amerykanów" - głosi komunikat Białego Domu informujący o rozporządzeniu, które prezydent Joe Biden podpisał w poniedziałek wieczorem polskiego czasu (godz. 20.30). Będzie ono chronić Amerykanów przed potencjalnymi zagrożeniami związanymi z systemami sztucznej inteligencji.

Poza wymogiem testowania takich systemów pod kątem ryzyka użycia ich do produkcji broni biologicznej lub nuklearnej wprowadza ono obowiązek przekazywania władzom federalnym wyników tych badań.

Rząd USA opracuje standardy testów, które mają zapewnić, że systemy sztucznej inteligencji są bezpieczne i godne zaufania. Celem rozporządzenia jest również ochrona Amerykanów przed oszustwami poprzez ustanowienie standardów w zakresie wykrywania treści generowanych przez sztuczną inteligencję. Przygotowane regulacje mają też chronić prywatność obywateli.

Posłuchaj

Wiceprezydent USA o wyzwaniach sztucznej inteligencji (IAR) 0:16
+
Dodaj do playlisty
Czytaj również:

IAR/mm

Polecane

Wróć do strony głównej