Nowe technologie. Powstają pierwsze regulacje prawne dot. sztucznej inteligencji

Szybki rozwój sztucznej inteligencji (AI) powoduje, że rządy i organizacje międzynarodowe ścigają się w regulowaniu narzędzi AI i tworzą pierwsze prawne regulacje dotyczące tej technologii - podaje agencja Reutera.

2023-12-24, 21:47

Nowe technologie. Powstają pierwsze regulacje prawne dot. sztucznej inteligencji
Sztuczna Inteligencja. Rządy i organizacje międzynarodowe tworzą prawne regulacje dotyczące AI. Foto: thanmano / Shutterstock

Twórcy AI podczas pierwszego globalnego szczytu bezpieczeństwa AI w Wielkiej Brytanii, który odbył się 2 listopada, zgodzili się współpracować z rządami w celu przetestowania nowych narzędzi przed ich szerszym udostępnieniem, aby pomóc w zarządzaniu ryzykiem związanym z rozwijającą się technologią.

Ponad 25 krajów obecnych na szczycie podpisało 1 listopada Deklarację z Bletchley, aby współpracować i ustalić wspólne podejście do nadzoru nad AI.

Przedstawiciele Wielkiej Brytanii powiedzieli podczas szczytu, że kraj potroi do 300 milionów funtów swoje fundusze dla instytutu AI Research Resource, co obejmuje dwa superkomputery, które będą wspierać badania nad bezpieczeństwem zaawansowanych modeli sztucznej inteligencji. Wielka Brytania planuje także utworzenie pierwszego na świecie instytutu bezpieczeństwa sztucznej inteligencji.

Tymczasowe porozumienie

Z kolei prawodawcy i rządy UE osiągnęły 8 grudnia tymczasowe porozumienie w sprawie zasad regulujących wykorzystanie sztucznej inteligencji, w tym wykorzystanie sztucznej inteligencji przez rządy w nadzorze biometrycznym.

REKLAMA

Porozumienie wymaga, aby systemy AI ogólnego przeznaczenia spełniały obowiązki w zakresie przejrzystości przed wprowadzeniem ich na rynek. Obejmują one sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i rozpowszechnianie szczegółowych podsumowań dotyczących treści wykorzystywanych do szkolenia AI.

USA uruchomią instytutu bezpieczeństwa AI

Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów przedstawiły 27 listopada 20-stronicowe niewiążące porozumienie zawierające ogólne zalecenia dotyczące sztucznej inteligencji, takie jak monitorowanie systemów pod kątem nadużyć, ochrona danych przed manipulacją i weryfikacja dostawców oprogramowania.

USA uruchomią instytut bezpieczeństwa sztucznej inteligencji w celu oceny znanych i nowych zagrożeń związanych z tak zwanymi "pionierskimi" modelami sztucznej inteligencji.

Prezydent Joe Biden wydał 30 października rozporządzenie wykonawcze wymagające od twórców systemów sztucznej inteligencji, które mogą stanowić zagrożenie dla bezpieczeństwa narodowego USA, gospodarki, zdrowia publicznego lub bezpieczeństwa, udostępniania rządowi wyników testów bezpieczeństwa.

REKLAMA

Pekin gotowy do zwiększenia współpracy ws. AI

Także Chiny zdecydowały się na wprowadzenie regulacji prawnych dotyczących AI, Wu Zhaohui, chiński wiceminister nauki i technologii, powiedział podczas sesji otwierającej AI Safety Summit w Wielkiej Brytanii 1 listopada, że Pekin jest gotowy do zwiększenia współpracy w zakresie bezpieczeństwa sztucznej inteligencji, aby pomóc w budowaniu międzynarodowych "ram zarządzania".

W październiku Chiny opublikowały proponowane wymogi bezpieczeństwa dla firm oferujących usługi oparte na generatywnej sztucznej inteligencji, w tym czarną listę źródeł, których nie można wykorzystywać do trenowania modeli AI.

W sierpniu kraj ten wydał zestaw tymczasowych środków wymagających od usługodawców przedłożenia ocen bezpieczeństwa i uzyskania zgody przed wypuszczeniem produktów AI na rynek.

Czytaj także:

PAP/łl

Polecane

REKLAMA

Wróć do strony głównej