Nowe technologie. Powstają pierwsze regulacje prawne dot. sztucznej inteligencji
Szybki rozwój sztucznej inteligencji (AI) powoduje, że rządy i organizacje międzynarodowe ścigają się w regulowaniu narzędzi AI i tworzą pierwsze prawne regulacje dotyczące tej technologii - podaje agencja Reutera.
2023-12-24, 21:47
Twórcy AI podczas pierwszego globalnego szczytu bezpieczeństwa AI w Wielkiej Brytanii, który odbył się 2 listopada, zgodzili się współpracować z rządami w celu przetestowania nowych narzędzi przed ich szerszym udostępnieniem, aby pomóc w zarządzaniu ryzykiem związanym z rozwijającą się technologią.
Ponad 25 krajów obecnych na szczycie podpisało 1 listopada Deklarację z Bletchley, aby współpracować i ustalić wspólne podejście do nadzoru nad AI.
Przedstawiciele Wielkiej Brytanii powiedzieli podczas szczytu, że kraj potroi do 300 milionów funtów swoje fundusze dla instytutu AI Research Resource, co obejmuje dwa superkomputery, które będą wspierać badania nad bezpieczeństwem zaawansowanych modeli sztucznej inteligencji. Wielka Brytania planuje także utworzenie pierwszego na świecie instytutu bezpieczeństwa sztucznej inteligencji.
Tymczasowe porozumienie
Z kolei prawodawcy i rządy UE osiągnęły 8 grudnia tymczasowe porozumienie w sprawie zasad regulujących wykorzystanie sztucznej inteligencji, w tym wykorzystanie sztucznej inteligencji przez rządy w nadzorze biometrycznym.
REKLAMA
Porozumienie wymaga, aby systemy AI ogólnego przeznaczenia spełniały obowiązki w zakresie przejrzystości przed wprowadzeniem ich na rynek. Obejmują one sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i rozpowszechnianie szczegółowych podsumowań dotyczących treści wykorzystywanych do szkolenia AI.
USA uruchomią instytutu bezpieczeństwa AI
Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów przedstawiły 27 listopada 20-stronicowe niewiążące porozumienie zawierające ogólne zalecenia dotyczące sztucznej inteligencji, takie jak monitorowanie systemów pod kątem nadużyć, ochrona danych przed manipulacją i weryfikacja dostawców oprogramowania.
USA uruchomią instytut bezpieczeństwa sztucznej inteligencji w celu oceny znanych i nowych zagrożeń związanych z tak zwanymi "pionierskimi" modelami sztucznej inteligencji.
Prezydent Joe Biden wydał 30 października rozporządzenie wykonawcze wymagające od twórców systemów sztucznej inteligencji, które mogą stanowić zagrożenie dla bezpieczeństwa narodowego USA, gospodarki, zdrowia publicznego lub bezpieczeństwa, udostępniania rządowi wyników testów bezpieczeństwa.
REKLAMA
Pekin gotowy do zwiększenia współpracy ws. AI
Także Chiny zdecydowały się na wprowadzenie regulacji prawnych dotyczących AI, Wu Zhaohui, chiński wiceminister nauki i technologii, powiedział podczas sesji otwierającej AI Safety Summit w Wielkiej Brytanii 1 listopada, że Pekin jest gotowy do zwiększenia współpracy w zakresie bezpieczeństwa sztucznej inteligencji, aby pomóc w budowaniu międzynarodowych "ram zarządzania".
W październiku Chiny opublikowały proponowane wymogi bezpieczeństwa dla firm oferujących usługi oparte na generatywnej sztucznej inteligencji, w tym czarną listę źródeł, których nie można wykorzystywać do trenowania modeli AI.
W sierpniu kraj ten wydał zestaw tymczasowych środków wymagających od usługodawców przedłożenia ocen bezpieczeństwa i uzyskania zgody przed wypuszczeniem produktów AI na rynek.
- Roboty zastąpią lekarzy? Prof. Nawrat: będą zdolne wykonywać niektóre zabiegi
- Cyberbezpieczeństwo 2023. Z jakimi wyzwaniami się mierzyliśmy?
- Sztuczna inteligencja – największe wyzwanie dla szkół i nauczycieli
PAP/łl
REKLAMA