Kto odpowiada za błędną decyzję sztucznej inteligencji? Legislacja nie nadąża za innowacjami
- Regulatorzy z różnych obszarów, nie czekając na legislację, zajęli się innowacjami związanymi z tzw. przełomowymi technologiami, jak AI. To pozytywny trend, dobre regulacje ograniczają ryzyka - mówi prezes Stowarzyszenia Prawa Nowych Technologii Xawery Konarski. - Przez brak regulacji może dojść do spektakularnego negatywnego zdarzenia, typu wyciek danych - dodał.
2022-08-19, 08:36
W obszarach określanych jako innowacje przełomowe, takie jak sztuczna inteligencja (AI), internet rzeczy czy chmury obliczeniowe, to regulatorzy, czekając na legislację, zaczęli tworzyć na własną rękę wytyczne - powiedział prezes Stowarzyszenia Prawa Nowych Technologii Xawery Konarski, oceniając, że to jest dobry trend, ponieważ "dobra regulacja jest zawsze lepsza niż brak regulacji".
- Przez brak regulacji może dojść do spektakularnego negatywnego zdarzenia, typu wyciek danych. To z kolei spowoduje, że z danej technologii wycofają się finansujący jej rozwój inwestorzy. Same fundusze VC, inwestujące w AI komunikują, że wolą mieć jakieś zręby regulacyjne, bo to ogranicza ryzyko, na przykład polityczne - że władze pod wpływem jakiegoś jednego skandalu i emocji wprowadzą jakieś drakońskie ograniczenia - wyjaśnił prezes SPNT.
Rynek bankowy domagał się wytycznych
W pierwszej kolejności przełomowymi technologiami zajęli się regulatorzy rynków finansowych. Jak przypomniał, w Polsce są już np. wytyczne KNF o wykorzystywaniu przez banki chmur obliczeniowych.
- Sam rynek bankowy domagał się wytycznych dla chociażby przechowywania danych bankowych w zagranicznej chmurze. Banki od lat mówiły, że wolą mieć ustalone przez regulatora warunki gry - podkreślił Xawery Konarski.
REKLAMA
Zaznaczył, że innowacje to także obszar zainteresowania urzędów ochrony danych.
- Dane wrażliwe możemy mieć bowiem w mało oczywistych miejscach, np. na smartwatchach, monitorujących aktywność fizyczną, a z takich urządzeń dużo łatwiej je wykraść, niż z chmury. Przykładem są aplikacje w samochodach, monitorujące styl jazdy na potrzeby wyliczania składki ubezpieczeniowej. Zgodnie z wytycznymi regulatorów, wolno to robić, ale za wyraźną zgodą kierowcy. To przykład, gdzie przełomowe innowacje są oceniane przez urzędy, chroniące prywatność - wskazał prezes SPNT.
Jego zdaniem, obszarem zainteresowań regulatorów powinien też stać się blockchain, który jest popularniejszym miejscem przechowywania dokumentów.
- I tu też trzeba się zastanowić, jak osiągnąć poziom pewności prawnej tego rozwiązania, które z czasem może zastąpić np. dzisiejszego notariusza - ocenił.
REKLAMA
Producenci systemu przegrali proces
Xawery Konarski przypomniał, że problemy prawne i koszty im towarzyszące były powodem opóźnień w rozwoju niektórych technologii. Np. w USA dotyczyło to rozwoju samochodów autonomicznych, czyli pewnej gałęzi internetu rzeczy (IoT). Rozpatrywano tam przypadek odpowiedzialności za potrącenia pieszego, analizując kto za co ponosi odpowiedzialność.
- Za złe zadziałanie samochodu odpowiada, co oczywiste, producent. Ale kto jest odpowiedzialny, jeśli zerwała się transmisja danych, bez której samochód staje się "ślepy"? Co z twórcą algorytmu, który nie przewidział jakiejś sytuacji? Na wieść o procesie ubezpieczyciele drastycznie odnieśli składki. Ta sytuacja nie zabiła tej innowacji, ale na pewno podniosła jej koszty - wskazał prezes SPNT.
Innym przykładem był pożar domu, zarządzanego przez system AI, który przy wzroście napięcia w sieci odłączał czujniki dymu, tymczasem ten wzrost napięcia doprowadził do zwarcia i pożaru.
- Producenci systemu proces przegrali i ponieśli odpowiedzialności. Tu mamy jednak przykład pokazujący, że AI będzie podejmować decyzje bez naszego udziału i lepiej wprowadzić tutaj jakieś zasady odpowiedzialności - podkreślił.
REKLAMA
Nie będzie jednego aktu prawnego
Jak przypomniał Xawery Konarski, jeśli chodzi o legislację, to najważniejszym aktem ma być zapowiadany na ten rok w UE prawo dotyczące odpowiedzialności cywilno-prawnej za AI.
- Technologia ta ma wiele plusów, ale istnieje też dużo dodatkowych ryzyk, jak chociażby przy przetwarzaniu przy pomocy AI danych sensytywnych, np. zdrowotnych. Operatorzy niektórych systemów mają więc ponosić większą odpowiedzialność niż standardowo przedsiębiorca - zaznaczył.
Planuje się także wprowadzić nowe rozwiązanie - obowiązkowe ubezpieczenia od odpowiedzialności cywilnej w przypadku niektórych systemów wyższego ryzyka AI.
- Na pewno jednak nie będzie jednego aktu prawnego, ani w Polsce, ani w UE ani na świecie który całościowo regulowałby którąś z przełomowych technologii - ocenił prezes SPNT.
REKLAMA
PR24.pl, PAP, DoS
REKLAMA