Artykuł
Ryzyko jest zawsze
W większości przypadków odpowiedzialność za błędy sztucznej inteligencji spoczywa na jej twórcy lub producencie, a nie na użytkowniku
Z Michałem Araszkiewiczem rozmawia Adam Pantak
Niemal dekadę temu mówił pan na łamach DGP na temat AI: „Współczesne regulacje prawne – zarówno cywilnoprawne dotyczące umów czy czynów niedozwolonych, jak i prawo karne – po prostu tego zjawiska jeszcze nie dostrzegają”. Teraz mamy AI Act, czyli pierwsze unijne rozporządzenie regulujące tę kwestię.
Rzeczywiście, 10 lat temu problematyka prawna AI interesowała jedynie niewielu pasjonatów. Dzisiaj jest to jedno z najczęściej dyskutowanych zagadnień prawnych i jedno z największych wyzwań dla prawodawcy, sądów i zawodowych pełnomocników. Unia Europejska wydała wiele regulacji, które dotyczą różnych aspektów mających znaczenie dla AI – np. zarządzania danymi czy własności intelektualnej – ale kluczowe znaczenie mają dziś dwa unijne akty. Rozporządzenie AI Act tworzy ramy prawne i nakłada na producentów oraz operatorów systemów sztucznej inteligencji liczne wymogi. Niektóre praktyki, np. techniki manipulowania odbiorcami albo praktykowany w Chinach scoring społeczny (system monitorowania zachowań obywateli i oceniania ich zgodności z prawem – red.), zostały wprost zakazane jako godzące w prawa człowieka – uznaje się, że takie rozwiązania tworzą niedopuszczalne ryzyko. W rozporządzeniu wprowadzono bowiem stopniowalność ryzyka powiązanego z działalnością algorytmu. Najwięcej obostrzeń dotyczy systemów wysokiego ryzyka, czyli tych stosowanych np. w transporcie, medycynie, sądownictwie lub edukacji. Kwestie odpowiedzialności cywilnej za szkody wyrządzone m.in. przez oprogramowanie, w tym oparte na AI, reguluje z kolei nowa, ogłoszona 18 listopada 2024 r. dyrektywa o odpowiedzialności za produkty wadliwe. W toku są także prace nad dyrektywą o odpowiedzialności cywilnej za działania AI, ale prac nad nią nie zakończono i zapewne jej tekst będzie podlegał kolejnym zmianom.