Wyszukaj po identyfikatorze keyboard_arrow_down
Wyszukiwanie po identyfikatorze Zamknij close
ZAMKNIJ close
account_circle Jesteś zalogowany jako:
ZAMKNIJ close
Powiadomienia
keyboard_arrow_up keyboard_arrow_down znajdź
removeA addA insert_drive_fileWEksportuj printDrukuj assignment add Do schowka
comment

Artykuł

TEMATY:
TEMATY:
Data publikacji: 2024-11-29

Ryzyko jest zawsze

W większości przypadków odpowiedzialność za błędy sztucznej inteligencji spoczywa na jej twórcy lub producencie, a nie na użytkowniku

Z Michałem Araszkiewiczem rozmawia Adam Pantak

Niemal dekadę temu mówił pan na łamach DGP na temat AI: „Współczesne regulacje prawne – zarówno cywilnoprawne dotyczące umów czy czynów niedozwolonych, jak i prawo karne – po prostu tego zjawiska jeszcze nie dostrzegają”. Teraz mamy AI Act, czyli pierwsze unijne rozporządzenie regulujące tę kwestię.

Michał Araszkiewicz, doktor nauk prawnych, adiunkt w Katedrze Teorii Prawa WPiA UJ, radca prawny, partner w kancelarii Araszkiewicz Cichoń Araszkiewicz. Członek rządowego zespołu e-Legislacja

Michał Araszkiewicz, doktor nauk prawnych, adiunkt w Katedrze Teorii Prawa WPiA UJ, radca prawny, partner w kancelarii Araszkiewicz Cichoń Araszkiewicz. Członek rządowego zespołu e-Legislacja

Rzeczywiście, 10 lat temu problematyka prawna AI interesowała jedynie niewielu pasjonatów. Dzisiaj jest to jedno z najczęściej dyskutowanych zagadnień prawnych i jedno z największych wyzwań dla prawodawcy, sądów i zawodowych pełnomocników. Unia Europejska wydała wiele regulacji, które dotyczą różnych aspektów mających znaczenie dla AI – np. zarządzania danymi czy własności intelektualnej – ale kluczowe znaczenie mają dziś dwa unijne akty. Rozporządzenie AI Act tworzy ramy prawne i nakłada na producentów oraz operatorów systemów sztucznej inteligencji liczne wymogi. Niektóre praktyki, np. techniki manipulowania odbiorcami albo praktykowany w Chinach scoring społeczny (system monitorowania zachowań obywateli i oceniania ich zgodności z prawem – red.), zostały wprost zakazane jako godzące w prawa człowieka – uznaje się, że takie rozwiązania tworzą niedopuszczalne ryzyko. W rozporządzeniu wprowadzono bowiem stopniowalność ryzyka powiązanego z działalnością algorytmu. Najwięcej obostrzeń dotyczy systemów wysokiego ryzyka, czyli tych stosowanych np. w transporcie, medycynie, sądownictwie lub edukacji. Kwestie odpowiedzialności cywilnej za szkody wyrządzone m.in. przez oprogramowanie, w tym oparte na AI, reguluje z kolei nowa, ogłoszona 18 listopada 2024 r. dyrektywa o odpowiedzialności za produkty wadliwe. W toku są także prace nad dyrektywą o odpowiedzialności cywilnej za działania AI, ale prac nad nią nie zakończono i zapewne jej tekst będzie podlegał kolejnym zmianom.

Pobierz pliki wydania
close POTRZEBUJESZ POMOCY?
Konsultanci pracują od poniedziałku do piątku w godzinach 8:00 - 17:00