0 0
dni
0 0
godz
0 0
min
0 0
sek

Odpowiedzialność za sztuczną inteligencję - projektowana dyrektywa

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Projekt dyrektywy Parlamentu Europejskiego i Rady (UE) w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję) jest obecnie przedmiotem zwykłej procedury ustawodawczej w UE. Przeczytaj poniższy artykuł i sprawdź, jakie reguły proponuje UE w obszarze jakim jest odpowiedzialność za sztuczną inteligencję.

Odpowiedzialność za sztuczną inteligencję - przedmiot i zakres stosowania dyrektywy

Projektowana dyrektywa ustanawia wspólne przepisy dotyczące:

  • ujawniania dowodów dotyczących systemów sztucznej inteligencji (AI) wysokiego ryzyka, aby umożliwić powodowi uzasadnienie pozaumownego cywilnoprawnego roszczenia odszkodowawczego opartego na zasadzie winy;
  • ciężaru dowodu w przypadku pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy wnoszonych do sądów krajowych z tytułu szkód spowodowanych przez system sztucznej inteligencji.

Proponowana dyrektywa ma mieć zastosowanie do pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy w sytuacjach, gdy szkoda spowodowana przez system sztucznej inteligencji powstała po zakończeniu okresu transpozycji przepisów dyrektywy. Proponowana dyrektywa nie ma zastosowania do odpowiedzialności karnej.

Proponowana dyrektywa odnosi się do roszczeń odszkodowawczych, czyli pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy powstałych z tytułu szkody spowodowanej wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku, jeżeli należało go uzyskać.

Ujawnianie dowodów według proponowanej dyrektywy

Państwa członkowskie mają obowiązek zapewnić, aby sądy krajowe były uprawnione – na wniosek potencjalnego powoda, który wcześniej zwrócił się do dostawcy, do osoby podlegającej obowiązkom dostawcy zgodnie z rozporządzeniem w sprawie AI lub do użytkownika o ujawnienie istotnych dowodów, którymi osoby te dysponują, dotyczących konkretnego systemu sztucznej inteligencji wysokiego ryzyka, co do którego istnieje podejrzenie, że spowodował szkodę, jeżeli taki potencjalny powód spotkał się z ich strony z odmową, lub na wniosek powoda – do nakazania tym osobom ujawnienia takich dowodów.

Zgodnie z proponowaną dyrektywą, aby uzasadnić ten wniosek, potencjalny powód musi przedstawić wystarczające fakty i dowody, aby uprawdopodobnić roszczenie odszkodowawcze.

W kontekście roszczenia odszkodowawczego sąd krajowy nakazuje ujawnienie dowodów przez jedną z osób wymienionych wyżej tylko wtedy, gdy powód podjął wszelkie proporcjonalne próby uzyskania od pozwanego takich istotnych dowodów.

Państwa członkowskie mają także obowiązek zapewnić, aby sądy krajowe, na wniosek powoda, były uprawnione do nakazania zastosowania szczególnych środków w celu zabezpieczenia dowodów.

Sądy krajowe ograniczają zakres ujawnianych informacji do tych dowodów, które są proporcjonalne i niezbędne, aby uzasadnić potencjalne lub wniesione roszczenie odszkodowawcze, oraz stosują jedynie takie zabezpieczenie dowodów, które jest proporcjonalne i niezbędne w celu uzasadnienia takiego roszczenia odszkodowawczego.

Przykład 1.

W jaki sposób sądy krajowe mają oceniać proporcjonalność w myśl proponowanej dyrektywy?

Aby ustalić, czy nakaz ujawnienia lub zabezpieczenia dowodów jest proporcjonalny, sądy krajowe uwzględniają prawnie uzasadnione interesy wszystkich stron, w tym zainteresowanych osób trzecich, w szczególności w odniesieniu do ochrony tajemnicy przedsiębiorstwa w rozumieniu art. 2 ust. 1 dyrektywy (UE) 2016/943 oraz informacji poufnych, takich jak informacje związane z bezpieczeństwem publicznym lub narodowym.

Państwa członkowskie obowiązkowo zapewniają w ramach krajowej procedury, aby w przypadku wydania nakazu ujawnienia tajemnicy przedsiębiorstwa lub domniemanej tajemnicy przedsiębiorstwa, którą sąd określił jako poufną, sądy krajowe były uprawnione, w odpowiedzi na należycie uzasadniony wniosek strony lub z własnej inicjatywy, do zastosowania szczególnych środków niezbędnych do zachowania poufności, gdy dowód ten jest wykorzystywany lub przywoływany w postępowaniu sądowym.

Państwa członkowskie zapewniają również, aby osobie, której nakazano ujawnienie lub zabezpieczenie dowodów, przysługiwały odpowiednie proceduralne środki ochrony prawnej w reakcji na taki nakaz.

W przypadku gdy pozwany nie zastosuje się do nakazu ujawnienia lub zabezpieczenia dowodów, którymi dysponuje, wydanego przez sąd krajowy w sprawie dotyczącej roszczenia odszkodowawczego, sąd krajowy domniemywa, że pozwany nie zastosował się do odpowiedniego obowiązku dochowania należytej staranności, które miały zostać wykazane za pomocą wnioskowanych dowodów na potrzeby odpowiedniego roszczenia odszkodowawczego.

Pozwany ma prawo wzruszyć to domniemanie.

Domniemanie związku przyczynowo-skutkowego w przypadku winy według projektowanej dyrektywy

Zgodnie z proponowaną dyrektywą sądy krajowe domniemywają, do celów stosowania przepisów dotyczących odpowiedzialności na potrzeby roszczenia odszkodowawczego, istnienie związku przyczynowo-skutkowego między winą pozwanego a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku, jeżeli następujące warunki zostały kumulatywnie spełnione:

  • powód wykazał winę pozwanego lub osoby, za której zachowanie pozwany ponosi odpowiedzialność, lub sąd zastosował domniemanie takiej winy, która polega na nieprzestrzeganiu obowiązku dochowania należytej staranności określonego w prawie Unii lub w prawie krajowym, bezpośrednio służącego ochronie przed zaistniałą szkodą;
  • na podstawie okoliczności sprawy można uznać, że istnieje uzasadnione prawdopodobieństwo, że wina wpłynęła na wynik uzyskany przez system sztucznej inteligencji lub na fakt nieuzyskania przez taki system wyniku;
  • powód wykazał, że szkoda została spowodowana wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku.

W przypadku roszczenia odszkodowawczego przeciwko dostawcy systemu sztucznej inteligencji wysokiego ryzyka podlegającemu wymogom określonym w Akcie w sprawie AI lub osobie podlegającej obowiązkom dostawcy warunek dot. dochowania należytej staranności jest spełniony wyłącznie, gdy powód wykazał, że którykolwiek z następujących wymogów określonych w tych rozdziałach nie został spełniony przez dostawcę lub, w stosownych przypadkach, osobę podlegającą obowiązkom dostawcy, z uwzględnieniem działań podjętych w ramach systemu zarządzania ryzykiem oraz wyników tych działań:

  • system sztucznej inteligencji wykorzystuje techniki obejmujące trenowanie modeli z wykorzystaniem danych, które nie zostały opracowane na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakościowe wynikające z Aktu w sprawie AI;
  • system sztucznej inteligencji nie został zaprojektowany i opracowany w sposób spełniający wymogi w zakresie przejrzystości określone w Akcie w sprawie AI;
  • system sztucznej inteligencji nie został zaprojektowany i opracowany w sposób umożliwiający osobom fizycznym jego skuteczne nadzorowanie w okresie wykorzystywania systemu sztucznej inteligencji zgodnie z Aktem w sprawie AI;
  • system sztucznej inteligencji nie został zaprojektowany i opracowany w sposób umożliwiający osiągnięcie, z uwagi na jego przeznaczenie, odpowiedniego poziomu dokładności, solidności i cyberbezpieczeństwa;
  • niezwłocznie nie podjęto niezbędnych działań naprawczych w celu zapewnienia zgodności systemu sztucznej inteligencji z obowiązkami określonymi w Akcie w sprawie AI lub, odpowiednio, w celu wycofania go z rynku lub wycofania go od użytkowników zgodnie z Aktem w sprawie AI.

W przypadku roszczenia odszkodowawczego przeciwko użytkownikowi systemu sztucznej inteligencji wysokiego ryzyka podlegającemu wymogom określonym w Akcie w sprawie AI warunek dot. zachowania należytej staranności jest spełniony, jeżeli powód wykazał, że użytkownik:

  • nie wywiązał się z obowiązku użytkowania lub monitorowania systemu sztucznej inteligencji zgodnie z załączoną instrukcją użytkowania lub, w stosownych przypadkach, z obowiązku wstrzymania lub przerwania jego użytkowania zgodnie z Aktem w sprawie AI, lub
  • wprowadził do systemu sztucznej inteligencji dane wejściowe, nad którymi sprawuje kontrolę i które nie są adekwatne w odniesieniu do przeznaczenia tego systemu w rozumieniu Aktu w sprawie AI.

W przypadku roszczenia odszkodowawczego dotyczącego systemu sztucznej inteligencji wysokiego ryzyka sąd krajowy, zgodnie z proponowaną dyrektywą, nie stosuje domniemania określonego wyżej, jeżeli pozwany wykaże, że powód może uzyskać względnie łatwy dostęp do dowodów i wiedzy eksperckiej wystarczających, aby udowodnić związek przyczynowo-skutkowy.

[alert/info]W przypadku roszczenia odszkodowawczego dotyczącego systemu sztucznej inteligencji, który nie jest systemem wysokiego ryzyka, domniemanie ma zastosowanie wyłącznie wtedy, gdy sąd krajowy uzna, że udowodnienie przez powoda związku przyczynowo-skutkowego, jest nadmiernie trudne.[/alert-info]

W przypadku roszczenia odszkodowawczego przeciwko pozwanemu, który korzystał z systemu sztucznej inteligencji w ramach osobistej działalności pozazawodowej, domniemanie ma zastosowanie wyłącznie wtedy, gdy pozwany w sposób istotny wpływał na warunki działania systemu sztucznej inteligencji lub gdy pozwany miał obowiązek i możliwość określenia warunków działania systemu sztucznej inteligencji, ale tego nie uczynił. Pozwany ma prawo wzruszyć to domniemanie.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów