Felelősségi kérdések az MI kontextusában

Szerző: Pribelszki János PhD hallgató

Áttekintette: Kovácsné dr. Bikki Laura, dr. Bocsi Bernadett és dr. Bencsik András

Szerző: Pribelszki János PhD hallgató

Áttekintette: Kovácsné dr. Bikki Laura, dr. Bocsi Bernadett és dr. Bencsik András

2024. 10. 17.

Miért kell erről beszélni?

Az MI rendszerek felelősségi kérdéseinek megvitatása azért kiemelten fontos, mert ezek a technológiák egyre nagyobb hatással vannak az életünkre és a társadalom különböző területeire, beleértve a gazdaságot, az egészségügyet és a jogi rendszert is.

A felelősség tisztázása segít megelőzni a visszaéléseket, biztosítja a jogszerű és etikus alkalmazást, valamint elősegíti a közbizalom fenntartását. Továbbá, a megfelelő szabályozási keretek kialakítása lehetővé teszi a technológia előnyeinek kihasználását, miközben minimalizálja a potenciális károkat és igazságtalanságokat, amelyek a hibás vagy diszkriminatív MI döntéshozatalból eredhetnek.

Annak ellenére, hogy a téma kifejezetten nagy jelentőségű, azt láthatjuk, hogy a jogalkotás még nem feltétlenül érte utol a valóságot. A jelenlegi magyar szabályozás szerint: az MI (vagyis maga az algoritmus) szerzői műnek minősül, és nem vonatkozik rá semmilyen speciális felelősségi rendelkezés. Mivel nem dolog (annak ellenére, hogy ezt támogató javaslatot már lehet olvasni a hazai szakirodalomban is), nem alkalmazhatók rá a termékfelelősségi szabályok. Sem az Szjt., sem más jogszabály nem tartalmaz speciális rendelkezéseket a mesterséges intelligenciára vonatkozóan. Az MI rendszerek szerzői jogi kérdéseivel a cikksorozat következő részében részletesebben is foglalkozunk.

Speciális szabályozás hiányában az általános polgári jogi felelősségi szabályok alkalmazandók, vagyis:

  • szerződéses jogviszonyban (praktikusan az előállító és az üzemeltető között, valamint az üzemeltető és a felhasználó között) a kontraktuális kár;
  • szerződésen kívüli jogviszonyokban (például: előállító és a felhasználó között) pedig az általános deliktuális felelősség.

Mit tesznek a jogalkotók?

A jelenlegi, kevésbé szabályozott helyzet ugyanakkor változóban van. Uniós jogalkotási folyamat alatt áll egy irányelv, amely kifejezetten ezeket az eseteket fogja szabályozni. A szerződésen kívüli felelősségi szabályokról szóló mesterséges intelligencia irányelv (AI Liability Directive) jogalkotási folyamata ugyan nem halad túl gyorsan – még mindig nem került a Parlament elé a Bizottság javaslata –, de mivel valószínűsíthető, hogy ez a jogi szabályozás jövője, ezért az MI rendszerek üzemeltetőinek és / vagy felhasználóinak érdemes ezeket a szabályokat megismerni, és a saját eljárásaik során ezekre figyelemmel lenni.

Fontos kiemelni, hogy a tervezett AI Liability Directive egy irányelv, ellenben a korábban már bemutatott, közvetlenül alkalmazandó AI Act-tel, tehát a tagállami jogalkotóknak valamivel nagyobb mozgásterük lesz a jogszabály implementálása során, de ez aligha érinti az új szabályozás struktúráját és lényeges elemeit.

A javasolt irányelv célja az MI rendszerek által okozott károkra vonatkozó nem szerződéses polgári jogi felelősségi szabályok harmonizálása. Az irányelv nem határozná meg az MI fogalmát, hanem az AI Act-ben szereplő általános MI fogalomra hivatkozna. Igaz ez az irányelv által használt több kulcsfogalom esetében is (pl. „magas kockázatú MI rendszer” vagy „felhasználó”) – amiket nem definiál önállóan, hanem az AI Act definícióira hivatkozik. Ez a jogalkotói megoldás szerencsésnek tűnik, hiszen biztosítja az egységes fogalomhasználatot ezen a területen és uniós szinten is. Az új szabályok az AI rendszerek által okozott károkra vonatkoznának, függetlenül attól, hogy azokat az AI Act alapján magas kockázatúnak minősítik-e vagy sem.

Az AI Liability Directive a szerződésen kívüli polgári jogi felelősségi szabályokra vonatkozik, vagyis olyan szabályokra, amelyek kártérítési igényt biztosítanak függetlenül attól, hogy van-e szerződéses kapcsolat a károsult és a felelős személy között. A szabályok biztosítanák, hogy bármilyen típusú károsult (egyén vagy vállalkozás) kártérítést kapjon, ha egy szolgáltató, fejlesztő vagy AI felhasználó hibája vagy mulasztása következtében olyan kár éri, amely a nemzeti jogszabályok szerint kárnak számít (pl. egészség, tulajdon, magánélet, jóhírnév stb.). Az irányelv nem érintené a más uniós jogszabályokban lefektetett, már meglévő szabályokat, vagyis kifejezetten kiegészítő jelleggel kéne alkalmazni azokon a területeken, ahol nincs speciális szabály.

Az irányelv legjelentősebb újítása a bevezetni kívánt oksági vélelem. A jogszabály egy oksági vélelmet hozna létre, amely megkönnyítené a károsultak számára, hogy sikeresen érvényesítsék a kártérítési igényüket az MI rendszerek által okozott károk esetén. A tervezet egy megdönthető oksági vélelmet rögzít, amely szerint az MI rendszer hibája és a bekövetkezett kár között okozati összefüggés vélelmezhető, ha az uniós vagy nemzeti jog szerinti gondossági kötelezettség megszegését bizonyítják. Magas kockázatú MI rendszerek esetén a vélelem automatikusan alkalmazandó, míg alacsonyabb kockázatú rendszereknél csak akkor, ha a bíróság úgy ítéli meg, hogy az okozati összefüggés bizonyítása túlzottan nehéz lenne. Az irányelv célja a bizonyítási teher csökkentése az MI rendszerek komplexitása miatt, miközben az alperes megcáfolhatja a vélelmet, bizonyítva, hogy nem a hibája okozta a kárt. Ez a megközelítés támogatja az MI innovációját is azáltal, hogy nem fordítja meg teljesen a bizonyítási terhet.

A másik jelentős újítás a bizonyítékok feltárásának kötelezettsége. A magas kockázatú AI rendszerek fejlesztésében és működtetésében részt vevő nagyszámú személy megnehezíti a károsult felperesek számára a felelős személy azonosítását és a kártérítési igény bizonyítását. Az irányelv ezért felhatalmazná a nemzeti bíróságokat, hogy elrendeljék az MI rendszerekkel kapcsolatos bizonyítékok feltárását, segítve az áldozatokat a felelős személyek azonosításában. A cégeknek kötelező lenne specifikus dokumentációkat és naplózási adatokat feltárniuk a bíróságok döntése szerint. A kérelmeket az AI Act szerinti kötelezettségekkel rendelkező felekhez kell intézni, és a felperesnek arányos erőfeszítést kell tennie a bizonyítékok megszerzésére. A bíróságoknak a bizonyítékok feltárása során figyelembe kell venniük a felek jogos érdekeit és az üzleti titkok védelmét. Ha az alperes nem teljesíti a bíróság által elrendelt bizonyítékok feltárását, a bíróság vélelmezheti, hogy a bizonyíték a gondossági kötelezettség megszegésének bizonyítására szolgált volna, de ezt az alperes megcáfolhatja.

Az MI felelősség szabályainak változása jelentős lépés a technológia biztonságos és etikus alkalmazása felé. Az új irányelv nemcsak megkönnyítené a károsultak számára a kártérítési igények érvényesítését, hanem biztosítaná, hogy a magas kockázatú MI rendszerek fejlesztői és üzemeltetői felelősséggel tartozzanak az esetlegesen okozott károkért. Ezáltal nemcsak az áldozatok védelme erősödik, hanem az MI rendszerek iránti bizalom is növekszik, ami elengedhetetlen a jövő innovációihoz és a technológia társadalmi elfogadottságához.

Figyeld az Intrát, mert a cikksorozat következő, záró részében az MI használatakor felmerülő szerzői jogi kérdésekről olvashatsz.

Szakmai mentorok: dr. Bencsik András (ELTE ÁJK), dr. Bocsi Bernadett (Retail Ügyfél Tribe IT Chapter), és Kovácsné dr. Bikki Laura (Innovation Tribe)

Kapcsolódó cikkek: 

Az AI Act és a pénzügyi szektor

Mi számít AI-nak?

Etikus-e az AI?

Kérdésed van?

A kutatólaborral kapcsolatos szakmai kérdések esetén a kovacs.attila@inf.elte.hu címen lehet keresni minket, szívesen segítünk.

Scroll to Top