Etikus-e az AI?

Szerző: Pribelszki János PhD hallgató

Áttekintette: Kovácsné dr. Bikki Laura, dr. Bocsi Bernadett és dr. Bencsik András

Szerző: Pribelszki János PhD hallgató

Áttekintette: Kovácsné dr. Bikki Laura, dr. Bocsi Bernadett és dr. Bencsik András

2024. 10. 04.

A diszkriminációtilalom és az AI

A hátrányos megkülönböztetés tilalma egy alkotmányos védelmet élvező alapjog. Nemzetközi dokumentumok sora (pl. az Európai Unió Alapjogi Chartája) deklarálja az ehhez való jogot, és belső jogunk is kiemelten kezeli: az Alaptörvény XV. cikkének generális rendelkezését az egyenlő bánásmódról szóló 2003. évi CXXV. törvény konkretizálja, de a témának hatalmas irodalma van, és rengeteg bírósági döntés is született a diszkrimináció témakörében. Megismerhető tehát, hogy alapesetben mi az, ami, az egyenlő bánásmód követelményével és a hátrányos megkülönböztetés tilalmával ellentétes. A mesterséges intelligencia térhódítása azonban új körülményeket teremtett a diszkrimináció elleni küzdelemben is. Az alábbi két példa arra világít rá, hogy miért probléma, ha a mesterséges intelligencia nincs megfelelően felkészítve arra az egyenlő bánásmódra, amelyet  minden esetben elvárunk a döntéshozóktól.

A COMPAS ügy középpontjában a Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) nevű kockázatértékelési rendszer áll, amelyet az Egyesült Államokban használnak a bíróságok arra, hogy prediktív analitika segítségével kalkuláljon egy visszaesési valószínűségi mutatót a bűnelkövetők jövőbeni visszaesési kockázatával kapcsolatban. Ez a rendszer tehát konkrét döntési javaslatokkal hivatott segíteni a bíróságok munkáját. Maga a COMPAS rendszer az érintett személy vonatkozásában három mutatót képes előre jelezni: a tárgyalás előtti szabadon bocsátás kockázatát; a visszaesés, valamint az erőszakos visszaesés kockázatának valószínűségét. Ennek a szoftvernek a tanításához az előzetes letartóztatásban lévő személyek által kitöltött kérdőív eredményeit, valamint a bűnügyi nyilvántartás adatbázisát vették alapul. Bár ez az MI megoldás nem tartalmaz kifejezetten faji tényezőre utaló adatot, mégis a gyakorlati használat során kiderült, hogy a belső döntéshozatali mechanizmusában nagymértékben figyelembe veszi a terhelt etnikai hátterét. Miután kiderült, hogy a COMPAS, a betáplált tanítóadatok alapján nagyobb valószínűséggel jelölte meg a színesbőrű vádlottakat magas kockázatúként, mint a fehéreket a rendszer használatát széles körben kezdték el kritizálni és támadni. Ennek következtében a diszkrimináció miatt megtámadott verzió használatát be is tiltották. Ugyanakkor a szoftver egy részben módosított változatát továbbra is használják az amerikai büntető igazságszolgáltatásban (az algoritmus működésébe olyan garanciális elemeket építettek be, amelyek jobban diverzifikálják az eredményt, valamint komoly előrelépés, hogy az elkövető bőrszínének a jelenlegi szoftver már nem tulajdonít „perdöntő” jelentőséget).[1]

Az Amazon ügyben az Amazon AI-alapú toborzási szoftverének diszkriminációs problémái abból eredtek, hogy a rendszer a korábbi tíz év önéletrajzi adatain tanult, amelyek között felülreprezentáltak voltak a sikeres férfi karrierutak. Emiatt a szoftver a férfi jelölteket részesítette előnyben, a nőket pedig alacsonyabb pontszámok adásával hátrányosan megkülönböztette. Az Amazon végül felhagyott a szoftver használatával, mivel az nem tudta garantálni a nemi alapú elfogultság-mentességet.

A fenti esetek is rávilágítanak az algoritmikus elfogultság problémáira, vagyis hogy az algoritmus előállításához szükséges lépéseknél (és utána is) előfordulhatnak olyan helytelen lépések, amelyek a végén egy „elfogult algoritmus”-hoz vezethetnek. Ezek mind széles körű vitát indítottak el az algoritmusok működési logikájának átláthatóságáról és igazságosságáról a jogi rendszerben. Egyértelmű, hogy a helyzetet kezelni kell, hiszen a fentiekhez hasonló problémák megengedhetetlenek, ha az MI rendszerek alkalmazása tömegessé válik – hiszen ezek a rendszerek adott esetben földrajzi határoktól függetlenül működnek és így beláthatatlan az érintetti kör, akikre hatással lehet maga a szoftver. Továbbá, mivel az utólagos jogorvoslat nem segít adott esetben a tömeges érintettségen, szükség van kifejezetten folyamatba épített technikai, szervezeti és logikai kontrollokra.

Jogi és egyéb megoldások

A problémát jogi oldalról közelíti meg az Európai Unió Mesterséges Intelligencia Rendelete (AI Act), amely a világon az első átfogó MI szabályozás. Azontúl, hogy az AI Act újfent rögzíti alapelvi szinten a diszkriminációtilalmat, meghatároz egy konkrét új eljárást is, az alapvetőjogi hatásvizsgálatot, amelyet még az IT fejlesztés során, tehát megelőző jelleggel kell végrehajtani. Ez részben azt szolgálja, hogy lehetőség szerint ne kerülhessenek éles használatba olyan MI eszközök, amelyek bármely alapvető jogot (beleértve a diszkriminációtilalmat) sértenek.

Nyilvánvaló azonban, hogy vannak jogi eszközökön kívüli megoldások is, amelyeket a prudens MI üzemeltetők kötelesek használni. A fenti példákból egyértelműen kiderült, hogy az MI szoftverek esetleges elfogultságát könnyen okozhatják a tanítóadatok. Nehéz ugyanakkor ezt a helyzetet előre látni, hiszen a tanítóadatok mennyisége miatt előzetes emberi átnézésre nincs megfelelő minőségben lehetőség. A tanításra használt adatkészlet kiegyensúlyozottságának vizsgálata statisztikai módszerekkel ugyan lehetséges, de ez azt is jelentheti, hogy mesterséges módon módosítanak például közhitelesnek tartott nyilvántartások adattartalmán.

Emellett az is nyilvánvaló, hogy a fejlesztők sem szándékosan diszkriminatív adatokkal tanítják a szoftvereket, tehát az algoritmikusokban rejlő „fekete doboz” probléma jelen van, ami azt jelenti, hogy egyszerűen nem mindig látható előre, hogy milyen következtetéseket von le a szoftver. Emellett a tanítóadatokhoz történelmi, földrajzi, gazdasági, politikai és vallási aspektusok tartoznak, amelyek befolyásolhatják az MI rendszer következtetéseit. Ezek alapján a prudens MI üzemeltető az alábbi lépéseket köteles megtenni:

  • Adatok vizsgálata és tisztítása: Az adatkészleteket a lehetőségekhez mérten gondosan át kell vizsgálni, és meg kell tisztítani a történelmi előítéletektől és torzításoktól. Ez az egyik legnehezebb lépés.
  • Kontroll beépítése: Az MI rendszerek fejlesztése során szükséges, hogy beépítésre kerüljenek olyan kontroll mechanizmusok, amelyek alapján bizonyos típusú döntéseket a szoftver megoldás semmilyen esetben sem hozhat meg.
  • Átláthatóság és megmagyarázhatóság: Az MI rendszerek döntéseinek átláthatónak és megmagyarázhatónak kell lenniük. Az ügyfeleknek lehetőséget kell biztosítani arra, hogy megértsék, miért és milyen szempontok alapján hozott döntést a megoldás, de az AI rendszer üzemeltetőjének üzleti titkot nem kell felfednie a tájékoztatóban.
  • Emberi felügyelet: Ez egy működési kockázattal arányos kontroll mechanizmus. Az MI rendszerek döntéseit a rendszer kockázati besorolásához mérten felügyelet alá kell helyezni, és az embereknek lehetőségük kell, hogy legyen felülbírálni az MI rendszer döntéseit, ha szükséges.
  • Etikai irányelvek és képzés: Az üzemeltetőknek etikai irányelveket kell kidolgozniuk és rendszeres képzést kell nyújtaniuk az alkalmazottak számára az MI rendszerek használatáról és az etikai szempontokról.

A mesterséges intelligencia alapú rendszerek szabályozása és gyakorlati alkalmazása rendkívül turbulens időszakot él meg. Az AI Act mellett az egyre nagyobb számban alkalmazásra kerülő MI-t használó szoftverek vagy MI- megoldások feltehetően kellő tapasztalattal fog szolgálni arról, hogy elegendő-e a jelenlegi szabályozás, és képesek lesznek-e az MI szoftverek üzemeltetői arra, hogy biztosítsák a rendszerek diszkriminációmentes működését.

Figyeld az Intrát, hiszen nemsokára érkezik a KIBERLAB cikksorozatának következő része, amely az AI rendszerek használatakor felmerülő felelősségi kérdéseket vizsgálja.

Kapcsolódó cikkek:

Az AI Act és a pénzügyi szektor

Mi számít AI-nak?

[1] https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

Kérdésed van?

A kutatólaborral kapcsolatos szakmai kérdések esetén a kovacs.attila@inf.elte.hu címen lehet keresni minket, szívesen segítünk.

Scroll to Top