Előzetes a 2025/2. lapszámból
1. Bevezetés
„A mesterséges intelligencia igazságszolgáltatásban betöltött funkciójával kapcsolatban nem az a kérdés, hogy van-e létjogosultsága, hanem hogy mikor és mennyiben formálja át az egyes szerepköröket.”[1] Nem kérdés ma már az sem, hogy a jogászi munkakörök, így a bírói státuszok egy részét átveszi-e a mesterséges intelligencia. Két kérdés nyitott: milyen arányban és milyen jellegű bírói munkafolyamatokat vált majd ki a mesterséges intelligencia néhány éven belül.
„Napjaink bírójával szemben számtalan elvárás fogalmazódik meg a társadalom irányából. Legyen független és objektív a döntés meghozatalakor, de mégis vegye figyelembe az ügy egyedi körülményeit, legyen hatékony, a tények halmazából képes legyen minél célirányosabban kiválasztani a relevánsakat. Ugyanakkor, lehet a bírót úgy szemlélni, mint egy olyan, jogi tudással bíró személyt, aki az elé vitt jogi problémára megtalálja a megfelelő szabályt, és azt ítéletében alkalmazza. Ha így nézzük, a döntés nagymértékben automatizálható, és a döntéshozatali folyamatot modellezhetjük a korábbi ítéletek alapján. Az AI alkalmazásakor nem az a kérdés, hogy hasznos vagy káros, hanem az, hogy ezek az algoritmusok alkalmasak-e a kívánt eredmény elérésére.”[2]
A mesterséges intelligencia (MI) rohamos fejlődése az elmúlt évtizedben érdemben alakította át a jogászi hivatás jövőjéről szóló diskurzust. Napjainkban a bírói döntéshozatal algoritmikus támogatása a nemzetközi és hazai viták egyik központi kérdése. Az online bíróságok, döntéstámogató rendszerek, kockázatértékelő algoritmusok, szentenciaajánló eszközök elterjedése azt üzeni: a jogalkalmazás bizonyos – különösen repetitív és standardizálható – részfolyamatai technikailag automatizálhatók.
A büntető igazságszolgáltatás magja azonban továbbra is az egyedi emberi sorsok feletti ítélkezés: a cselekmény súlya, az elkövető személyisége, a sértett sérelme, a társadalmi üzenet, a reszocializációs esélyek komplex, empatikus mérlegelése. A mesterséges intelligencia fokozott térhódításával azonban felmerül a kérdés: kiválthatja-e a bírói munkát teljes egészében az MI a magyar büntetőeljárásban?
Ahhoz, hogy megkíséreljük a kérdés megválaszolását, a technológiai és alkotmányjogi feltételeken túl a bírói döntéshozatal magyar büntetőeljárásban felmerülő sajátosságait -legfőképpen az empátia kérdését- szükséges megvizsgálnunk.
A tanulmány a magyar jogrendszerre fókuszál, nemzetközi tapasztalatokra és releváns elméleti munkákra támaszkodva. Figyelembe veszi a 2024/1689/EU rendelettel elfogadott AI Act szabályait, amely az igazságszolgáltatásban használt MI-rendszereket „magas kockázatú” kategóriába sorolja[3], szigorú átláthatósági és emberi felügyeleti követelményekkel.
2. Technológiai háttér és nemzetközi tapasztalatok
A jogi döntéshozatal automatizálhatóságának vitája csak akkor értelmezhető helyesen, ha világos, mit nevezünk MI-nek. A ma használt rendszerek döntő többsége:
- gépi tanuláson[4] alapuló statisztikai modell,
- amely múltbeli adatok mintázataiból számít valószínűségeket,
- nem rendelkezik tudattal, önreflexióval, erkölcsi felelősséggel.
A generatív MI (nagynyelvi modellek) ma már képes[5]:
- jogszabályok és ítéletek tömegének elemzésére,
- érvelési minták felismerésére és imitálására,
- döntési javaslatok generálására.
E képességeket azonban súlyos kockázatok árnyékolják: adat- és mintatorzulások, átláthatatlanság, valamint a „hallucináció”, azaz a valótlan hivatkozások és indokolások generálása. Ezek a problémák a büntető igazságszolgáltatásban különösen érzékenyek. erre már sajnos példákat is látunk: „Az Egyesült Államokban először fordult elő, hogy egy szövetségi bíró kénytelen volt visszavonni döntését, miután kiderült, hogy az indokolásban szereplő jogi hivatkozásokat feltehetően mesterséges intelligencia generálta, méghozzá tévesen. Az eset nemcsak az érintett bíró számára kínos, hanem rávilágít egy gyorsan terjedő, de kevéssé szabályozott jelenségre: a jogi anyagokban egyre gyakrabban bukkannak fel MI-hallucinációk, vagyis meggyőzőnek tűnő, ám téves vagy fiktív hivatkozások – jogszabályokra, ítéletekre és forrásokra –, amelyek nem találhatók meg a hivatalos jogtárakban és bírósági nyilvántartásokban. Ha a bírósági dokumentumokban a tények és a fikció közötti határ elmosódik, annak nemcsak egy-egy ügy, hanem a jogbiztonság és az igazságszolgáltatás hitelessége láthatja kárát.”[6]
A nemzetközi tapasztalatokat érintően gyakran emlegetett példa Észtország „robotbírója”[7]: a médiában elterjedt narratívával szemben az észt Igazságügyi Minisztérium kifejezetten jelezte, hogy nem fejleszt teljes értékű AI-bírót[8], csak a kis értékű követelések elbírálását támogató rendszereket vizsgál.
Kína ún. „smart court” és internetbírósági megoldásai[9] részben MI-alapú támogatással működnek, de a döntés formálisan ott is emberi bíróé. Európában a digitalizáció fő iránya – Fabri elemzése szerint[10] – nem az automatizált ítélkezés, hanem az e-justice infrastruktúra, az online hozzáférés és a munkateher-csökkentés.
A büntető igazságszolgáltatásban a legjelentősebb MI-alkalmazások:
- kockázatértékelő algoritmusok (pl. pretrial release, recidivizmus),
- döntéstámogató rendszerek a precedensanyag feldolgozására[11].
Jelenleg tehát az MI főszabály szerint a bírói döntéshozatali folyamatban nem vesz részt, döntéstámogató szerepe viszont egyre több országban van
3. A bírói döntéshozatal sajátosságai a magyar büntetőeljárásban
A magyar büntetőeljárásban a bírói döntéshozatal[12] összetett, többlépcsős folyamat: tényállás megállapítása, bizonyítékok értékelése, jogszabályok értelmezése, jogi minősítés, büntetéskiszabási mérlegelés, indokolási kötelezettség teljesítése.
Ezt a struktúrát szilárd alkotmányos és jogszabályi garanciarendszer védi:
- az Alaptörvény XXVIII. cikke a tisztességes eljáráshoz és a törvényes bíróhoz való jogot, 25–28. cikkei a bíróságok függetlenségét rögzítik;
- a 2011. évi CLXI. törvény a bírósági szervezetről kimondja, hogy az igazságszolgáltatást bíróságok, azaz emberi bírók gyakorolják;
- a 2017. évi XC. törvény (Be.) a bizonyítás, a kényszerintézkedések és a nyomozási bíró eljárása tekintetében közvetlenséget, szóbeliséget, szabad bírói mérlegelést feltételez.
Nagy Anita álláspontja szerint „tény, hogy a mesterséges intelligencia alkalmazható az igazságszolgáltatás egyes területein, segítségével időt nyerhetünk bizonyos – kevésbé érdekes, inkább technikai jellegű – munkamozzanatok automatizálásával (pl. nyomtatványok kitöltése vagy bírósági határozatok kigyűjtése). Ám jelen pillanatban kijelenthetjük, hogy a mesterséges intelligencia nem alkalmas jogi kérdésekben döntések meghozatalára, ezért egyhamar nem fogja helyettesíteni az ügyvédeket és a bírákat. Ennek oka pedig alapvetően abban keresendő, hogy az ítélkezést nem lehet technológiának tekinteni. A bírói ítélkezés magában hordoz egy értékelő elemet is, mely középpontba helyezi a bíró személyét; a bíróban meghatározó pszichológiai folyamatok zajlanak: a tényállással összefüggésben a megismerés, a bizonyítékok mérlegelése körében pedig a meggyőzés kialakulása. A bíró eljárása alkotó jellegű művelet, bevett tradicionális módszerekkel, de büntető ügyvitel szempontjából mindenképpen kell és szükséges is a fejlődés.”[13] A tanulmány 2022-ben jelent meg, a mesterséges intelligencia fejlődése azóta korábban előre nem látható ívet futott be, ma már az algoritmusok képesek döntések meghozatalára, az emberrel lényegében azonos színvonalon. Képesek bizonyítékokat értékelni, döntést hozni. A kérdés ma már csak az, hogy tudja-e modellezni az emberi döntéshozatalt a mesterséges intelligencia, képes-e mérlegelni, empatikus módon kialakítva a „gépi bírói meggyőződést”, vagyis a bevitt adatok alapján képes-e önállóan megírni egy ítéletet. Egy másik, szintén 2022-ben megjelent tanulmány még szkeptikus volt a mesterséges intelligencia technológiai képességeit illetően: „A mesterséges intelligencia által támogatott döntéshozatal jogalkalmazás során történő használata mindazonáltal több kérdést is felvet, ami mellett nem szabad elmennünk. Az első és legfontosabb kérdés nem is jogi, hanem technológiai: vajon képes-e a tudomány jelen állása szerint a mesterséges intelligencia arra, hogy megbízható módon, szakszerűen, pontosan és ellenőrizhetően adjon javaslatokat, vagy hozzon döntéseket jogi kérdésekben? Erre egyértelmű válasz: nem, csak néhány támpontot tudunk adni, ami segíthet a megbízható technológiai keretek kialakításában. A mesterséges intelligencia egy informatikai elv, technológiai megoldás, ami számos előnyös tulajdonsággal bír, azonban jogilag releváns kérdések kapcsán a használata azt igényli, hogy a felhasználó tisztában legyen a technológia működési elveivel és korlátaival is. Így tudja csak értelmezni a kapott eredményt, és dönteni a felhasználhatósága felől a konkrét, alapul fekvő ügyben. A legfontosabb ilyen technológiai ismeret a gépi döntéshozatal mögött álló mechanizmus, illetve a gépi tanulás modellje. A mesterséges intelligencia egyik legfontosabb tulajdonsága az, hogy nagy adatmennyiség feldolgozásával, annak elemzésével képes a rendelkezésre álló információkból az előzetes elvárásoknak leginkább megfelelő döntés meghozatalára. Így például egy mesterségesintelligencia-algoritmusnak azt a feladatot adhatjuk, hogy próbálja meg a lehető legpontosabb közelítést adni arra a kérdésre, hogy egy ingatlant milyen áron lehet majd értékesíteni. Az algoritmust sokezer korábbi, megvalósult tranzakció adataival tanítjuk be, majd az éles használat során azt várjuk el, hogy az ingatlan alapterülete, fekvése, építési ideje és más adatok ismeretében töltse ki a képlet ismeretlen változójának, a vételárnak a helyét. Minél több korábbi adásvétel adata áll a rendelkezésére, és minél nagyobb változatosságot mutatnak a bemeneti változók, annál pontosabb eredményt várhatunk a rendszertől. Ezzel ellentétben, ha egy olyan ingatlan adatait tápláljuk a rendszerbe, amihez hasonló nem szerepelt a tanuló adatbázisban, akkor a gépi döntéshozatal rendkívül bizonytalanná válik, és „kockázatkerülő” módon egy olyan, biztosnak tűnő választ ad, ami a legkisebb mértékű negatív visszajelzés kockázatát hordozza.”[14] Nem tagadva ezen megállapítások érvényességét, a technológiai fejlődés az idézett tanulmány megjelenése óta eltelt három évben olyan jelentős volt, hogy ma már nem állítható teljes bizonyossággal, hogy egy algoritmus nem képes egy egyszerűbb megítélésű ügyben a meglévő bizonyítékok alapján kérdések feltevésével és elemzéssel a történeti tényállás megállapítására, ezután a betáplált jogi adatbázis (jogszabályok és bírói gyakorlat) alapján a cselekmény pontos minősítésére, és (szintén betanított korábbi több ezer ügyből levont következtetéssel) a büntetés kiszabására. 2022 után rohamos fejlődésnek indult a mesterséges intelligencia, és a jogi döntéstámogató rendszerek további fejlődése azt is magával hozhatja, hogy újabb három év múlva a „robotbíró” képes lesz önállóan megírni egy büntető ügyben egy ítéletet. Ráadásul vegyük figyelembe azt is, hogy a fejlődés nem lineáris, hanem gyorsuló ütemű: ami az elmúlt három évben történt, annál várhatóan nagyságrendekkel nagyobb hatékonyság javulás következik be újabb három éven belül. Kérdés azonban az, hogy képes lesz-e a jövőben bármikor emberi döntéshozatal szintű vagy akár annál fejlettebb bírói jogalkalmazói munkára egy program, emberi beavatkozás nélkül. Ennek egyik kulcstényezője talán az empátia kérdésköre, ami kifejezetten emberi tulajdonság.
4. Az empátia kérdése
Jelen tanulmány központi kérdése, hogy a mesterséges intelligencia fokozott térhódításával kiváltható lesz-e a bírói munka teljes egészében a magyar büntetőeljárásban a „robotbíró” által. Büntetőjogi, alkotmányjogi és technikai szempontból milyen szintig kaphat teret a bírói döntéshozatal algoritmikus támogatása? „A bírói ítélkezés magában hordoz egy értékelő elemet is, mely középpontba helyezi a bíró személyét; a bíróban meghatározó pszichológiai folyamatok zajlanak.”[15] A jogászi és azon belül a bírói hivatás jövőjéről való diskurzusok során tapasztalatom szerint „vízválasztóként” leginkább az empátia fogalma merül fel. Az empátia a büntetőbírói hivatásban funkcionális követelmény. „teljesértékű” empátiára pedig csak az ember képes. Ezért legtöbben akként vélekednek, hogy az empátia az, amivel egy „robotbíró” soha nem fog rendelkezni a szó valósnak vélt értelmében és ezáltal mint algoritmus alkalmatlan lesz a bírói döntéshozatalra.
Felmerül azonban a kérdés, hogy – a mesterséges intelligencia szinte robbanásszerű fejlődési/ fejlesztési üteme mellett- valóban ilyen „egyszerű” lenne ez? Jelen jogi garanciák mellett-természetesen amennyiben azok nem változnak- a legvalószínűbb, hogy a jövő MI-rendszerei egyre jobban eljátszhatják az empatikus bíró szerepét, de e szimuláció alkotmányjogi szempontból sem tekinthető egyenértékűnek az emberi lelkiismerettel. Azonban a mesterséges intelligencia jogi hátterének megfelelő szabályozása esetén – amennyiben az alkotmányjogi szempontból is kivitelezhető- álláspontom szerint nem lehet kizárni annak esélyét, hogy a „robotbíró” empátia-szimulációja arra a szintre tud jutni, ami a bírói döntéshozatalban elegendőnek tekinthető az emberi tényezővel szemben.
Jelen tanulmány fő kérdése kapcsán nagyon fontosnak tartom részletesebben megvizsgálni az empátia fogalmát.
Általános megfogalmazásban az empátia beleérző képességet, a másik ember, élőlény lelkiállapotának megértését jelenti. Az ember az empátia képességének birtokában alkalmas arra, hogy a másik lelkiállapotába helyezze magát, mintha ő maga élné át az érzést, illetve eseményt. Személyfüggő, hogy valaki milyen empátiás készségekkel bír, ugyanakkor az empátiás képesség fejleszthető, az empátia tanulható. Ennek nyomán megállapítható az is, ha nincs két ugyanolyan ember, mindenkinél eltérő mértékben és módon van jelen az empátia. Sőt, talán az is kijelenthető, hogy ugyan objektív mércével nézve megfelelő, társadalmi normarendszer szerint és pszichológiai, pszichiátriai szempontból is „átlagos”, illetve „fejlett” empatikus képességekkel rendelkező emberek ugyanarra a körülményre, eseményre hasonlóan reagálnak, de attól mégsem teljesen pontosan ugyanúgy. Hiszen a társadalmilag elfogadott normák határán belül maradva is mindenkinek más a lelkivilága, neveltetése, transzgenerációs mintái és „triggerpontjai”. A mindennapi élete során is mindenkit érinek jó és rossz ingerek egyaránt. Ha ezt a gondolatot kivetítjük arra vonatkozóan, hogy a bírói döntéshozatal során a bíró is ember, aki ugyan minden körülmények között objektivitásra és igazságosságra törekszik, felmerül a kérdés, vajon mennyivel objektívebb általános érvénnyel az empátia gyakorlása során, mint egy algoritmus, amennyiben feltételezzük, hogy a mesterséges intelligencia rendelkezni fog olyan képességgel, ami a bírói hivatás gyakorlásához elegendő. Viszont mi nevezhető „elegendőnek” pusztán gyakorlati szempontból, ha a feltevésnél figyelem kívül hagyjuk a jogi felelősség és alkotmányjogi garanciák szabályozásának kérdését?
A kérdés megválaszolásához szükséges az empátia fogalmának részletezése. „Az empátia – mint a másik ember lelkiállapotának megértésére irányuló képesség – elengedhetetlen annak vizsgálatához, hogy a bíró döntéseit a puszta formalizmuson túl miként alakítja az emberi tényező.”[16] Buda Béla „Az empátia-a beleélés lélektana” című könyvében kifejti,[17] hogy:
„Általánosan meghatározva, az empátia a személyiség olyan képessége, amelynek segítségével a másik emberrel való közvetlen kommunikációs kapcsolat során bele tudja élni magát a másik lelkiállapotába. Ennek a beleélésnek nyomán meg tud érezni és érteni a másikban olyan emóciókat indítékokat és törekvéseket, amelyeket az szavakban direkt módon nem fejez ki, és amelyek a társas érintkezés szituációjából nem következnek törvényszerűen. A megérzés és megértés fő eszköze az, hogy az empátia révén a saját személyiségben felidéződnek a másik érzelmei és különféle feszültségei. Ezt úgy is ki lehet fejezni, hogy a személyiség beleéli, mintegy a másikba vetíti önmagát.”
Fontosnak tartom hangsúlyozni azonban, hogy az élmény tudatos feldolgozása és a megértett vagy megérteni vélt összefüggések önmagunk számára való értelmezése elengedhetetlen az empátia megvalósulásához.
Bíróként is felmerülhet azonban az értelmezés során való objektivitásra törekvésnél, mennyiben tud valaki nem csak önmagához, a szubjektív valóságához mérten, hanem általános érvénnyel is tökéletesen pontosan mindig ugyanolyan objektív lenni. Az objektivitáshoz talán egyik legnagyobb iránytűként a bírói mérlegelés során a kognitív empátia szolgál, ami ebben az esetben a vádlott és a sértett élethelyzetének, motivációinak megértését jelenti leginkább. „Az igazságszolgáltatásban az empátia nem pusztán érzelmi azonosulást jelent, hanem a felek élethelyzetének, motivációinak olyan megértését, amely nélkül a jogszabályok alkalmazása elszakadna a valóságtól.”[18]
Ma már általánosan elfogadott tény, hogy az empátiának több fajtáját különböztetjük meg:
A legáltalánosabb besorolása szerint az empátia két fő típusa közé tartozik a kognitív és az affektív empátia. A kognitív empátia mások gondolatainak intellektuális megértését, míg az affektív empátia az együttérzést, mások érzéseinek valós érzelmi átélését jelenti.
A kognitív empátia nem jelent érzelmi azonosulást mások helyzetével, gondolataival és érzéseivel, hanem a gondolkodási folyamatok felismerését jelenti. A kognitív empátia racionális megértést jelent, az affektív empátia pedig inkább érzelmi választ. Természetesen a kettő együttes megvalósulása esetén jön létre a teljes és valódi empátiás élmény, azonban felmerül a kérdés, hogy a bíró döntéshozatal megfelelő gyakorlásához szükség van-e affektív empátiára, illetve a jelenlegi bírói gyakorlat során ez mennyire követelmény.
Álláspontom szerint a racionális és objektív bírói döntéshozatalhoz éppen a kognitív empátia szükséges és akár elegendő, hiszen a bíró feladata az összefüggések, a motiváció, a gondolkodási folyamatok felismerése és a saját, szubjektív megélések és érzelmek kizárása.
Ennek nyomán ha az empátia fejleszthető, így a kognitív empátia is fejleszthető. Ha feltételezzük, hogy a kognitív empátia elegendő a megfelelő bírói mérlegeléshez és ezáltal döntéshozatalhoz és a kognitív empátiára szorítkozás elősegíti az objektív bírói döntésmechanizmust, akkor alappal merül fel a következő kérdés:
Ha feltételezzük, hogy a mesterséges intelligencia robbanásszerű fejlődésének és térhódításának köszönhetően a „robotbíró” alkalmas lesz a kognitív empátia „szinte ember szintű” szimulációjára, az pusztán büntetőeljárási- és nem egyéb jogi szabályozási- szempontból mennyiben tekinthető kevésbé hatékonynak, mint a jelenlegi döntéshozatali rendszer?
Az is érdekes kérdésként merülhet fel azonban, hogy az objektivitás, mint a függetlenség és pártatlanság alappillére milyen mértékben kívánja meg a valós gyakorlatban az empátiát. A bizonyítékok szabad mérlegelése és ennek nyomán a bírói meggyőződés kialakítása kétségtelenül az empátia mentén mozgó kategóriák. Azonban az is tény, hogy egy objektív és a magyar jogot megfelelően alkalmazó bíró akkor jár el helyesen, ha a belső, empátiája mentén kialakuló meggyőződésén, illetve a megérzésén túlmutatva, a bizonyítékokra támaszkodva hoz döntést. Természetesen a megérzés, a belső meggyőződés iránytűként szolgálhat a bíró számára abban a vonatkozásban, milyen irányú kérdéseket intézzen az eljárás résztvevőihez, a bizonyítékokat hogyan mérlegelje, értékelje. Azonban pusztán a megérzés és az empátia az objektivitás követelménye mellett nem írhatja felül a büntetőeljárás szabályait, a vonatkozó jogi normákat. Például ha egy bíró meg van győződve a terhelt bűnösségéről, akkor is fel kell mentenie, ha nincs elegendő bizonyíték a bűnösségére vonatkozóan. Ennek nyomán felmerül a kérdés, milyen mértékű és jellegű empátia szükséges az objektív bírói döntéshozatalhoz és ezt mennyiben tudja helyettesíteni egy algoritmus, illetve szükség esetén mennyiben tudja szimulálni a szükséges empátiás képességet és az adott esetben miért tekintendő kevésbé hatékonynak?
Álláspontom szerint a jövőben jogrendszertől is függ majd, mennyiben lesz alkalmas a „robotbíró” a teljesértékű döntéshozatalra. A magyar büntetőeljárás helyzetének vizsgálatán túl érdekes kérdéseket vethet fel az angolszász jogrendszerek helyzete a mesterséges intelligencia térhódítása kapcsán. Hiszen ott az esküdtszék részéről talán még nagyobb szerepet kap az empátia. Álláspontom szerint az empátiával mint emberhez kötött tényezővel való „ellenérv” abban a vonatkozásban, mennyiben léphet a mesterséges intelligencia az ember helyébe az igazságszolgáltatásban, az angolszász jogrendszerben sokkal erősebben definiálható.
Természetesen a kérdés jelenleg elméleti[19], hiszen a jelenlegi MI-rendszerek:
- nem rendelkeznek tudattal vagy saját élménnyel;
- nem képesek morális felelősségvállalásra;
- nem érzik a döntések súlyát.
Amit tenni tudnak algoritmusként: nyelvi minták, arckifejezések, hangszín alapján valószínűségi becslést adnak a másik érzelmi állapotára, és ehhez illeszkedő választ generálnak.
5. A magyar jogi környezet és az AI Act korlátai
Az AI Act a bíróságok és az igazságszolgáltatási döntéshozatal területén alkalmazott MI-rendszereket magas kockázatú kategóriába sorolja, feltétele:
- folyamatos emberi felügyelet,
- átláthatóság és dokumentálhatóság,
- megbízható adatminőség,
- hatékony jogorvoslat.
„Az olyan MI-rendszerek, amelyeket a természetes személyek jogainak és kötelezettségeinek meghatározása során alkalmaznak, csak akkor fogadhatók el, ha biztosított az emberi felülvizsgálat lehetősége.”[20] A magyar jog jelenleg nem ismeri az autonóm „robotbíró” intézményét; a Be. a bíró személyes bizonyítékértékelését és mérlegelését írja elő. A 2011. évi CLXI törvény és az Alaptörvény alapján az igazságszolgáltatási funkció emberi bíróhoz kötött.
6. Kockázatok és garanciák[21]
Az algoritmikus bírói döntéshozatal fő kockázatai[22]:
- Átláthatatlanság: az indokolási kötelezettség kiüresedhet.
- Diszkrimináció: az előítéletes múltbeli adatokból tanuló modellek reprodukálják és felerősíthetik a strukturális egyenlőtlenségeket (COMPAS-vita).
- Felelősség elmosódása: ki felel a hibás algoritmikus döntésért?
- Legitimitásvesztés: a „gépek ítélnek felettem” élménye aláássa a bíróságokba vetett bizalmat.
- Adatvédelmi kockázatok: érzékeny adatok tömeges felhasználása magas jogsértési potenciállal jár.
Garanciák lehetnek:
- kötelező emberi ellenőrzés,
- algoritmusok auditálhatósága, valamint a független szakmai kontroll,
- a felek számára megismerhető, vitatható algoritmikus logika,
- torzítások rendszeres vizsgálata és korrekciója,
- jogszabályi tilalom arra, hogy MI önállóan hozzon súlyos szabadságelvonással járó döntést.
7. Érvek a részleges automatizáció mellett
Véleményem szerint a kockázatok nem jelentik azt, hogy az MI használatától mereven el kell zárkózni: jó szabályozással és világos korlátokkal az MI:
- csökkentheti a bírói leterheltséget;
- gyorsíthatja az eljárások befejezését (Art. 6 EJEE – ésszerű időn belüli befejezés);
- növelheti az ítélkezés kiszámíthatóságát;
- segíthet feltárni az eltérő gyakorlatokat, rejtett torzulásokat;
- erőforrást szabadíthat fel a komplex ügyek számára.
Bizonyos igazságossági komponensek – arányosság, egyenlő bánásmód, következetesség – a hazai szakirodalom szerint is formalizálhatók, és ebben az MI akár a jogbiztonságot is erősítheti, ha a bíró nem veszíti el mérlegelési szabadságát.
A következő évtized döntő kérdése nem az lesz, hogy „lesz-e robotbíró”, hanem az, hogy milyen feltételekkel engedjük be az MI-t a bírói döntéshozatalba. Egy felelős magyar modell[23] elemei lehetnek:
Pilot projektek, sandbox-környezet[24]: szűk ügycsoportokra (pl. egyszerű vagyon elleni bűncselekmények, automatizált pénzbírságok, európai elfogatóparancs formai vizsgálata)
Transzparens algoritmusok: a bíróságok által használt MI-rendszerek működésének részletes dokumentálása; legalább alapvető szinten megismerhető legyen, milyen szempontok alapján jut a javaslatokra.
Kötelező bírói és ügyészi képzés: MI-jogi, technológiai és etikai modulok; a döntéshozók ne „automatikusan higgyenek” a gépnek, hanem tudjanak kérdezni és ellentmondani.
Etikai irányelvek: a bírói etikai kódex kiegészítése az MI-használat szabályaival (például tilos kizárólag MI-ajánlásra alapítani szabadságelvonással járó döntést; a bíró köteles saját mérlegelését kifejteni Mi használata nélkül).
Független felügyeleti testület felállítása: jogászokból, informatikusokból, kriminológusokból, adatvédelmi szakértőkből álló szerv, amely auditálja az alkalmazott rendszereket, értékeli azok hatását.
Egyértelmű jogszabályok: a Be. és az igazságügyi szervezeti szabályok módosítása annak rögzítésére, hogy milyen területeken alkalmazható MI mint döntéstámogató eszköz, milyen felügyeleti szint szükséges, mely döntések maradnak feltétlenül emberi bírói kompetenciában.
A bírói döntéshozatali munka támogatása, egyfajta javaslattevő rendszer kialakításával hasznos lehet az ítélkezés színvonalának az emelése céljából: „A javaslattevő rendszert úgy kell kialakítani, hogy a bíró egyfajta szakértői véleményként tekinthessen rá, vagyis a javaslatoknak indokolást, pontos levezetést is tartalmaznia kell, ami alapján az emberi döntéshozó meg tudja ítélni, hogy a gép jól ismerte-e fel a hasonlóságot a tárgyalt ügy és a korábbi ítéletek tényállása között. Ennek ismeretében dönthet a bíró arról, hogy elfogadja-e a mesterséges intelligencia javaslatait, vagy pedig felülbírálja azokat. A mesterséges intelligencia kapcsán sokat hangoztatott „feketedoboz-effektust” ezáltal ki lehet küszöbölni, és az automatizációs elfogultság hatásai is csökkenthetők. Fontos, hogy ne vegyük ki a döntés és ellenőrzés lehetőségét az emberi aktor, így az ítélkező bíró kezéből, hiszen az ő intuíciója, jogérzéke, a rendszerben való gondolkodás képessége és kreatív jogértelmezése nélkülözhetetlen a nehéz ügyek megoldásához.”[25] Erre egyébként már találhatunk példát is. Malajziában 2022 óta a büntető ügyekben már használnak mesterséges intelligenciát döntéstámogatásra: „az Artificial Intelligence Sentencing System (AISS) igénybe vehető valamennyi bűncselekmény elkövetőjére kiszabható szankció kalkulálásakor, mindössze három év alatt tehát elérhető lehetőséggé vált a teljes büntető ügyszakban.”[26] Emellett „Argentínában a Prometea AI olyan intelligens program, amely ügyiratszám alapján készít határozat-tervezeteket, és korábbi precedensek alapján javaslatot is tud tenni a bírói ítéletre.”[27]
E lépések révén a magyar büntető igazságszolgáltatás nem elszenvedője, hanem tudatos formálója lehet az MI-integrációnak: a technológia a gyorsabb és következetesebb ítélkezést szolgálhatja, anélkül, hogy kiüresítené az emberi empátia és felelősség szerepét. „A mesterséges intelligencia rendszerek fejlesztése során is inkább arra kell törekedni, hogy az igazságszolgáltatás hatékonysága növelhető legyen, nem pedig az emberi tényező teljes kivezetésére.”[28]
8. Alkotmányjogi kérdések és következtetés
Több tanulmány is ilyen vagy hasonló jellegű aggályokat fogalmaz meg alkotmányjogi szempontból a mesterséges intelligencia által támogatott automatizált döntésekkel szemben: „Világos különbséget kell tenni az MI-vel támogatott döntéshozatal és a teljesen automatizált döntések között; utóbbi esetben a döntés felelőse elmosódik, ami összeegyeztethetetlen az alapjog-védelemmel.”[29]
Álláspontom szerint a jövőben a bírói munka teljes automatizálása nem zárható ki, ennek azonban meg kell teremteni az alkotmányos és egyéb feltételeit.
Tanulmányom fő következtetése az lehet, hogy az empátia kérdésnek alakulása álláspontom szerint talán a fő alapköve annak, hogy a bírói döntéshozatal emberi kézben marad-e, azonban nem elhanyagolható annak vizsgálata sem, hogy az alkotmányjogi garanciák miként tudnak érvényesülni egy esetleges új gyakorlati és jogi környezetben, valamint ezek jogi szabályozása megoldható-e mindent átfogó jelleggel. Ahhoz, hogy alkotmányos szempontból is megfelelő legyen egy „robotbíró” bevezetése, az alábbi kritériumoknak való megfelelés szükséges:
- jogállamiság követelményének való megfelelés: melynek elengedhetetlen eleme az átláthatóság, felülvizsgálhatóság és a felelősség kérdésének megfelelő jogi háttérrel és jogszabályi garanciákkal való rendezése
- emberi méltóság és tisztességes eljárás követelményének való megfelelés: megengedhető-, hogy az állambüntetőhatalmát gyakorló döntés érdemi részét egy algoritmus hozza az ember helyett.
Függetlenül attól, hogy a bírói döntést ember vagy „robotbíró” hozta, elengedhetetlen, hogy a döntést a közösség saját normarendszere részeként fogadja el össztársadalmi szinten. Álláspontom szerint mivel a mesterséges intelligencia robbanásszerűen kezd a mindennapok részévé válni, a közvélekedés és ezáltal a közvélemény is valamilyen szinten alakulni fog a fent hivatkozott kérdés kapcsán.
A mesterséges intelligencia az életünk része, függetlenül attól, hogy ezt a tényt örömmel fogadjuk vagy tiltakozunk ellene és megpróbáljuk kizárni. Véleményem szerint sok egyéb, akár morális és emberiességi kérdést is fel fog vetni a jövőben a munkahelyek esetleges veszélyeztetésének kérdésén túl, így magam is bátortalanul fogadom az MI térhódítását. Azonban általános érvénnyel kijelenthető, hogy az életben a „túlélés” legfontosabb eszköze a változásokhoz való alkalmazkodási képesség. Amennyiben ezt az alkalmazkodást megfontoltan, tudatosan tesszük és a mesterséges intelligenciát megfelelően – és talán nem kizárólagosan, hanem fenntartásokkal, részfeladatokra-használjuk, a megfelelő terhet veszi le a vállunkról, hogy az érdemi feladatokra tudjunk fókuszálni, akár a bírói döntéshozatal területén is.
Az, hogy a mesterséges intelligencia fejlődésével a „robotbíró” teljes mértékben alkalmas lesz-e a bírói döntéshozatali folyamatok megvalósítására és ezáltal az emberi tényező kiváltására, véleményem szerint az alábbiak függvénye:
- megfelelő technikai háttér
- diszkriminációs faktorok kiszűrése az algoritmusból[30]
- megfelelő felülvizsgálat, átláthatóság
- felelősség jogi hátterének megfelelő biztosítása
- alkotmányjogi garanciák
- a társadalom viszonyulása a kérdéshez.
Természetesen az összes feltétel esetleges fennállása esetén szintén felmerül az is, hogy a költségvetéscsökkentő faktorokon túl mennyiben „jó” kizárni az emberi tényezőt a mindennapokból és akár a bírói döntéshozatalból. Előnyös-e az hosszútávon, hogy ami „robottal” helyettesíthető, azt helyettesítjük is? Hiszen ha a mesterséges intelligencia további fejlesztésével fennáll a veszélye, hogy a mindennapokból is eltűnik egy alapvető tényező: az ember. Ezért célszerű elfogadni a mesterséges intelligencia létjogosultságát az ügyteher csökkentése értekében, de már most részterületekre korlátozni azt.
Dr. Gál-Bognár Beáta
ügyvéd
[1] Nagy Adrienn: A mesterséges intelligencia és a digitalizáció jelentősége és lehetséges hasznosítási területei az igazságszolgáltatásban magyar szempontból, Publicationes Universitatis Miskolcinensis Sectio Juridica et Politica, 2020, 38(1), 179–195. o.
[2] Nyilas A.: A mesterséges intelligencia hatása a bírói döntéshozatalra. Acta Universitatis Szegediensis: Forum, 2021/3, 311. o.
[3] https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (2025. november 18.)
[4] Coglianese, C. – Lehr, D.: Regulating by Robot: Administrative Decision Making in the Machine-Learning Era. Georgetown Law Journal, 2017, 105, 1156. o.
[5] https://nice.hu/generativ-mi/nem-igazan-erti-a-generativ-mesterseges-intelligencia-a-vilagot (2025. november 15.)
[6] https://www.portfolio.hu/global/20250929/botrany-a-birosagokon-mesterseges-intelligencia-gyartott-hamis-jogi-hivatkozasokat-783864 (2025. november 15.)
[7] https://arsboni.hu/digitalizacio-az-esztorszagi-birosagokon-legenda-es-valosag/ (2025.november 15.)
[8] https://www.ekei.ee/en/news/estonia-does-not-develop-ai-judge (2025. november 22.)
[9] Vasdani, T.: Robot justice: China’s use of Internet courts. LexisNexis, 2020. (https://www.lexisnexis.ca/en-ca/ihc/2020-02/robot-justice-chinas-use-of-internet-courts.page – 2025. november 20.)
[10] Fabri, M.: From Court Automation to e-Justice and Beyond in Europe. International Journal for Court Administration, 2024.
[11] Vö. Diósi Szabolcs: Mesterséges intelligencia, szintetikus valóság. Az MI és GenMI rendszerekkel kapcsolatos globális kihívások és európai szabályozási stratégiák Doktori (PhD) értekezés (https://ajk.pte.hu/sites/ajk.pte.hu/files/file/doktori-iskola/diosi-szabolcs/diosi-szabolcs-muhelyvita-ertekezes.pdf)
[12] Vö. Elek Balázs – Háger Tamás: A megalapozott tényállás és az indokolási kötelezettség összefüggései (Büntetőjogi Szemle, 2023/1.)
[13] Nagy Anita: Mesterséges intelligencia szerepe a bírósági büntető ügyvitelben (Büntetőjogi Szemle, 2022/1. szám, 69. o.)
[14] G. Karácsony Gergely – Glavanits Judit: A mesterséges intelligencia által támogatott jogtalálás lehetőségei a bírósági gyakorlatban (JÁP, 2022., 2. Különszám, 135-136. o.)
[15] Nagy Adrienn: A mesterséges intelligencia és a digitalizáció jelentősége és lehetséges hasznosítási területei az igazságszolgáltatásban magyar szempontból, Publicationes Universitatis Miskolcinensis Sectio Juridica et Politica, 2020, 38(1), 179–195. o.
[16] Fabian Winter et al.: “Heartless Rulez!” Mechanical objectivity, empathic understanding and the sociology of judging, Frontiers in Sociology, 2020, 5, 1–12. o.
[17] Buda Béla: Az empátia – a beleélés lélektana Gondolat Kiadó Budapest, 1978. 55. o.
[18] Fabian Winter et al.: “Heartless Rulez!” Mechanical objectivity, empathic understanding and the sociology of judging, Frontiers in Sociology, 2020, 5, 1–12. o.
[19] Vö. Bernáth László: Miért nem rendelkezik felelősséggel a mesterséges intelligencia? (=Magyar Tudomány, 186/8 (2025), 1574–1581.)
[20] Európai Parlament és Tanács: Artificial Intelligence Act, 2024/1689/EU rendelet, 6. cikk, 1–2. bek.
[21] Vö. Németh Zoltán: A mesterséges intelligencia hatása az igazságszolgáltatásra. Fontes Iuris, 2024/3–4. 37-39. o.
[22] https://jog.tk.elte.hu/blog/2021/05/kodolt-egyenlotlensegek (2025. november 10.)
[23] OECD (2025): AI in justice administration and access to justice: Governing with AI — jelentés 2025. szeptember felhasználásával https://www.oecd.org/en/publications/governing-with-artificial-intelligence_795de142-en.html (2025. november 12.) valamint https://cdn.kormany.hu/uploads/document/c/c0/c0d/c0dfdbd37cfa520ae37361a168d244c85e7295af.pdf (2025. november 12.)
[24] https://hungarian.opswat.com/blog/what-is-sandboxing (2025. november 21.)
[25] G. Karácsony Gergely – Glavanits Judit: A mesterséges intelligencia által támogatott jogtalálás lehetőségei a bírósági gyakorlatban (JÁP, 2022., 2. Különszám, 138. o.)
[26] https://arsboni.hu/egy-dinamikus-pelda-mesterseges-intelligencia-malajzia-birosagain/ (2025. november 15.)
[27] Hudák Vivien: Az MI jövője a bírói döntéshozatal keretében, Miskolci Jogtudó, 2022/3. „Digitalizáció, mesterséges intelligencia és jog” különszám, 9–18. o., 14. o.
[28] Nagy Adrienn: A mesterséges intelligencia és a digitalizáció jelentősége és lehetséges hasznosítási területei az igazságszolgáltatásban magyar szempontból, Publicationes Universitatis Miskolcinensis Sectio Juridica et Politica, 2020, 38(1), 179–195. o.
[29] Giovana Lopes: Artificial Intelligence and Judicial Decision-Making: Evaluating the Role of AI in Debiasing, TATuP – Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis, 2024, 33(1), 28–33. o., 30–32. o.
[30] Vö. Mezei Kitti: Diszkrimináció az algoritmusok korában (Magyar Jog, 2022. 6. szám, 331-338. o.)










