Ahhoz, hogy egy napon a mesterséges intelligencia jelentő segítséget jelentsen a bírói döntések meghozatalában, a bíróknak a folyamat kialakításának minden lépésnél ott kell lenniük, hogy biztosítsák, hogy az igazságszolgáltatás egyetlen lényeges elve se sérüljön.
Ennek megfelelően a cikk egyik fő kérdése, hogy a mesterséges intelligencia fejlesztésének és az igazságügyi döntéshozatali folyamatokban való alkalmazásának milyen technologiával fel nem oldható korlátjai vannak, amelyek eltérő jogrendszertől függetlenül minden államban relevánsak lesz.
Az cikk kiindulópontja az Európai Unió Bírósága által 2023-ban kiadott Artificial Intelligence Strategy, melynek egyik kitűzött célja a tagállami bíróságoknak való iránymutatás és uniós harmonizáció elősegítése volt. A kérdést röviden körüljárja Brkan bírónő, az Európai Unió Bíróságának bírájának szintén 2023-as Artificial intelligence and Judicial Decision-Making c. cikke és részletesebben tárgyalja Shaun 2021-es Judicial decision-making and explainable artificial intelligence: reckoning from first principles c. kiváló tanulmánya is, amelyekből több fontos gondolatot is megjelenítek ebben a cikkben.
A mesterséges intelligecia alkalmazásáának első fontos korlátja a jogszabályok és joggyakorlat értelmezésnél merül fel komplexebb jogi problémák esetében. A jogi fogalmak nyitott végűek, ezért gyakran értelmezésre szorulnak. Néha egy terület szabályozása olyan joghézagokat tartalmaz, amelyeket csak a meglévő szabályozás teleologikus értelmezésével lehet kitölteni.
Az értelmezés feladatát Brkan bírónő véleménye szerint csak emberi bíró végezheti. Ennek oka, hogy a nyitott fogalmak értelmezésénél és a bírói mérlegelésnél nem lehetséges a különböző és hasonló eseteket összegyűjtő adatbázison alapuló megoldás, amikor új, korábban nem létező jogi kérdéseket kell megválaszolni. Ilyen esetekben ezért nehezen elképzelhető, hogy a döntéseket mesterséges intelligencia önállóan hozza meg.
Az M.I. bármely alkalmazása szükségszerűen kötődik az adatokhoz, amelyekkel az algoritmust kiképezték. Ha ez kizárólag rendszeren belüli összefüggések megállapítására irányul, akkor az, Shaun álláspontja szerint, szöges ellentétben áll a bírói döntéshozatallal, amely nem csak a konkrét törvények és tények megértését igényli, hanem annak a jogpolitikai kontextusnak a nagyobb mértékű megértését is, amelyben a törvények születnek és az ügyek eldöntése történik.
A már sokszor tárgyalt fekete doboz probléma arra mutat rá, hogy bár az algoritmusba betáplált adatokat megismerhetjük, a válaszhoz elvezető út ismeretlen marad, hiszen a döntés nem egy világosan levezetett jogi érvelés után születik meg.
Shaun megállapítása szerint, e korlát jelentősége az adott kontextusban olyan tényezőktől függ, mint például, a mesterséges intelligencia döntésének fontossága, a döntés önálló, vagyis az érvelési láncolattól független legitimitása, valamint a mesterséges intelligencia esetleges elfogultságai vagy preferenciái, amelyekre programozták tudatosan vagy akaratlanul.
Míg a fekete doboz probléma adta hátrányok viszonylag triviális ügyekben jelentéktelen lehetnek, az eredmény levezetésének megértésének hiánya elfogadhatatlan minden olyan alkalmazás esetében, ahol a döntéshozatali folyamatnak jogi következményei vannak, amennyiben ez a folyamat érinti az egyének jogait. Ha nem tudjuk, hogy az M.I. hogyan jut el a döntésekhez, az általa hozott döntések joggal nevezhetők önkényesnek a felek részéről, aláásva ezzel legitimitását. Hiszen a jogi eredmények legitimitása az említett eredmény levezetéséhez használt érvelési folyamat érvényességéből ered - ha az érvelési folyamat nem magyarázható, az eredmény sem védhető meg. A jogszerű eljárás fontosságát a jogi döntéshozatalban a jogrendszerünket alátámasztó természetes igazságosságból és méltányosságból eredő különböző alapelvei, és kisebb mértékben a bírósági eljárás szabályai mutatják. Ezek a bírósági eljárásokat szabályozzák annak érdekében, hogy mindkét fél tisztességes és igazságos bírósági tárgyalásokat vehessen igénybe.
Az egyik további tényező, amely korlátozza a mesterséges intelligencia alkalmazását az igazságügyi döntéshozatalban,Brkan bírónő és Shaun szerint is az, hogy a mesterséges intelligencia jelenleg nem képes megérteni az emberi nyelv jelentését. A jelenlegi NLP-technikák csak az emberi nyelv mintapéldányának reprodukálására korlátozódnak nagy mennyiségű szöveg statisztikai elemzésével.
A megértés hiányát bizonyítja a Tay, a Microsoft kísérleti Twitter chatbotjának esete, amelyet a Twitteren néhány nap, ha nem órán belül rasszista gyűlöletbeszédet terjesztő trollok megrontottak, és a Microsoftot a Tay eltávolítására kényszerítették. A Tay esete tanulságos, mert rávilágít a mesterséges intelligencia számos buktatójára: a "szemét be, szemét ki" elvére, amikor a rossz adatok megrontják az eredményeket, a mesterséges intelligencia folyamatainak folyamatos felügyeletére a korrupció megelőzése érdekében, valamint arra, hogy a mesterséges intelligenciának nincs semmiféle erkölcsi iránytűje vagy útmutatása.
Végül pedig, a fentiekből is következően bármely M.I., amely kizárólag a hozzá táplált adatokból él, teljesen képtelen arra, hogy bármilyen olyan anyagot vagy információt megismerjen, amely nem szerepel az adatokban. Az M.I. rendszereket ezért kifejezetten úgy kell programozni, hogy ad hoc alapon ismerjék meg a rendszeren kívüli szempontokat. Bár nem minden esetben van szükség külső információk megismerésére, a bírák nem vákuumban ítélkeznek, és nehéz előre meghatározni, hogy szükség van-e külső információra ahhoz, hogy egy adott bizonyíték vagy jogi érvelés teljes mértékben értelmet nyerjen, vagy sem.
Ráadásul ez azt is jelenti, hogy amikor a jogszabályok frissülnek vagy változnak, a régebbi ügyeken kiképzett mesterséges intelligencia által kimenő eredmények automatikusan legalábbis gyanússá válnak, ha nem irrelevánssá.
Összegezve tehát a fent ismertetett technológiai korlátok miatt az algoritmus korlátozottan lehet csak képes a komplex és eddig nem minősített új elemeket tartalmazó esetek beazonosítására, így az emberi ellenőrzés nélkülözhetetlen a ténybeli vitát tartalmazó ügyekben.