„Az adat az új olaj” – vetette fel 2006-ban Clive Humby brit matematikus; sokak szerint még értékesebb is annál. A szerző eredetileg arra gondolt, hogy – a kőolajhoz hasonlóan – az adatok sem nyers formájukban, hanem feldolgozva, átalakítva és adott célra használva képeznek potenciális értéket. Általában véve a gazdaságban megkülönböztethetünk kifelé terjeszkedő, új erőforrás bevonásával (extenzív) és belső, adott erőforrások felhasználási hatékonyságának javításával történő (intenzív) fejlődést. Az intenzív fejlődéshez – amely meglátásom szerint minden történelmi és gazdasági terjeszkedés alapja – elsősorban tudásra, információra van szükség. A tudás vonatkozhat az eszközökre, a technológiára (például aki tud programozni, gyorsabban kiszámol egy egyenletet, mint aki papíron vezeti le), vagy arra a célra, amelyre az adott eszköz szolgál (például milyen igényei vannak a fogyasztóknak). Ez utóbbinál értékelődnek fel a személyes adatok.

Először is: nem minden adat minősül személyes adatnak, csak amelyik alkalmas arra, hogy egy konkrét személyre visszavezessék, illetve azonosítsák rajta keresztül. Ez azért vet fel problémákat, mert az adatok természete kettős: egyrészt gazdasági értékkel bírnak, ezért tekinthetjük őket vagyonnak, illetve vagyoni jogosultságot keletkeztető elemeknek; másfelől viszont a ránk vonatkozó adatok a személyiségünk egyes részeinek kivetülései is, aki pedig birtokolja őket, az bizonyos hatalommal rendelkezik a személyiségünk, az életünk felett. Egyrészt az emberek egymás ismeretén, a másikról szerzett információn keresztül kapcsolódnak (szeretik vagy gyűlölik, tisztelik, vagy épp megvetik egymást). Másrészt a rólunk szerzett tudás alapján irányíthatóvá, befolyásolhatóvá, esetleg zsarolhatóvá válunk, ami idegen betörést jelent a magánéletünk egy részébe.

Habár ez bizonyos mértékig elkerülhetetlen egy emberi közösségben, az emberek mégis joggal igénylik a saját életük köré vont határokat, amely nemcsak a fizikai és társas környezetükre, de a róluk szóló információk feletti önrendelkezésre is kiterjed. Ezért a modern társadalmakban az önálló létünk, az emberi méltósággal rendelkező személyiség elhatárolásának egyik alapjaként tekintjük a magánélethez való jogot, ezen belül pedig a személyes adatok védelmét. A mindennapi életben az adatvédelmi szabályok biztosítják számunkra, hogy a szükséges keretek között magunk döntsük el, ki mit tudhat meg rólunk, és azt a tudást hogyan használhatja fel velünk szemben. Itt azonban van egy érdekkonfliktus: hiszen az adatok éppen azáltal nyerik el értéküket, hogy lehetővé teszik másoknak a személyiségünk egy részének (például a fogyasztási szokásainknak) megismerését, és azt személyre szabott kínálatukkal a gazdasági előnyükre fordítsák.

Ez lehet kölcsönösen előnyös, hiszen ha egy cég többet tud rólam, akkor számomra relevánsabb, kielégítőbb terméket vagy szolgáltatást tud kínálni – így működnek például az újabb webshopok vagy a közösségi média. De éppígy vezethet kizsákmányoláshoz is, ha például szándékosan egy kiszolgáltatott anyagi helyzetben lévő személynek kínálnak fel rossz feltételű hiteleket. Az adatvédelmi jog célja – amelyet az Európai Unióban (EU) elsősorban az általános adatvédelmi rendelet (GDPR) szabályoz –, hogy átláthatóvá és tisztességessé tegye az adatkezelést, konkrét célhoz és jogalapokhoz kötve azt, és biztosítsa az érintetteknek a megfelelő tájékoztatást és az adataik feletti rendelkezési jogot (például helyesbítés vagy törlés formájában). Azt is szigorú szabályok írják elő, hogy mások személyes adatai nem veszhetnek el, vagy juthatnak illetéktelen kézbe, az adatkezelésről részletes dokumentációt, magas kockázat esetén pedig előzetes alapjogi hatásvizsgálatot is készíteni kell. A személyes adatok védelmét a nemzeti adatvédelmi hatóságok (Magyarországon a Nemzeti Adatvédelmi és Információszabadság Hatóság, NAIH) ellenőrzik és biztosítják.

Az adatvédelem mint jogi és etikai kérdés nem tegnap merült fel, az úttörő technológiák terjedésével viszont egyre meghatározóbbá válik. A mesterséges intelligencia (MI), különösen a gépi tanulásra épülő újabb algoritmusok mind a betanítás, mind a használat során rengeteg személyes adattal dolgoznak. A cégek oldaláról ugyanis az adatvagyon legnagyobb problémája – hasonlóan az olajhoz –, hogy azt hatalmas mennyiségben kell feldolgozni, kiszűrni és „formába önteni” (összefüggésekbe rendezni) ahhoz, hogy jól kihasználható legyen. Az algoritmusok pontosan azokat az emberi tulajdonságokat helyettesítik, amelyek ezt gátolják: a számítási kapacitást (mennyiséget és sebességet), a pontosságot és a fáradékonyságot. Ezért az MI elterjedésével rohamosan nő a feldolgozott adatok mértéke és az ezzel járó jogi-etikai problémák is.

A tőzsdei kereskedő rendszerek esetén például, amelyek nyilvános gazdasági (és esetleg kapcsolódó társadalmi-politikai) adatokkal dolgoznak, nem merül fel a személyes adatok védelme. Egy banki hitelminősítő rendszerrel kapcsolatban viszont annál inkább, hiszen a kölcsönt igénylő személy adatait a bankok (vagy a hitelminősítő cégek) ma már nem ritkán egy algoritmusba teszik be, amelyek a korábbi ügyfelek adatai alapján jelzik előre, hogy az érintett milyen kockázatot jelent, vagyis mekkora valószínűséggel fizeti majd vissza a hitelt. A bank ez alapján dönti el, hogy az érintett számára nyújtson-e kölcsönt vagy sem. A folyamat során az algoritmus nem csupán külön-külön értékeli az egyes adatokat, hanem azokat összefüggésbe hozva „profilt” készít az adott személyről, amely alkalmas a viselkedésének előrejelzésére.

Azon túl, hogy az emberek sokszor könnyebben bíznak egy másik ember döntésében (még akkor is, ha a gépek sokszor pontosabbak), több probléma is felmerül. Egyrészt kérdés lehet, hogy ki felelős azért, ha a gép rossz döntést hoz, és ebből akár az ügyfélnek, akár később a banknak kára keletkezik. Másrészt az algoritmusok a gépi tanulás során létrejött, olyan belső folyamatokat és összefüggéseket használnak, amelyeket maga a fejlesztő sem ért, mintha egy fekete dobozba (black box) kerülnének az adataink, ezért azt is nehéz megérteni, hogy adott esetben miért hibáztak, vagy miért döntöttek adott módon a gépek. Vannak olyan esetek is, amikor az algoritmusok statisztikai alapon, de túlzó mértékben veszik figyelembe egy személy védett tulajdonságát (kisebbségi csoporthoz való tartozását), és figyelmen kívül hagynak más aspektusokat, amivel hátrányos megkülönböztetést valósítanak meg (például ha a roma városrészben élő személyt az algoritmus automatikusan magas kockázatba sorol, figyelmen kívül hagyva az egyedi körülményeit).

Az algoritmusok számos területen kezelik már a mi személyes adatainkat is – gondoljunk csak a közösségi médiára, ahol az érdeklődésünk és a reakcióink alapján már nemcsak a hirdetéseket, de a soron következő tartalmat is az algoritmus ajánlja fel nekünk. A digitális platformokkal rengeteg sajátos probléma merül fel (például szólásszabadság, véleménybuborékok), amire most nem térnék ki részletesen. A mesterséges intelligencia azonban számos területen már nemcsak ajánlásokat fogalmaz meg, de döntéseket is hoz az életünkről: a hitelminősítésen túl ilyenek lehetnek az állami (bírósági vagy közigazgatási) szervek által használt algoritmusok, amellyel több országban is kísérleteztek már, vagy az automatizált álláspályázati rendszerek, amelyek részben előzetes paraméterek, részben önálló következtetések alapján megszűrik a nagy cégekhez jelentkező személyeket, akik közül már csak a gép által javasoltakat hívják be állásinterjúra. A hitelminősítő rendszereknél felmerülő problémák itt is jelentkezhetnek.

Az Európai Unió a GDPR-ban egy külön rendelkezéssel igyekszik kezelni a helyzetet, amely az automatizált döntéshozatalról szól egyedi ügyekben. Eszerint az érintett (akinek a személyes adatait kezelik) jogosult arra, hogy ne terjedjen ki rá az olyan, kizárólag automatizált adatkezelésen – ideértve a profilalkotást is – alapuló döntés hatálya, amely rá nézve joghatással járna vagy őt hasonlóképpen jelentős mértékben érintené. Ez főszabály szerint azt jelenti, hogy az élet jelentős kérdéseiben nem lehet az emberekről az algoritmusok révén döntéseket hozni. A szabályozás azonban megemlít kivételeket, például ha az automatizált döntéshozatal szerződés megkötése vagy teljesítése érdekében szükséges (ami jelentősen nehezebb lenne az algoritmusok nélkül), ha azt uniós vagy tagállami törvény megengedi (megfelelő garanciák mellett), vagy ha az érintett maga járul hozzá, hogy adatait algoritmusok segítségével használják fel a róla szóló döntéshez. Az érintett személy azonban még ekkor is kifogásolhatja a döntést, és kérheti, hogy azt egy hozzáértő személy – az összes releváns adatot figyelembe véve – vizsgálja felül.

A szabályozás egyensúlyt próbál teremteni a piaci érdekek és a technológiai fejlődés, illetve a magánélet védelme és más erkölcsi szempontok között. Érdemes azonban megemlíteni, hogy a szabályozásnak megvannak a maga korlátai (például nem terjed ki olyan fontos alkalmazásokra, mint a határellenőrzés, a rendőrség vagy a honvédelem, ahol a személyes adatok felhasználása jelentős visszaélésekhez vezethet), illetve 2026-tól az EU új mesterséges intelligenciáról szóló rendelete (AI Act) részletesebb minőségi és átláthatósági szabályokat is megállapít majd egyes konkrét esetekre, például a hitelminősítésre nézve.

Összességében elmondható, hogy az adatok fokozódó mértékben meghatározzák az életünket, az emberi méltóság mint az európai kultúra alapvető értékének védelme azonban megkívánja, hogy – a gazdasági fejlődés és az innováció támogatása mellett – bizonyos korlátokat állítsunk fel az úttörő technológiák, mint például a mesterséges intelligencia káros hatásaival szemben. Az Európai Unió a világon egyedülálló módon szabályozza a személyes adatokra épülő automatizált döntések problémáját, meghatározza az ezekhez szükséges feltételeket, és biztosítja az emberi felülvizsgálatot a hibás döntésekkel szemben. A 21. század legnagyobb kihívásai közé tartozik, hogy megtaláljuk a megfelelő egyensúlyt a piaci és az etikai szempontok között – és egy rohanó világban sem feledkezzünk meg az alapvető emberi értékekről.