Az online térben zajló kommunikációban háromfajta résztvevőt lehet megkülönböztetni. Vannak a tartalomgyártók („creater, publisher”), akik az általuk készített internetes tartalmat elérhetővé teszik a befogadók („targeted actors”) számára. E két szereplő között játszik elengedhetetlen szerepet a közvetítő („online intermediaries”) a tényleges kapcsolat megteremtésével. A közvetítő platformok kezébe kerül ezáltal a tartalomszabályozással járó felelősség, hiszen – különösen a közösségimédia-platformok esetében – ők szabályozzák az elérhető információkat, valamint azok megjelenítési rangsorolását, adott esetben eltávolítását. Ezzel a hagyományos sajtóból ismert szerkesztői felelősséghez hasonló helyzetükkel jelentős hatással vannak a szólásszabadsághoz való jog érvényesülésére és általánosan a demokratikus folyamatokra.

Ki irányít? A mesterséges intelligencia alkalmazása a tartalommoderálásban

Az imént tárgyalt közvetítői funkcióval járó felelősséget az online közösségimédia-platformok egyre nagyobb részben adják át a mesterséges intelligencia számára, hiszen az sokkal hatékonyabban és gyorsabban dolgozik az embernél. A tartalom közvetítésével két okból jár szükségképpen együtt a tartalommoderálás: 1) a közösségimédia-platformokra vonatkozó külső (jogi) és belső (közösségi, „community standards”, azaz a platform önszabályozási elvei) szabályoknak való megfelelés miatt, és 2) gazdasági érdekből, ugyanis a közösségimédia-platformok ellenszolgáltatásként információt gyűjtenek a felhasználókról, hogy ezek alapján személyre szabott reklámtartalmat kínáljanak fel számukra, amely miatt pedig a platform érdeke, hogy minél több időt töltsön el rajta a felhasználó. A tartalommoderálás egyik legfőbb célja tehát a tartalomoptimalizálás, azaz a megfigyelt információk alapján olyan meghatározott tartalom generálása, amely minél tovább és minél jobb minőségben („engagement”) köti le a felhasználó figyelmét.

A tartalommoderálás formáit két csoportra lehet bontani. Az egyik a tartalomszűrés, azaz egyfajta szelekciós folyamat, amelyet ipari mennyiségben a mesterséges intelligencia végez különböző mértékű emberi felügyelet mellett, vagy akár teljesen automatizált módon. Ide tartoznak a platform által tett ajánlások, amelyek egy összetett folyamat eredményei, mely során a szolgáltató a felhasználóról gyűjtött adatai alapján beállítja, hogy milyen tartalmak és milyen sorrendben jelenjenek meg a felhasználói felületen. Ehhez a mesterséges intelligencia akár a keresési előzményeket, tartózkodási helyet, életkort, a felhasználó platformon mérhető aktivitását (olvasási idő, megosztás, továbbgörgetés) vagy akár az érzelmi állapotát is felhasználja.

A tartalommoderálás második csoportjába a korlátozások tartoznak, amelyek vonatkozhatnak a tartalom elérésére (alacsonyabb rangsorolás, kéretlennek minősítés), vagy már a feltöltés fázisára (feltöltés megtagadása, ‘demonetization’, azaz a feltöltő nem részesülhet az adott tartalomból származó anyagi haszonban), továbbá ide tartozik az utólagos eltávolítás is.

A következőkben a mesterséges intelligencia által végzett tartalommoderálás általános problémáit tekintem át, különösen a szólásszabadságra gyakorolt hatásuk kontextusában. 

A szűrőbuborék-hatás

Elsőként a szűrőbuborék- („filter bubble”) hatást vizsgálom. A problémafelvetés lényege, hogy a tartalomszűrés hatására a felhasználókhoz csak az általuk kedvelt tartalmak jutnak el, ezáltal pedig egy olyan véleményburok képződik körülöttük, amelyben nem jelennek meg az attól különböző álláspontok, vagy ha mégis, akkor azok egyfajta negatív megerősítésként hatnak. Ez a jelenség felgyorsítja és felerősíti a társadalomban megfigyelhető polarizációt, olyannyira, hogy a szakirodalom erre a nyúlüreg hatás („rabbit hole effect”) kifejezést használja. Ez annyit jelent, hogy minél jobban elmerül a felhasználó egy bizonyos irányultsághoz tartozó tartalomban, annál radikálisabb véleményekkel fog találkozni, ezáltal nézetei is egyre szélsőségesebbé válnak. A szűrőbuborék kialakulása tehát az információhoz jutás szabadságát tűnik veszélyeztetni, ami a demokratikus folyamatokra is hátrányosan hat, ugyanis a közvita kialakulásához az eltérő vélemények ismerete szükséges.

Ugyanakkor a közelmúltban megjelent tanulmányok arra mutatnak rá, hogy a szűrőbuborék problémaköre nem olyan fekete-fehér, mint ahogy azt az eddigiek alapján gondolhatnánk: a tartalomszűrés elengedhetetlen ahhoz, hogy a különböző vélemények ne vesszenek el az információk sokaságában, hogy a felhasználónak egyáltalán lehetősége legyen befogadni azokat. A sokszínűség pedig egyenesen érdeke is a platformoknak, hiszen az azonos jellegű tartalmak ismétlése unalmassá válik; erre az Európa egyik legnagyobb médiavállalatát alapító Axel Springer is rámutatott, aki szerint a felhasználók számára egy „szimfóniát” kell bemutatni, ami az igényeiket figyelembe veszi, de változatos és ugyanakkor meglepő is. Az ehhez felhasználható ajánlórendszerek jóval kifinomultabbak és sokkal nagyobb szerepet kap bennük a felhasználó által végzett válogatás („self selection”), ezért a valóságban kialakult szélsőséges véleménybuborékok jelentéktelen méretűek; nem támasztható alá az általános polarizáltság felerősödésétől tartó teória, továbbá a szűrőbuborék a hozzá fűzött káros hatás épp ellenkezőjét, a közösségi médiát használók valamivel szélesebb körű információhoz jutását segíti elő.

A feketedoboz-effektus

A következő problémakör a mesterséges intelligencia felépítéséből adódik, mivel az az emberek számára nehezen értelmezhető, felfogható. Az úgynevezett „machine learning” egy olyan rendkívül komplex algoritmusok által végzett folyamat, amelynek eredményeképp a mesterséges intelligencia képes tapasztalás útján tanulni. Ez a technológia a mesterséges neuronokra épül, amelyek hasonlóan a biológiai idegsejtekhez, bonyolult és rétegzett hálózatot alkotnak, ezáltal a mesterséges intelligencia tanulása az emberek többsége számára átláthatatlan, felfoghatatlan, azaz egy feketedoboz („black box effect”), amely ugyanúgy kihat a gép által hozott döntések folyamatára is, ez pedig a szólásszabadság szempontjából jelentős probléma a következők miatt:

1. A tanulási folyamat eredményét a mesterséges intelligencia rendelkezésére bocsátott adatok határozzák meg, így végső soron azok az emberek, akik tanítják. Ez alapvetően befolyásolja a döntés pártatlanságát, hiszen a legapróbb emberi elfogultság is beépül a mesterséges intelligencia döntési mechanizmusába, ami alapján az kiválaszt és targetál, vagy éppen korlátoz bizonyos tartalmakat.

2. Az átláthatatlanság pedig hátráltatja, sőt egyenesen gátolja a jogi szabályozást, a tudomány, a média és a közvélemény hozzáférését, rálátását azon folyamatokra, amelyeken például egy tartalom eltávolítása múlik. A döntési mechanizmus sokszor a mesterséges intelligencia létrehozója számára is feltárhatatlan és előre nem látható következtetéseket rejt, nemhogy a bíróság vagy a jogalkotó számára. Az átláthatatlanság problémáját az is jól szemlélteti, hogy a mesterséges neuronhálózatok által működő mesterséges intelligencia képes olyan kódolást fejleszteni, illetve megtanulni, amely által nemcsak az emberek, hanem más mesterséges intelligenciák előtt is titkosítani tudja az általa végzett folyamatokat.

Az óriások hatalma

A harmadik általános problémakör eredője, hogy az akár több milliárd felhasználóval is rendelkező óriás közösségimédia-platformok aktusai óhatatlanul állami feladatokat látnak el, különösen a szólásszabadság érvényesülése értelmében. A belső szabályzatok és a közösségi alapelvek, ha úgy vesszük, több felhasználót befolyásolnak egyszerre, mint jó néhány állam teljes lakossága – ezért felmerülnek problémák a demokratikus legitimáció, jogkorlátozás és jogvédelem terén is. Az állami feladatok magánszektorba telepítését ezen a területen az úgynevezett „láthatatlan kézfogás” névvel is illetik, amely egyúttal az együttműködés azon jelenségére is felhívja a figyelmet, miszerint az állam tulajdonképpen közigazgatási, jogalkalmazási aktusok kivitelezésére használja a magánszektort, amely által a felelősségi teher is eloszlik. A szólásszabadságra vetítve a problémát ez azt jelenti, hogy e jogok érvényesülése az online teret illetően a privát üzleti szektor kezében van, amelyből a következő kérdések adódnak:

1. A jognak való megfeleltethetőség, mivel a platform belső szabályzata a szólásszabadságra vonatkozó szabályoknál esetenként megengedőbb, vagy éppen a törvényi feltételek biztos betartását célzóan szigorúbb, mint a vonatkozó jogszabályok. A mesterséges intelligencia által végeztetett tartalommoderálás jelen szempontból azért problémás, mert gyakorlatilag a tartalmak szelektálásával szükségképpen olyan jogi értékelést hajt végre, amely állami, jogalkalmazói feladatkörbe tartozna, emiatt nem csak a szólásszabadság standardjai sérülhetnek, hanem maga a jogállamiság követelményei is.

2. Az előző kérdésből adódik az arányosság, illetve a megfelelő, jogilag szabályozott eljárás („due process”) biztosításának a nehézsége. Az algoritmusok a tanultaknak megfelelően járnak el, azonban ebben a folyamatban több hiba is felmerülhet. Ilyenek például a túlzott korlátozás, azaz „over-blocking”, vagy éppen az illegális tartalom eltávolításának a sikertelensége. Az Emberi Jogok Európai Bírósága kimondta, hogy a tartalommoderálás során a felhasználói kommentek vizsgálata túlzott és nem tartható elvárás, valamint hátrányos az internetes véleményszabadságra nézve.

Láthattuk, hogy bár az MI képes hatékonyabbá tenni a tartalommoderálást, fontos megérteni és kezelni az általa felvetett problémákat, mint például az átláthatatlanságot vagy az állami feladatok magánszektorba történő telepítését. A jogalkotóknak körültekintően kell eljárniuk annak érdekében, hogy megfelelően biztosítsák a szólásszabadság és a jogállamiság érvényesülését az online térben, ezáltal megteremtve a lehetőséget arra, hogy az MI segítségével a közösségimédia-platformok a hatékonyság mellett tiszteletben tartsák a demokratikus értékeket és az emberi jogokat.