(Forrás: Unsplsah)
Hosszú ideig biztos kapaszkodónak hittük a vizuális bizonyítékot. A „hiszem, ha látom” elve sokáig azt jelentette: ha valamit a saját szemünkkel láttunk, az igaz volt. Csakhogy ma már ez az állítás nem feltétlenül áll meg. A mesterséges intelligencia képes olyan fotórealisztikus képeket és videókat generálni, amelyek teljesen hitelesnek tűnnek – miközben soha nem létezett embereket, helyzeteket vagy eseményeket ábrázolnak.
Mindeközben az ingerküszöbünk is folyamatosan tolódik kifelé. Amire néhány éve még felkaptuk a fejünket, az ma már a mindennapjaink része. A „rendkívüli” gyorsan megszokottá válik, a gyanús pedig észrevétlenné. Ebben a közegben egyre nehezebb eldönteni, hol húzódik a határ a valóság és annak digitális utánzata között.
Gyanakvás vagy bizalmatlanság? Hol a határ?
(Bal oldali kép ChatGPT által generált fotó, a jobb oldai forrása: Unsplash)
A kritikus gondolkodás ma már alapvető túlélési készség. Utánanézni a forrásnak, több oldalról megvizsgálni egy tartalmat, kontextusba helyezni egy képet – ezek nélkül könnyen manipulálhatóvá válunk. Ugyanakkor jogos a kérdés:
hogy lehet úgy élni és fejlődni, ha mindent megkérdőjelezünk magunk körül?
Ha elkezd összemosódni, hogy mi a valódi és mi nem az, akkor könnyen eljuthatunk oda, hogy feladjuk a megkülönböztetés igényét. „Majd gondolok róla, amit akarok” – és ezzel el is engedjük a valóság keresését. A közösségi médiában gyakran mindössze 2 másodpercünk van arra, hogy egy tartalom megragadja a figyelmünket, és újabb 2 másodperc arra, hogy eldöntsük: tetszik-e, továbbosztjuk-e. Pedig éppen itt lenne szükség megállni egy pillanatra, és alaposabban megnézni, mit látunk.
Milyen jelek utalhatnak arra, hogy AI-generált tartalmat látunk?
Csőke János informatikai szakértő Duna Család-barát műsorában adott néhány kapaszkodót adott ahhoz, hogy felsimerjük, milyen jelek utalhatnak arra, hogy AI-generált képpel vagy videóval van dolgunk.
„Az AI nagyban gondolkodik”
(Forrás: Unsplash)
– emelte ki legfontosabb alaptételként a szakértő, mi annyit jelent, hogy a mesterséges intelligencia mindig nagyban, komplexen ragadja meg a képgeneráláshoz adott utasításokat, a látvány egészére fókuszál, a részletekre pedig nem figyel annyira. Ezek a hibák gyakran árulkodóak.
Előfordul, hogy a háttérben értelmetlen szövegek jelennek meg, furcsa tárgyak olvadnak össze, vagy a környezet logikátlan. Az emberi anatómia különösen nehéz terep a mesterséges intelligenciának. A szemek, a száj, az arányok sokszor „majdnem jók”, de mégsem teljesen. A kéz pedig klasszikus gyenge pont: túl sok ujj, furcsa hajlások, természetellenes tartás.
Az is gyanúra ad okot, ha egy arc túl tökéletes – nincsenek ráncok, pórusok, anyajegyek, bőrhibák, apró egyenetlenségek.
A hiba ugyanis emberi. A tökéletesség sokszor mesterséges.
Videóknál a felismerés még nehezebb. Itt érdemes azt figyelni, mennyire illeszkedik a beszéd a szájmozgáshoz. A mesterséges intelligenciának ez az egyik legnehezebb feladata. Nem véletlen, hogy sok ilyen videó szándékosan lerontott minőségű: a pixelesítés, az elmosódás elfedi a hibákat.
Forrás: Unsplash)
Ki tudja igazán felismerni az AI-t?
Paradox módon az AI által generált képeket jelenleg leginkább maga a mesterséges intelligencia képes felismerni. Léteznek AI-detektorok – köztük ingyenesen elérhető programok is –, amelyek százalékban mutatják ki, mennyi a valószínűsége annak, hogy egy egy kép vagy videó mesterséges eredetű vagy sem. Ezek sem tévedhetetlenek, de fontos kapaszkodót adhatnak.
Ugyanakkor nem szabad megfeledkezni az MI-filterekről sem, amelyek szándékosan torzítják a valóságot. Ezek lassan normalizálják a módosított, „javított” képet, és észrevétlenül alakítják át azt, amit valósnak gondolunk.
Jogi és etikai szürkezónák
Komoly kérdés az is, hogy jogilag és etikailag hol húzódnak a határok. Maga az AI-kép készítése sok esetben nem szabályellenes – a visszaélés az, ami problémát jelenthet. Ez azonban jelenleg szürkezóna: kevéssé szabályozott, gyorsan változó terület.
Különösen érzékeny pont, hogy a mesterséges intelligencia az interneten fellelhető képekből tanul.
Ha egy felhasználó nem olvassa el alaposan a felhasználási feltételeket, és beleegyezik abba, hogy feltöltött fotóit AI-betanításhoz használják, akkor a saját arcvonásai is visszaköszönhetnek később – teljesen más kontextusban, idegen történetek részeként.
(Forrás: Pexels)
Generációk közötti kihívás
A fiatal generáció már ebbe a bizonytalan vizuális világba nő bele. Egy gyerek természeténél fogva feltétel nélkül fogad el információkat – így tanul. A feladat nem az, hogy bizalmatlan legyen, hanem hogy kérdezni tanuljon. Hogy megértse: nem minden igaz, amit lát vagy olvas. Az idősebb generáció számára ez sokszor szemléletváltást igényel.
A korábbi tapasztalat – miszerint ami a tévében vagy az újságban megjelent, az igaz – ma már nem alkalmazható automatikusan. Ez tanulható folyamat, de tudatosságot igényel.
Valószínűleg idővel ugyanúgy meg fogjuk szokni ezeknek a tartalmaknak a befogadásáz is, mint ahogy régebben a Photoshop létezését is megszoktuk, és az AI által generált tartalmak is beépülnek a hétköznapjainkba. A kérdés nem az, hogy eltűnnek-e – hanem az, hogy megtanulunk-e együtt élni velük anélkül, hogy elveszítenénk a valóság iránti érzékünket.
(ChatGPT által generált kép)
A képmás védelme fontosabb, mint valaha
Végül nem lehet eléggé hangsúlyozni: a képmás védelme soha nem volt ennyire fontos. Egy ártatlanul megosztott családi fotó, egy gyerekről készült kép ismeretlen utat járhat be. Nem tudhatjuk, hogyan manipulálják, milyen adatbázisba kerül, és milyen – akár hamis – történetek alapjává válik később.
Egy olyan korban, amikor már nem hihetünk mindig a szemünknek, különösen nagy felelősségünk van abban, mit osztunk meg. Mert ami ma csak egy kép, holnap már egy alternatív igazság része lehet.
(Kiemelt kép forrása: Pexels)




