Emlékszel az első alkalomra, amikor lenyűgözött a ChatGPT, és úgy gondoltad, hogy olyan intelligenciát mutat, amit korábban csak az embereknek tulajdonítottál? És emlékszel az azt követő frusztrációra, amikor ez a látszólag emberi intelligencia bosszantóan butának tettette magát, nem értve meg egy egyszerű kérést?
Persze − gondoltuk − a kutatók hamarosan eloszlatják a mesterséges intelligencia (AI) tiszta kék egén még kószáló bárányfelhőket. Az a néhány hallucináció, matematikai hiba, következtetésre való képtelenség vagy az eredeti gondolatok hiánya hamarosan megoldódik. De a bárányfelhők nem akarnak eltűnni. Igaz, az ég nem borult be, de némelyik felhőről kiderült, hogy zivatarfelhő, ami kijózanító hideg zuhanyt hozott. Bár sok generatív AI-modell gyermekbetegségeit sikerült orvosolni, a megoldások nem adtak tartós immunitást.
Érdekes módon hasznos lehet, ha nem tudunk univerzálisan megbirkózni az AI egy-egy hiányosságával. A kreativitás és a tényszerűség egymás ellenpontjai, így a hallucinációnak nevezett jelenségből is profitálhatunk, ha megfelelően korlátozzuk, de szükség esetén szabadjára engedjük.
KORLÁTOK KÖZÖTT
A körbekerítés módszere általános: az AI szerteágazó alkalmazási területein mindenhol szükség van ilyen korlátokra. Az angol nyelvű szakirodalomban a „governance” kifejezést használják rá, amit magyarra vagy irányítási keretekként, vagy kormányzási keretekként fordítunk. Tekintsük inkább higiéniás eszköznek, mint orvosságnak, mivel ez jobban kifejezi a nemkívánatos AI-működés elleni preventív képességeit.
Az irányítási keretek lehetnek jogi, szervezési vagy műszaki természetűek. A legjobb, ha olyan egyszerűek, mint a fékpedál az autón, vagyis ha standard műszaki eszközökkel el tudjuk érni az eredményt. Azonban a legtöbbször a három intézkedésfajta együttműködésére van szükség. Ahogy a fékhez, mint műszaki irányítási eszközhöz, is társul jogi és szervezési elem: a KRESZ gondoskodik róla, hogy a bíróság elítélje a sofőrt, ha nem nyomja meg a féket, amikor kellene. Így a három governance elem egymást kiegészítve kezeli a gépjármű mint technikai innováció kockázatait. Az üzletre mindez végül – bár tagadhatatlanul kanyargós út végigjárása után – kifejezetten pozitív hatással van, hiszen ha az utas nem lenne biztonságban a taxiban, akkor nem élne meg a taxis.
A kockázatok és kezelésük módja a gépjárműveknél már magától értetődőek. Mindenki tudja, hogy vannak sebességkorlátozások, vagy azt, hogy mit jelentenek azok a széles fehér csíkok, amelyek utat mutatnak a gyalogosoknak a két járda között az úttestre festve. Pedig a sebességkorlátozás és a zebra sem más, mint a gépjárművek veszélyeinek a kezeléséhez létrehozott irányítási eszközök, amelyek nem együtt születtek az automobillal, hanem a veszélyek megtapasztalása után, több túlzó kezdeményezés kipróbálását követően nyerték el helyüket a közlekedésben.
A zebrát azért találtuk ki, hogy a gépjárművek vezetői és a gyalogosok közötti természetes érdekellentétet mederbe terelje és kezelje, mindkét csoport számára legkevesebb veszteséggel. Ugye ismerős ez a megfogalmazás az AI-jal gazdagított napi rutinunkból? Ilyen érdekellentétek kezelésére sok példa van az AI-területen is. Például amikor a megrendelőnek van elsőbbsége, kivéve amikor ezt felülírja, hogy szerzői joggal érintett anyag szerepelt az általunk promptolt AI-modell tanítási adatai között a produktum létrehozásához. Ilyenkor talán egy AI-zebra felfestése lehet a megoldás, ami a főúton haladó ügyféllel szemben a jogtulajdonos előbbségét biztosítja, de közben jöhet szirénázó mentőautó, ami miatt újra kell értékelni az elsőbbségeket.
Az AI területén sok ilyen találmányra lesz szükség, de még csak a kezelendő helyzetek megfogalmazásánál tartunk. Ha azonban hiszünk az AI erejében, akkor érdemes belevágnunk az AI-irányítási keretek kialakításának nagy projektjébe, hasonlóan ahhoz, ahogy az autó irányítási keretei is, a zebrától a műszaki vizsgán keresztül a téli gumiig, lehetővé tették az gépjárművek köré épülő iparágak létrejöttét.
Jogszabályokra sem kell várnunk ezeknek a kereteknek a kialításához. Az AI-t intenzíven használó szervezetek belső szabályzatban is definiálhatják az AI-használat korlátait. Sok forrásmunka áll már rendelkezésre nyilvánosan is, amiből meríthetünk. Sőt: a legjobb, ha az üzlet megtalálja a saját szabályozásának medreit. Reméljük, hogy fog születni egy „relatív gyorshajtás” fogalom is az AI-szabályozás során, amely már a létezésével is bizonyítja, hogy jobb ráhagyni a jogalanyra a részleteket, mert a közlekedési hatóság úgysem tudja minden helyzetben az indokolt sebességet kitáblázni.
ETIKAI ELVEK ÉS AZ AI FELELŐS MŰVELÉSE
Az irányítási korlátok megfelelő kiépítése módszert ad az AI etikus működésével kapcsolatos aggályaink megválaszolására is. Az igazságosságot, a balesetmentességet, az esélyegyenlőséget, az átláthatóságot és az elszámoltathatóságot, továbbá néhány más etikai elvet már azelőtt azonosították a tudományos műhelyek, hogy a ChatGPT megszületett. Az etikai keretrendszer minőségét az is mutatja, hogy karcolás nélkül túlélte a generatív AI felemelkedését, ami minden egyéb AI-t a hátsó padba száműzött 2023-ban.
Az etikai elvek fontosak, de az AI fejlődésére nincsen közvetlen hatásuk. Mi kell ahhoz, hogy ezeket a magasztos elveket viszontlássuk az AI hétköznapi működésében? Mit kell mondanunk az AI fejlesztőinek és alkalmazóinak ahhoz, hogy ezek az etikai elvek érvényre jussanak? Ennek kulcsa a felelős mesterséges intelligencia tudománya. Az úgynevezett responsible AI (az AI felelős használata) egy olyan megközelítés és gyakorlatrendszer, amelynek célja, hogy a mesterséges intelligencia fejlesztése, bevezetése és alkalmazása etikus, biztonságos, átlátható és társadalmilag hasznos módon történjen.
Ki venne ma olyan autót, amelynek nincsen fékje? Pedig lássuk be: a fék nem tartozik hozzá az autó lényegéhez, sőt első pillantásra kifejezetten káros, hiszen gátolja, hogy A pontból B pontba gyorsan eljusson az autó. Persze ma már értjük, hogy a jó fékkel szerelt autó jobban szolgálja a feladatát, mint a fék nélküli. Az AI is pontosan ilyen, de az AI-t még nem értjük elég mélyen ahhoz, hogy megmondjuk, milyen féket szereljünk rá és mikor működtessük. Sokszor behúzott kézifékkel autózunk az autópályán, mert azt halottuk valakitől, hogy egy lejtőn leparkolt autó elgurult. Máskor a fék műszaki értelemben rendben van, de a hátsó üléshez szereltük a fékpedált. Az AI-ról sok hagymahéjat kell még lefejtenünk ahhoz, hogy eljussunk a blokkolásgátlóig.
EMBERI FELADATOK AI-KÖRNYEZETBEN
Mindez természetesen jó hír az álláspiacon. Az AI nagy ígéretekkel kecsegtet, de sok új feladatot is ad. Hívjuk ismét segítségül a kék égbolt és az AI közötti analógiát néhány példa érdekében:
↘A nagy nyelvi modellek (amire a köznyelvben egyszerűen az „AI” kifejezés használatos) alkalmasságát vagy alkalmatlanságát egyes feladatokra alig lehet előre jelezni – szükségünk lesz tehát felkészült meteorológusokra, akik ezt szakmájuknak tekintik. Várhatóan lesz még ahhoz hasonló technikai áttörés, mint amit a ChatGPT hozott. Ebből nemcsak az következik, hogy van még feljebb, hanem az is, hogy akkor ismét újra kell tanulnunk sok mindent, amit az AI-ról megtanultunk. A használhatóság előrejelzését újra kell tanulnunk. Akkor fogjuk ismét látni, hogy az AI nemcsak ChatGPT-ből és hasonló generatív modellekből áll.
↘Néha túl sokat, néha túl keveset kapunk az égi áldásból – az árvizekre és az aszályokra is sok erőforrást, köztük emberi erőforrást kell szánni. Ha túlteng az AI, például közösségi médiában felbukkanó véleménybefolyásolási kampányokban, azt kezelni kell.
↘Az is előfordul, hogy az AI lassan elveszti egy feladatra az alkalmazhatóságát, és döntést kell hozni, hogy öntözéssel (újabb tanulási adatok felkutatásával és megtanításával) vissza lehet-e állítani a hasznosságát, vagy inkább hagyjunk fel a terület AI-jal történő művelésével.
↘Az ember is okozhat árvizet, és erre sajnos egyre gyakrabban lesz példa. Az AI által generált adatoknak az AI tanításában való hasznosítása nem olyan elvetendő gondolat, mint amilyennek első hallásra tűnik, de körültekintően kell bánni vele és ismerni kell a szintetikus adatok tanítási célú használatának határait.
↘Ahogy az árvizekkel és szárazságokkal is, az AI-jal is közösen, országos vagy még nagyobb közösségek szintjén lehet foglalkozni. Az AI kockázatait is csak társadalmi összefogásban tudjuk kezelni. Ezért születnek jogszabályok és kormányzati intézmények, amikre Európában az AI Act, valamint az annak nyomán kialakuló felügyeleti szervezetrendszer a legjobb példa. A más területeken már jól megismert megfelelés fogalom és vállalati funkció az AI-ban fontos tényező lesz, akárcsak a személyes adatok védelmében.
↘Az AI előnyeiből részesülni kívánó szakmák közösségeinek is megvan a feladatuk, hiszen a szakma képviselői tudják legjobban megfogalmazni, hogy mire van és mire nincsen szükségük az AI hasznosítása érdekében. Ezt a tudást be kell vinni a jogszabályalkotás és a hatósági felügyelet folyamataiba. Az Európai Unió különböző szervei gyakran indítanak olyan konzultációkat, amelyekkel információt gyűjtenek az AI szabályozásának kialakításához vagy finomításához. Az is sokatmondó, hogy ezek között a fórumok között már 2025-ben felbukkantak olyanok, amelyek a terület szabályozottságának csökkentését célozzák, pedig a legfontosabb szabályozási elem, az AI Act javát csak 2026 augusztusától kell alkalmazni.
NÉHÁNY KÜLÖNLEGES KOCKÁZAT
AI-jégkorszak
Az etikátlan működési módok terjedése a legnagyobb veszély, amellyel az AI-nak szembe kell néznie, mert magában hordozza a társadalmi szintű kiábrándulás lehetőségét, aminek nyomán az AI szitokszóvá válhat, és ez a hasznos és etikus alkalmazásokat is ellehetetleníti. Beköszönthet egy újabb úgynevezett „AI-tél”, ami az AI-ba vetett hit és a hozzá rendelt erőforrások elapadását jelenti. Ilyenben az AI 70 éves története során már többször volt részünk. Egy újabb AI-jégkorszak azért veszélyesebb ma, mint bármikor korábban, mert a morálisan elítélhető használati esetekben (például katonai alkalmazásokban vagy a társadalmak szétzilálására alkalmas deep fake kampányokban) érdekelt szereplők számára ma már annyira világosak az AI képességei, hogy ezeket a fejlesztéseket várhatóan nem érintené az újabb kiábrándulás az AI-ból, miközben a társadalom megfosztaná magát azoknak a tapasztalatoknak a gyarapításától, amelyekkel esélye lehet kontroll alatt tartani ezeket a káros alkalmazásokat.
Képiesítés, percepció, elvárások, csalódások
A marketing nemcsak elszenvedője, hanem fontos alakítója is az AI sorsának. Az AI antropomorfizálása és emberszerű megjelenítése különleges veszélyt jelent. Tudatosan vagy tudattalanul, de sajnos az AI félreértéséhez vezet, ha a szöveges információk mellett az olvasó kékes fényben játszó, merev emberi arccal rendelkező, de a belső fémes mechanikájába és áramköreibe bepillantást engedő szerkezetet lát illusztráció gyanánt. Nem is kell messze lapozni ezektől a soroktól egy példáért, amely képként kitűnő és magas színvonalú, azonban könnyen indíthatna helytelen asszociációkat egy itteninél tapasztalatlanabb olvasói körben.
Őszintén remélem, hogy a marketingszakma megtalálja az illusztrációs kényszer és a helyes AI-felfogás közvetítésének szintézisét. Az AI társadalmi percepciójának jelenlegi korszaka – amelyet a generatív nagy nyelvi modellek 2023 évi áttörése definiál – egyik legnagyobb problémája annak megértése, hogy mit is várhatunk ezektől a generatív modellektől.
A nagy generatív modellek hordozzák ugyan az érzelmek és más emberi tulajdonságok és képességek jegyeit, de azokat csak közvetítik a rajtuk kívül álló emberi forrásokból merítve, hiszen a világismeretüket (vagy annak látszatát) emberek által készített szövegekből és képekből nyerték. A humanoid illusztrációk ennél többet sugallnak az olvasónak. (A témával egy OECD-tanulmány is foglalkozik: https://oecd.ai/en/wonk/responsible-science-communication)
HOGYAN ÁLLJUNK HOZZÁ A VÁLTOZÓ JÖVŐHÖZ?
Az AI annyira sokrétű, hogy ma még túl korai lenne annál konkrétabb tanácsokkal szolgálni, mint hogy a mentális nyitottság hasznos társunk lesz az intelligens ember és gép közös utazásán. A nyitottság kulcs ahhoz, hogy kedvenc véleménybuborékunk helyett mérlegeléssel, szelektíven döntsünk, amikor az AI alkalmazása felé keressük az utunkat.
Semmit se higgyünk el, amit a generatív AI-tól készen kapunk, de mielőtt lemondunk róla, gondoljuk meg, hogy le tudjuk-e nyesni róla a vadhajtásokat, miközben a termő ágakat erősítjük. Sok ilyet fogunk találni. Ne vágjuk ki az egész fát azonnal.
Az AI fiatal tudománya sok meglepetést rejt még, és készüljünk fel arra, hogy éppen azzal leszünk hűek a céljainkhoz, ha konkrét kérdésekben az új információk nyomán pontosítjuk az irányzékunkat.
Corporate tagjaink, partnereink IDE KATTINTVA elküldhetik sajtóanyagaikat és/vagy szakmai tartalmaikat.
Összes cikk