Könnyű azt hinni, hogy a ChatGPT egy tudatos, gondolkodó teremtmény, vagy
egyfajta sziliciumba öntött, feljavított verziója az emberi agynak. De nem
így van.
Arthur C. Clarke brit science-fiction író (2001: Űrodüsszeia,Randevú a rámával stb)
már 1962-ben megjegyezte hogy "minden kellően fejlett technológia megkülönböztethetetlen
a mágiától". Aligha volt az idézet valaha aktuálisabb mint most a ChatGPT, a legújabb mesterséges
intelligencia alapú beszélő robot kapcsán, mely magával ragadta az egész világot.
Az OpenAI által fejlesztett, mesterséges intelligencia vezérelte program látszólag képes
mindenféle kérdésre válaszolni, kezdve szakmai kérdesektől egészen élelmiszerreceptekig és
celebtémákig, és teszi mindezt szépen megfogalmazott mondatokkal. Ezzel párhuzamosan aggódalmat
váltott ki a tanárok körében, akik félnek, hogy a diákjaikat segíti majd elcsalni a beadandóikat.
Amikor az ember ilyen lenyűgöző képességeket lát, könnyen kezelheti a beszélő robotot tudatos,
gondolkodó lényként, vagy amolyan szilícium alapú, feljavított emberi agyként. De nem így van.
A legpontosabb szó a ChatGPT kulisszák mögötti működésének leírására a "találgatás" lenne a legmegfelelőbb.Megmagyarázzuk.
Egy tippgép
A ChatGPT magja egy nyelvi modell, tehát egy mesterséges intelligencia rendszer, amit szövegek
generálására készítettek. A nyelvi modellek nagy ideghálózatokon alapulnak, amelyek több
milliárd kicsi számítóegységből, vagy neuronból állnak, melyek egymással összeköttetésben vannak.
Ezeket a modelleket lehet "edzeni" a betáplált adatokkal, ami azt jelenti, hogy automatikusan korrrigálják számitásaikat
és így a rendszer outputját is.
Amikor a beszélő robottal "beszélgetünk", nehéz elkerülni azt az élményt, hogy valakivel társalgunk.
Ezért eshet meg könnyen az, hogy olyan képességeket tulajdonítunk neki, amelyeket valójában
nem birtokol, és ennek tükrében értelmezzünk az általa kibocsátott outputot.
Napjaink nyelvi modelljeit hatalmas mennyiségű szöveges adattal edzenek (a ChatGPT esetében
ez több mint 300 milliárd szó), melyet egy széles spektrumú netes forrásból szednek össze,
kezdve a wikipediától, a digitalizált könyveken át az újságcikkekig és netes forumokig. Ezzel
az alappal a modellnek összesen egy egyszerű feladatot kell teljesíteni:
Egy adott sorozat szó esetén ki kell találnia mi lesz a következő szó. És a következő - míg a
szöveg el nem készül.
Első ránézésre ez egy elég értelmetlen gyakorlatnak tűnhet. De kellő mennyiségő edzőadattal
felvértezve a modell képes kérdésekre válaszolni. A kérdést először szöveggé kell alakítani,
amit ki kell tölteni, például:
Diák: Mekkora hőmérsékleten kezd a víz forrni?
Tanár: <kitöltendő mező>
Ezután a nyelvi modell felhasználható arra, hogy kiszámolja a valószínű válaszokat a tanár
kitöltendő mezejébe, például "Azt hiszem a víz 100 fokon forr" vagy "A légnyomástól függ".
A nyelvi modell számára a válasz nem több mint egy sor betű, melyeket a valószínűség tart össze.
Ő sosem "élte át" a víz vagy a meleg élményét és ezáltal semmi köze sincs az igazsághoz..
Tisztán statisztikai szabályszerűségeket, nem pedig valós tartalmat tanul a beszélő robot.
A válaszadás folyamata tehát teljesen más, mint az emberek számára. Nekünk ugyanis
az olyan szavak mint pl "víz" vagy "forr" valós, fizikai jelentést hordoznak magukban
a társalgáson kívül is.
A nyelvi modellek tehát nem próbálnak meg gondolkodni a válaszon, pusztán
ki akarják tölteni a válaszmezőt egy olyan válasszal, ami a leginkább hasonlít
arra a szövegre, amivel a modellt korábban edzették. Gyakran ez meglepően jól működik
de semmiképp nem összekeverendő ez az emberi gondolkodással.
Okos Hans, a ló, aki tudott matekozni
Nem ez az első alkalom az emberi történelemben, hogy hagyjuk magunkat átverni
olyan teremtmények által, melyek megingatják elképzeléseinket az intelligenciáról.
A kora huszadik században nagy nyilvánosságra tett szert egy német ló egész Európában.
"Okos Hans" ugyanis aritmetikai számításokat tudott megoldani és különféle intellektuális
feladatokra (többek közt szövegolvasásra) tudott választ adni a patájával trappolva. Később
bebizonyosodott, hogy a ló viselkedésének semmi köze nem volt a kapott feladatokhoz, pusztán
a ló edzőjének testbeszédéből fakadó jelekre reagált.
A jelenséget később "Okos-Hans hatásnak" nevezték és tisztán párhuzamba állítható napjaink
ChatGPT jelenségével: Okos Hans intellektuális feladatokat oldott meg úgy, hogy talált
egy rövidítő utat úgy, hogy egyéb "jeleket" vett igénybe, ebben az esetben a mellette álló
edzője testbeszédét.
Ez eléggé hasonlít a nyelvi modellekre, amelyek szöveget generálnak nekünk, úgy hogy felismernek
és kiválasztanak nyelvi jeleket nagy szöveggyűjteményekben, anélkül hogy értelmeznék
a kommunikációs küldő fél célját, vagy meghatároznák a beszélgetést egy a világról alkotott
közös élményen, ahogy azt mi, emberek automatikusan tesszük.
Valóban beszélünk a ChatGPT-vel?
Van egy belső tendenciánk, hogy emberi tulajdonságokkal ruházzunk fel egyéb lényeket. Egy csecsemő életének első évében már képes mások szándékait felismerni és elválaztani a racionális viselkedési mintákat az irracionálisaktól.
Egy 2000-es években készült tanulmányban kutatók kimutatták, hogy amikor egy egy éves gyermek azt látta, hogy egy felnőtt egy lámpakapcsolót a kezei helyett a fejével próbál felkapcsolni, akkor csak abban az esetben próbálta meg utánozni a felnőtt viselkedését, ha amögött racionális magyarázatot vélt felvedezni, például azt, hogy a felnőtt kezei épp tele voltak.
A mások szándékát felismerő képességünk központi szerepet játszik a nyelvértelmezésben és közel automatikusan racionalitást kölcsönzünk beszélő és cselekvő lényeknek, miközben tudjuk, hogy ilyesmiről nincs szó. Az ilyen jellegű antropomorfizmus nem csak okos Hans esetében jellemző ránk, hanem a mesterséges intelligencia vezérelte ChatGPT kapcsán is.
Amikor "beszélünk" a beszélőrobottal, nehezen tudunk elvonatkoztatni az érzéstől, hogy valakivel ténylegesen társalgunk. Ebből következően könnyen tulajdonítunk neki
olyan tulajdonságokat és készségeket, amelyeket valójában nem birtokol, és ennek tükrében tolmácsoljunk az információt melyet prezentál nekünk. Erre még rásegít, hogy mind a média, mind a gyártók folyamatosan arról mesélnek nekünk, hogy mit "vélnek", "gondolnak", "éreznek" a mesterséges intelligencia rendszerek.
Oda kell figyelnünk arra, hogy ne tekintsünk ezekre a rendszerekre önálló, saját szempontokkal, tapasztalatokkal és véleményekkel rendelkező teremtényekként. Ahhoz, hogy tájékozott döntéseket hozhassunk az ilyen jellegű AI rendszerek megbízhatósága és biztonságossága kapcsán, értenünk kell azt, hogy valójában hogyan is működnek.
Igen, a beszélő robotok, mint a ChatGPT tudnak megdöbbentően jól megfogalmazott szövegeket alkotni. Eme lenyűgöző készség ellenére valójában nem többek egy kifinomult papagájnál.
Szerintem ez a cikk nagyon tömören és velősen megfogalmazza a ChatGPT lényegét, egy dologgal azonban kiegészíteném ezt az egészet: Ez a cikk szigorúan ChatGPT-ről szól, nem a mesterséges intelligenciáról. A nyelvi modellek működésének logikája viszont hibátlanul le van írva a cikkben, és szerintem ha ezt az ember jól átgondolja, akkor talán annyira, húdenagyon mégsincs ok Skynet látomásokra emberi koponyákat összetaposó acélcsontikról.
A cikk eredeti nyelven itt érhető el:
https://nr.no/2023/04/20/er-chatgpt-en-klok-samtalepartner-eller-papegoye/
Megjegyzések
Megjegyzés küldése