Amikor az organikus hülyeség találkozik a 300 milliárd szót ismerő papagájjal

 Tegnap a munkahelyem bejáratánál figyelmes lettem egy céges logóra a falon. Norsk Regnesentral. Angolul ez Norwegian Computing Center. Magyarul...Norvég számítási központ? Erre a computingra sosem találtam szép magyar megfelelőt. Mindegy...tehát egy helyen dolgozom egy ilyen fontos intézménnyel, de mégse tudok róla semmit. Gyors rá is kerestem a telefonomon, és megszemléltem magamnak a weboldalukat. Nem kifejezetten szép, ellenben a tartalom elég izgi. Amellett, hogy rengeteg érdekes kutatásban vesznek részt, van egy blogjuk is, és ezen a blogon megpillantottam egy cikket, ami annyira megtetszett, hogy lefordítottam egy-az-egybe magyarra. ChatGPT-ről van szó, és az azt körülvevő hülyeségáradatra, ami csőstül jön a médiából. Remélem a cikk eljut olyanokhoz, akik esetleg rettegnek Arnold Schwarzeneggertől, HAL 9000-től, Roy Battytől és társaiktól, tehát a nagy mesterséges gondolkodóktól. A cikk szerzői Pierre Lison, senior Machine Learning és nyeltechnológia kutató a már említett Norvég számítási központnál, és az Osloi egyetemen, valamint Ingrid Lossius Falkum, aki az Osloi egyetem nyelvészeti- és kommunikációfilozófiai docense.



Könnyű azt hinni, hogy a ChatGPT egy tudatos, gondolkodó teremtmény, vagy

egyfajta sziliciumba öntött, feljavított verziója az emberi agynak. De nem

így van.


Arthur C. Clarke brit science-fiction író (2001: Űrodüsszeia,Randevú a rámával stb)

már 1962-ben megjegyezte hogy "minden kellően fejlett technológia megkülönböztethetetlen

a mágiától". Aligha volt az idézet  valaha aktuálisabb mint most a ChatGPT, a legújabb mesterséges

intelligencia alapú beszélő robot kapcsán, mely magával ragadta az egész világot.


Az OpenAI által fejlesztett, mesterséges intelligencia vezérelte program látszólag képes

mindenféle kérdésre válaszolni, kezdve szakmai kérdesektől egészen élelmiszerreceptekig és

celebtémákig, és teszi mindezt szépen megfogalmazott mondatokkal. Ezzel párhuzamosan aggódalmat

váltott ki a tanárok körében, akik félnek, hogy a diákjaikat segíti majd elcsalni a beadandóikat.


Amikor az ember ilyen lenyűgöző képességeket lát, könnyen kezelheti a beszélő robotot tudatos,

gondolkodó lényként, vagy amolyan szilícium alapú, feljavított emberi agyként. De nem így van.

A legpontosabb szó a ChatGPT kulisszák mögötti működésének leírására a "találgatás" lenne a legmegfelelőbb.Megmagyarázzuk.


Egy tippgép


A ChatGPT magja egy nyelvi modell, tehát egy mesterséges intelligencia rendszer, amit szövegek

generálására készítettek. A nyelvi modellek nagy ideghálózatokon alapulnak, amelyek több

milliárd kicsi számítóegységből, vagy neuronból állnak, melyek egymással összeköttetésben vannak.

Ezeket a modelleket lehet "edzeni" a betáplált adatokkal, ami azt jelenti, hogy automatikusan korrrigálják számitásaikat

és így a rendszer outputját is.


Amikor a beszélő robottal "beszélgetünk", nehéz elkerülni azt az élményt, hogy valakivel társalgunk.

Ezért eshet meg könnyen az, hogy olyan képességeket tulajdonítunk neki, amelyeket valójában

nem birtokol, és ennek tükrében értelmezzünk az általa kibocsátott outputot.


Napjaink nyelvi modelljeit hatalmas mennyiségű szöveges adattal edzenek (a ChatGPT esetében

ez több mint 300 milliárd szó), melyet egy széles spektrumú netes forrásból szednek össze,

kezdve a wikipediától, a digitalizált könyveken át az újságcikkekig és netes forumokig. Ezzel

az alappal a modellnek összesen egy egyszerű feladatot kell teljesíteni:


Egy adott sorozat szó esetén ki kell találnia mi lesz a következő szó. És a következő - míg a 

szöveg el nem készül.


Első ránézésre ez egy elég értelmetlen gyakorlatnak tűnhet. De kellő mennyiségő edzőadattal

felvértezve a modell képes kérdésekre válaszolni. A kérdést először szöveggé kell alakítani,

amit ki kell tölteni, például:


Diák: Mekkora hőmérsékleten kezd a víz forrni?


Tanár: <kitöltendő mező>


Ezután a nyelvi modell felhasználható arra, hogy kiszámolja a valószínű válaszokat a tanár

kitöltendő mezejébe, például "Azt hiszem a víz 100 fokon forr" vagy "A légnyomástól függ".


A nyelvi modell számára a válasz nem több mint egy sor betű, melyeket a valószínűség tart össze.

Ő sosem "élte át" a víz vagy a meleg élményét és ezáltal semmi köze sincs az igazsághoz..

Tisztán statisztikai szabályszerűségeket, nem pedig valós tartalmat tanul a beszélő robot.


A válaszadás folyamata tehát teljesen más, mint az emberek számára. Nekünk ugyanis

az olyan szavak mint pl "víz" vagy "forr" valós, fizikai jelentést hordoznak magukban

a társalgáson kívül is.


A nyelvi modellek tehát nem próbálnak meg gondolkodni a válaszon, pusztán

ki akarják tölteni a válaszmezőt egy olyan válasszal, ami a leginkább hasonlít

arra a szövegre, amivel a modellt korábban edzették. Gyakran ez meglepően jól működik

de semmiképp nem összekeverendő ez az emberi gondolkodással.


Okos Hans, a ló, aki tudott matekozni


Nem ez az első alkalom az emberi történelemben, hogy hagyjuk magunkat átverni

olyan teremtmények által, melyek megingatják elképzeléseinket az intelligenciáról.

A kora huszadik században nagy nyilvánosságra tett szert egy német ló egész Európában.

"Okos Hans" ugyanis aritmetikai számításokat tudott megoldani és különféle intellektuális

feladatokra (többek közt szövegolvasásra) tudott választ adni a patájával trappolva. Később

bebizonyosodott, hogy a ló viselkedésének semmi köze nem volt a kapott feladatokhoz, pusztán

a ló edzőjének testbeszédéből fakadó jelekre reagált.


A jelenséget később "Okos-Hans hatásnak" nevezték és tisztán párhuzamba állítható napjaink

ChatGPT jelenségével: Okos Hans intellektuális feladatokat oldott meg úgy, hogy talált

egy rövidítő utat úgy, hogy egyéb "jeleket" vett igénybe, ebben az esetben a mellette álló

 edzője testbeszédét.


Ez eléggé hasonlít a nyelvi modellekre, amelyek szöveget generálnak nekünk, úgy hogy felismernek 

 és kiválasztanak nyelvi jeleket nagy szöveggyűjteményekben, anélkül hogy értelmeznék

a kommunikációs küldő fél célját, vagy meghatároznák a beszélgetést egy a világról alkotott

közös élményen, ahogy azt mi, emberek automatikusan tesszük.


Valóban beszélünk a ChatGPT-vel?


Van egy belső tendenciánk, hogy emberi tulajdonságokkal ruházzunk fel egyéb lényeket. Egy csecsemő életének első évében már képes mások szándékait felismerni és elválaztani a racionális viselkedési mintákat az irracionálisaktól.


Egy 2000-es években készült tanulmányban kutatók kimutatták, hogy amikor egy egy éves gyermek azt látta, hogy egy felnőtt egy lámpakapcsolót a kezei helyett a fejével próbál felkapcsolni, akkor csak abban az esetben próbálta meg utánozni a felnőtt viselkedését, ha amögött racionális magyarázatot vélt felvedezni, például azt, hogy a felnőtt kezei épp tele voltak.


A mások szándékát felismerő képességünk központi szerepet játszik a nyelvértelmezésben és közel automatikusan racionalitást kölcsönzünk beszélő és cselekvő lényeknek, miközben tudjuk, hogy ilyesmiről nincs szó. Az ilyen jellegű antropomorfizmus nem csak okos Hans esetében jellemző ránk, hanem a mesterséges intelligencia vezérelte ChatGPT kapcsán is.


Amikor "beszélünk" a beszélőrobottal, nehezen tudunk elvonatkoztatni az érzéstől, hogy valakivel ténylegesen társalgunk. Ebből következően könnyen tulajdonítunk neki

olyan tulajdonságokat és készségeket, amelyeket valójában nem birtokol, és ennek tükrében tolmácsoljunk az információt melyet prezentál nekünk. Erre még rásegít, hogy mind a média, mind a gyártók folyamatosan arról mesélnek nekünk, hogy mit "vélnek", "gondolnak", "éreznek" a mesterséges intelligencia rendszerek.


Oda kell figyelnünk arra, hogy ne tekintsünk ezekre a rendszerekre önálló, saját szempontokkal, tapasztalatokkal és véleményekkel rendelkező teremtényekként. Ahhoz, hogy tájékozott döntéseket hozhassunk az ilyen jellegű AI rendszerek megbízhatósága és biztonságossága kapcsán, értenünk kell azt, hogy valójában hogyan is működnek.


Igen, a beszélő robotok, mint a ChatGPT tudnak megdöbbentően jól megfogalmazott szövegeket alkotni. Eme lenyűgöző készség ellenére valójában nem többek egy kifinomult papagájnál.


Szerintem ez a cikk nagyon tömören és velősen megfogalmazza a ChatGPT lényegét, egy dologgal azonban kiegészíteném ezt az egészet: Ez a cikk szigorúan ChatGPT-ről szól, nem a mesterséges intelligenciáról. A nyelvi modellek működésének logikája viszont hibátlanul le van írva a cikkben, és szerintem ha ezt az ember jól átgondolja, akkor talán annyira, húdenagyon mégsincs ok Skynet látomásokra emberi koponyákat összetaposó acélcsontikról.

A cikk eredeti nyelven itt érhető el:
https://nr.no/2023/04/20/er-chatgpt-en-klok-samtalepartner-eller-papegoye/

Megjegyzések