2024. november 22. (péntek) 14:15

Hazug chatbotok

ai

A Big Tech és a mesterséges intelligencia kutatói azon fáradoznak, hogy megoldják a mesterséges intelligencia „hallucinációit” – írta a The Washington Post.

Nemrég a kutatók megkérdezték az OpenAI ChatGPT mesterséges intelligencia chatbotjának két változatát, hogy a Massachusetts Institute of Technology professzora, Tomás Lozano-Pérez hol született. Az egyik bot azt írta, hogy Spanyolországban, a másik pedig azt, hogy Kubában. Miután azt kérték a robotoktól, hogy vitassák meg a válaszokat, az, amelyik azt mondta, Spanyolország gyorsan bocsánatot kért, és egyetértett a helyes kubai választ adóval.

Ausztráliában egy kormánytisztviselő perrel fenyegette meg az OpenAI-t, miután a ChatGPT azt mondta, hogy vesztegetésért ítélték el, holott a valóságban bejelentő volt egy vesztegetési ügyben. A New York Times szerint a múlt héten egy ügyvéd elismerte, hogy a ChatGPT-t használta jogi nyilatkozat elkészítésére, miután elkapták, mert a bot által olyan magabiztosan idézett esetek egyszerűen nem léteztek.

Mindezek miatt az MIT kutatóinak egy csoportja a múlt héten közzétett tanulmányukban a kutatók azt javasolták, hogy különböző chatbotokat használjanak arra, hogy ugyanarra a kérdésre több választ is adjanak, majd hagyják őket vitázni egymással, amíg az egyik válasz nyer. A kutatók azt találták, hogy ezzel a módszerrel tényszerűbbé tették őket.

„A nyelvi modelleket arra tanítják, hogy megjósolják a következő szót” – mondta Yilun Du, az MIT kutatója, aki korábban az OpenAI kutatója volt, és a tanulmány egyik szerzője. Az eredmény olyan botok, amelyek válaszokat találnak ki ahelyett, hogy beismernék, hogy valamit egyszerűen nem tudnak.

A „generatív” chatbotok, például az OpenAI ChatGPT-je, a Microsoft Bingje és a Google Bardja az elmúlt hat hónapban a képességek hihetetlen ugrásszerű fejlődését mutatták be, de még mindig van egy komoly végzetes hibájuk: állandóan kitalálnak dolgokat.

Amikor a Microsoft elindította Bing chatbotját, gyorsan elkezdett hamis vádakat felhozni egyes felhasználók ellen, például azt mondta egy német főiskolai hallgatónak, hogy veszélyt jelent a biztonságára. A bot felvett egy alteregót, és „Sydney”-nek kezdte nevezni magát. Ezzel lényegében a diák kérdéseire reagált, felhasználva mindazokat a tudományos-fantasztikus filmeket, amelyeket az internetről szerzett be a kontrollálhatatlan robotokról. A Microsoftnak végül korlátoznia kellett az oda-vissza interakciók számát, amelyeket egy bot az emberrel folytathat, hogy ne forduljon elő több ilyen eset.

A hallucinációk problémájának javítására irányuló törekvés okkal sürgős

Sok technológiai dolgozó, kutató és mesterséges intelligencia-szkeptikus keresi a megoldást, hogyan lehet megelőzni vagy orvosolni azt, amit a szakterületen „hallucinációnak” neveznek. A problémát több tucat, az Arxiv online adatbázisban közzétett tudományos cikk említi, és a Big Tech vezérigazgatói, például a Google Sundar Pichai, többször is foglalkoztak vele. Ahogy a technológiát emberek millióihoz juttatják el, és beépülnek olyan kritikus területekre, mint az orvostudomány és a jog, a hallucinációk megértése és azok enyhítésének módjainak megtalálása még fontosabbá válik.

A cégek egyre inkább a dolgozók helyett vagy segítésére kezdik bevezetni őket. A hónap elején az OpenAI vezérigazgatója, Sam Altman a Kongresszuson azt vallotta, hogy a mesterséges intelligencia „jelentős károkat okozhat a világban” a dezinformáció terjesztésével és az emberek érzelmi manipulálásával. Mivel a “hallucinációk” még nincsenek orvosolva, sok szakember jelezte, hogy komoly kiberbiztonsági kockázatot jelent a dolgozók teljes lecserélése.

„A terepen még senki sem oldotta meg a hallucinációval kapcsolatos problémákat. Minden modellnél felmerül ez a probléma” – mondta Pichai a CBS-nek adott áprilisi interjújában. Az, hogy egyáltalán megoldható-e, „heves vita tárgya” – mondta.

Hiszen a hallucinációk azok, amiktől a robotok kreatívak és hihetetlen történeteket tudnak kreálni. Ha egy embert arra kérünk, hogy írjon egy verset, vagy életrajzi adatokat kérünk tőle, el tudja dönteni melyiknél kell tényekhez ragaszkodnia és hol használhatja a fantáziáját. Ezzel szemben a mesterséges intelligencia nincs ennek tudatában.

„Nincs benne semmi, ami azt mondaná a modellnek, hogy bármit is mond, annak igaznak kell lennie a világon” – mondta Ece Kamar, a Microsoft vezető kutatója. Maga a modell is meghatározott mennyiségű adaton edz, így bármi, ami a képzés után történik, nem befolyásolja a világról alkotott tudását, mondta Kamar.

Manakul és cambridge-i kutatók egy csoportja márciusban kiadott egy tanulmányt, amelyben egy általuk „SelfCheckGPT” elnevezésű rendszert javasol, amely többször is feltesz ugyanannak a botnak egy kérdést, majd felszólítja, hogy hasonlítsa össze a különböző válaszokat. Ha a válaszok konzisztensek voltak, akkor valószínűleg a tények helyesek voltak, de ha eltérnek, akkor  valószínűleg kitalált információkat tartalmaznak.

„Javítani fogunk rajta, de soha nem fogunk megszabadulni tőle” – mondta a hallucinációk problémájáról Geoffrey Hinton, akinek több évtizedes kutatása segített megalapozni az AI chatbotokat. Egészen a közelmúltig a Google-nál dolgozott, de kilépett, hogy többet beszéljen nyilvánosanan azokról az aggodalmairól, hogy a technológia ne kerüljön ki az emberi irányítás alól. „Mi mindig ilyenek leszünk, és ők is ilyenek lesznek.

Még több tudomány…