Mióta az OpenAI a ChatGPT-t a világra szabadította, láttuk, hogy olyan embereket visz el, akiket el sem hinne. Vannak, akik azt állították, hogy a chatbotoknak felébredt a programjuk. Chris Murphy amerikai szenátor a Twitteren azt írta, hogy a ChatGPT „megtanított” magának haladó kémiát. Még tapasztalt technológiai újságírók is írtak történeteket a működéséről A chatbot beleszeretett beléjük. Úgy tűnik, mintha a világ ugyanúgy reagálna az MI-re, mint a barlanglakók, amikor először láttak tüzet: teljes zavarodottsággal és összefüggéstelen fecsegéssel.
Az egyik legfrissebb példa innen származik 60 perc, aki a CBS vasárnapján sugárzott új epizóddal dobta ringbe a hangját, amely a mesterséges intelligencia innovációira fókuszál. Az epizód interjúkat tartalmazott Sundar Pichai-val, a Google vezérigazgatójával, és megkérdőjelezhető tartalmat is tartalmazott. Állítások a vállalat egyik nagy nyelvi modelljével (LLM) kapcsolatban.
A szegmens a felbukkanó viselkedésről szól, amely egy mesterséges intelligencia-rendszer olyan váratlan mellékhatásait írja le, amelyekre nem feltétlenül gondoltak a modell fejlesztői. Más közelmúltbeli AI-projektekben már láthattunk feltörekvő viselkedést. Például a kutatók a közelmúltban a ChatGPT-t használták digitális személyiségek létrehozására célokkal és háttérrel egy múlt héten online közzétett tanulmányban. Megjegyzik, hogy a rendszer különféle feltörekvő viselkedéseket hajt végre, például új információkat oszt meg egyik szereplőtől a másikhoz, sőt kapcsolatokat is alakít ki egymással – amit a szerzők eredetileg nem terveztek a rendszerben.
A kialakuló viselkedés minden bizonnyal érdemes megvitatni egy hírműsorban. hol van a 60 perc A videó azonban fordulatot vesz, amikor olyan állításokról értesülünk, hogy a Google chatbotja valóban képes volt megtanítani magának egy olyan nyelvet, amelyet korábban nem tudott, miután megkérdezték az adott nyelven. „Például egy Google mesterséges intelligencia program magától adaptálódott, miután azt a bangladesi nyelven kellett megtennie, amelyet nem képeztek ki” – mondta Scott Pelley, a CBS News riportere a videóban.
Kiderült, hogy teljes BS volt. A robot nemcsak hogy nem tudott megtanulni egy idegen nyelvet, amelyet „soha nem képezett ki”, hanem soha nem tanított meg magának új készségeket. Az egész klip arra késztette a mesterséges intelligencia kutatóit és szakértőit, hogy kritizálják a hírműsor félrevezető keretezését a Twitteren.
„Bízom benne, hogy néhány újságíró áttekinti a teljes @60Minute szegmenst a Google Bard-on, mint esettanulmányt arról, hogyan lehet *nem* lefedni a mesterséges intelligenciát” – mondta Melanie Mitchell, a mesterséges intelligencia kutatója és a Santa Fe Institute professzora. – írta egy tweetben.
„Hagyd abba a varázslatos gondolkodást a technológiáról! Az #AI nem tud bengáli nyelven válaszolni, kivéve, ha a képzési adatokat bengálival szennyezték, vagy olyan nyelven tanítják, amely átfedésben van a bengálival, például asszámi, orija vagy hindi nyelven” Alex O. a Massachusetts Institute of Technology kutatója, Egy másik bejegyzésben hozzáadva.
Nem ér semmit 60 perc A klipből nem derült ki, hogy pontosan milyen AI-t használtak. A CBS szóvivője azonban azt mondta a The Daily Beastnek, hogy ez a szegmens nem a Bard megvitatása, hanem egy különálló mesterséges intelligencia program, a PaLM – amelynek alaptechnológiáját később integrálták a Bardba.
Az ok, amiért ez a rész annyira frusztráló ezeknek a szakértőknek, hogy figyelmen kívül hagyja és játszik a valósággal, hogy mire képes a generatív mesterséges intelligencia. Nem tud „megtanítani” magának egy nyelvet, ha eleve nem fér hozzá. Ez olyan lenne, mintha megpróbálnád megtanulni magad mandarinul, de csak azután hallottad, hogy egyszer valaki megkérdezte tőled, hogy mandarinul.
Végül is a nyelv hihetetlenül összetett – olyan árnyalatokkal és szabályokkal, amelyek megértéséhez és kommunikációjához hihetetlen mértékű kontextusra van szükség. Még a legfejlettebb LLM sem tudja kezelni és megtanulni mindezt néhány felszólítással.
A PaLM már tanult bengáli nyelven, Banglades domináns nyelvén. Margaret Mitchell (nincs kapcsolat), az AT HuggingFace Startup Lab kutatója, korábban a Google munkatársa ezt magyarázta Tweet téma Mondjon érvet a miértre 60 perc tévedett.
Mitchell megjegyezte, hogy egy 2022-es demonstráción a Google megmutatta, hogy a PaLM képes bengáli nyelven kommunikálni és válaszolni a felszólításokra. a Papír a PaLM mögött Egy adatlapból kiderült, hogy a modellt valójában a bengáli ábécé körülbelül 194 millió szimbólumát tartalmazó nyelvre tanították.
Tehát varázsütésre nem tanult meg semmit egyetlen felszólítással. Már tudta a nyelvet.
Nem világos, hogy Pichai, a Google vezérigazgatója miért ült le az interjúra, és hagyta, hogy ezek a vádak ellenkezés nélkül folytatódjanak. (A Google nem válaszolt a megjegyzéskérésekre.) Az epizód sugárzása óta hallgat annak ellenére, hogy a szakértők rámutattak a klipben szereplő félrevezető és hamis állításokra. A Twitteren Margaret Mitchell Javaslat Ennek hátterében az állhat, hogy a Google vezetői nem ismerik termékeik működését, és az is, hogy lehetővé teszi a rossz üzenetek terjesztését a generatív mesterséges intelligencia körüli jelenlegi felhajtás kezelése érdekében.
„Gyanítom [Google executives] Szó szerint nem értem, hogyan működik, Mitchell csipog. „Amit fent írtam, az nagy valószínűséggel hír számukra. És arra késztetik őket, hogy ne értsék meg (HA SZEMEZD EZRE AZ ADATLAPRA!!).”
A videó második fele szintén problematikusnak tekinthető, mivel Pichai és Billy egy Bard által készített novellát beszélnek meg, amely „nagyon emberinek hangzott”, így a két férfi kissé megrendült.
Az igazság az, hogy ezek a termékek nem varázslatosak. Képtelenek „emberek” lenni, mert nem emberek. Szöveg-előrejelzők, mint a telefonján lévők, és arra van kiképezve, hogy a legvalószínűbb szavakat és kifejezéseket találja ki a szavak sorozata után. Ha azt mondják, hogy léteznek, az olyan szintű hatalmat adhat nekik, amely hihetetlenül veszélyes lehet.
Végül is a felhasználók használhatják ezeket a generatív mesterséges intelligencia rendszereket például téves információk terjesztésére. Láttuk már, hogy ez manipulálja az emberek képmásait, sőt a hangjukat is.
Még egy chatbot önmagában is árthat, ha elfogult eredményeket produkál – ezt már láthattuk a ChatGPT és a Bard esetében. Ismerve ezeknek a chatbotoknak a hallucinációra és az eredmények kitalálására való hajlamát, képesek lehetnek téves információkat terjeszteni a gyanútlan felhasználók felé.
A kutatások is ezt támasztják alá. Egy friss tanulmány kirakott Tudományos jelentések Úgy találta, hogy az etikai kérdésekre adott emberi válaszokat könnyen befolyásolhatják a ChatGPT érvei – és még azt is, hogy a felhasználók nagymértékben alábecsülték, mennyire hatnak rájuk a botok.
Félrevezető állítások kb 60 perc Valójában ez csak egy tünete a digitális írástudás iránti nagyobb igénynek, amikor a legnagyobb szükségünk van rá. Sok mesterséges intelligencia-szakértő szerint most minden eddiginél jobban eljött az idő, amikor az embereknek tisztában kell lenniük azzal, hogy a mesterséges intelligencia mire képes és mit nem. Ezeket az alapvető tényeket a robotikáról hatékonyan kell közölni a szélesebb nyilvánossággal is.
Ez azt jelenti, hogy a legnagyobb platformokkal és a leghangosabban megszólaló embereket (azaz a médiát, a politikusokat és a Big Tech vezérigazgatóit) viselik a legnagyobb felelősség a biztonságosabb és képzettebb mesterséges intelligencia jövőjének biztosításában. Ha nem tesszük, akkor a fent említett barlanglakókhoz hasonlóan a tűz varázslatával játszhatunk – és közben megéghetünk.
More Stories
Fekete mítosz: A Wukong 1.0.8.14860 frissítés néhány fontos javítást tartalmaz, és különösen egy főnököt gyengít
A Castlevania Dominus Collection fizikai megjelenése megerősítve, az előrendelések a következő hónapban indulnak
Az iPhone 16 még nem jelent meg, és valójában van miért várni az iPhone 17 megjelenéséig