Amióta megjelent a ChatGPT, a Google már nem osztja meg az AI-ról szóló tanulmányait

TECH

Februárban Jeff Dean, a Google mesterségesintelligencia-részlegének vezetője figyelemreméltó változást jelentett be a munkatársainak: vissza kell fogniuk a munkájuk megosztását a külvilággal. Dean évekig úgy vezette a részlegét, mint egy egyetemet, és arra ösztönözte a kutatókat, hogy akadémiai tanulmányokat publikáljanak; a Google Research szerint 2019 óta közel 500-at adtak ki.

Minden idők leggyorsabban terjedő appjának, az OpenAI úttörő ChatGPT-jének 3 hónappal korábbi elindítása viszont megváltoztatta a dolgokat. A San Franciscó-i startup lépést tartott a Google-lel azáltal, hogy elolvasta a csapat tudományos közleményeit – mondta Dean a vállalat kutatási részlegének negyedéves találkozóján. A transzformátorok – a legújabb AI-technológia és a ChatGPT utolsó betűjének alapvető része – valójában a Google egyik tanulmányából származnak.

Dean azt mondta, a dolgoknak változniuk kellett: a Google kihasználná saját AI-felfedezéseit, és csak azután osztaná meg a papírokat, hogy a laboratóriumi munkákból termékek készültek. Erről két névtelen forrás beszélt a Washington Postnak.

Fegyverkezési verseny

Az irányelv-módosítás a Google-on belüli nagyobb változás része. A régóta AI-piacvezetőnek tartott techóriás védekező üzemmódba lépett: egyrészt azért, hogy megvédje magát a fürge AI-versenytársak flottájától, másrészt azért, hogy megvédje alapvető keresési üzletágát, részvényárfolyamát és potenciális jövőjét, ami a vezetők szerint összefonódik az AI-val.

Sundar Pichai, a Google vezérigazgatója óvatosságra intett az AI-val kapcsolatban, áprilisban egy interjúban arról beszélt, hogy „társadalmi méretekben nagyon sok kárt okozhat” a technológia, amit valójában ő sem ért.

Márciusban filozófusok, fejlesztők, történészek és értelmiségiek nyílt levélben kérték a nagy techcégeket, hogy legalább 6 hónapra függesszék fel az új típusú intelligenciák fejlesztését, és előtte állapodjanak meg megfelelő biztonsági protokollok létrehozásáról.

De a jelek szerint nemhogy lassítanának, inkább gyorsul a piaci, sőt inkább fegyverkezési verseny. Az elmúlt hónapokban a Google felülvizsgálta az AI-műveleteit, hogy a termékeit gyorsabban piacra dobhassa – tudta meg a Washington Post tizenegy jelenlegi és korábbi Google-alkalmazottól.

Lejjebb engedték a lécet azelőtt is, hogy a kísérleti AI-eszközöket kisebb csoportoknak bevezethessék; új értékelési mérőszámokat és prioritásokat dolgoztak ki olyan területeken, mint a méltányosság; egyesítették a Google Braint (a Dean által irányított és a kutatók érdekei alapján kialakított szervezetet) a DeepMinddal, a rivális AI-fejlesztő egységgel, ami felülről lefelé fókuszálva igyekszik „felgyorsítani a mesterséges intelligencia terén elért fejlődésünket” – írta Pichai a közleményében.

Az AGI-t akarják

Az új részleget nem Dean fogja irányítani, hanem Demis Hassabis, a DeepMind vezérigazgatója. (A DeepMind egyesek szerint frissebb, keményebb márkával rendelkezik.) A hét eleji konferencián Hassabis azt mondta, hogy a mesterséges intelligencia potenciálisan közelebb van az emberi szintű intelligencia eléréséhez, mint ahogy azt a legtöbb AI-szakértő megjósolta. „Csak néhány évre lehetünk, talán egy évtizedre” – mondta.

Néhány napja – 10 év együttműködés után – távozott a Google-től a 75 éves Geoffrey Hinton, a mélytanulás úttörője, aki a modern AI-k középpontjában álló legfontosabb technikákat fejlesztette ki, és azt mondta: már bánja élete munkáját, de azzal vigasztalja magát, hogy ha ő nem csinálta volna meg, megcsinálja más. Max Tegmark, az MIT fizikaprofesszora az általános mesterséges intelligencia (AGI) kockázataira figyelmeztetve Geoffrey Hintontól azt idézte: „A közelmúltig azt hittem, 20-50 év múlva lesz AGI. És most azt gondolom, hogy ez 20 év vagy kevesebb, lehet, hogy csak 5 év.” Hogy milyen veszélyei vannak az AI-knak és az AGI-nak, azzal hosszú cikkben foglalkoztunk.

Pichai az OpenAI és a Microsoft vezérigazgatóival együtt csütörtökön találkozott a Fehér Ház illetékeseivel, miután a kormányzat jelezte, hogy a közvélemény aggódik, és a szabályozók világszerte próbálják keresni az új technológia szabályozásának lehetőségeit. (A Microsoft nemrég tömegével rúgta ki az AI-fejlesztés etikai részlegén dolgozó alkalmazottait.)

Az AI-fegyverkezési verseny kontroll nélkül folyik tovább, és ez háttérbe szorítja a cégek jogos aggodalmait is. A DeepMind társalapítója, Mustafa Suleyman, aki 2022-ben elhagyta a Google-t, azt mondta, a cégek azért nem óvatkoskodnak, mert nem akarják aláásni a meglévő üzleti modelljüket és elveszíteni a bevételi forrásaikat. „Csak akkor kezdenek felébredni, ha valódi külső fenyegetés van” – mondta.

Pichai azt állítja, „a haladás üteme gyorsabb, mint valaha”, és: „Az általános mesterséges intelligencia merész és felelősségteljes fejlesztésének biztosítása érdekében létrehozunk egy egységet, ami segít biztonságosabb és felelősségteljesebb rendszerek felépítésében.”

A Google egyik korábbi AI-kutatója úgy jellemezte a mostani elmozdulást, hogy a Google a „békeidőből” a „háborús időkbe” vált. A kutatások publikálása nagyban segíti az egész terület növekedését – írta egy áprilisi blogbejegyzésében Brian Kihoon Lee, a Google Brain kutatója, akit a vállalat januári tömeges elbocsátásakor építettek le. De amint a dolgok versenyképesebbé válnak, a számítások megváltoznak, „háborús módban az is számít, hogy a versenytársak tortájából mennyit növekszik” – mondta Lee.

„2018-ban létrehoztunk egy belső irányítási struktúrát és egy átfogó felülvizsgálati folyamatot – eddig több száz termékkörrel –, és ezt a folyamatot továbbra is alkalmazzuk a külsőleg bevezetett AI-alapú technológiákra” – mondta Brian Gabriel, a Google szóvivője, aki szerint „a felelős AI továbbra is a legfontosabb prioritás a vállalatnál”.

Illusztráció: JAKUB PORZYCKI/NurPhoto via AFP

Pichai és más vezetők egyre gyakrabban beszélnek az AGI lehetőségéről. A kifejezés – ami korábban ahhoz az elképzeléshez kapcsolódott, hogy a mesterséges intelligencia egzisztenciális kockázatot jelenthet az emberiségnek – központi szerepet játszik az OpenAI küldetésében, és a DeepMind is felkarolta, de a Google vezetői kerülték.

A kutatás szabadsága

A Google alkalmazottai között vannak, akik attól tartanak, az AI-val kapcsolatos ellentmondásos tanulmányokat – mint amilyen a Google Ethical AI csapatának vezetői, Timnit Gebru és Margaret Mitchell által 2020-ban publikált, a nagy nyelvi modellek (LLM) ártalmairól szóló tanulmány volt – el fogják hallgatni.

Mások viszont elismerik, hogy a Google az elmúlt évben számos vezető AI-kutatót elveszített az úttörő startupok miatt. Ennek az elvándorlásnak egy része az abból fakadó frusztrációból eredt, hogy a Google nem tett meg nyilvánvalónak tűnő lépéseket, például a chatbotok beépítését a keresésbe, amit a jogi és a jó hírnév sérelmei miatti aggodalmak hátráltattak.

A negyedéves találkozó élő közvetítésében Dean bejelentését kedvezően fogadták, azt remélve, hogy a változtatás segít a Google-nek visszaszerezni az előnyt. „Az OpenAI legyőzött minket a saját pályánkon” – mondta az egyik alkalmazott, aki részt vett a találkozón.

Egyes kutatók viszont most hallottak először a kutatások publikálásának korlátozásáról, de azoknak, akik a chatbotok technológiai magját képező LLM-eken dolgoznak, a dolgok égetőbbé váltak, mióta a ChatGPT berobbanásával a Google vezetői decemberben kiadták a vörös kódot az AI-ra összpontosítva.

Egy korábbi kutató szerint a tanulmányok jóváhagyása megkövetelheti a vezető munkatársakkal folytatott ismételt intenzív áttekintést. Sok tudós azzal az ígérettel kezdett dolgozni a Google-nél, hogy továbbra is részt vehet a területén folyó szélesebb körű kutatásokban. A Washington Post szerint most újabb kutatói kör távozott a publikálási korlátozások miatt.

A felelősség kérdése

A Bloomberg egyik jelentése szerint belső elégedetlenséget váltott ki a Google döntése, hogy kiadja az AI-chatbotját, a Bardot, és alacsonyabb szabványokat alkalmaz a kísérleti AI-termékek teszteredményeinél. Más alkalmazottak viszont úgy érzik, hogy a Google átgondolt munkát végzett, amikor megpróbált szabványokat kialakítani ezen a feltörekvő területen.

2023 elején a Google megosztott egy listát a Barddal kapcsolatos kb. 20 politikai prioritásról, amit két AI-csapat fejlesztett ki: a Responsible Innovation Team és a Responsible AI. Az egyik alkalmazott a szabályokat „észszerűen világosnak és viszonylag robusztusnak” nevezte. Mások kevésbé bíznak a pontokban, szerintük a nyilvánosságot jobban szolgálná a külső átláthatóság, például a képzési adatokon belüli dokumentálás vagy a modell megnyitása külső szakértők előtt.

A fogyasztók csak most kezdik megismerni az LLM-ek kockázatait és korlátait, például az AI hallucinációit. De El Mahdi El Mhamdi, a Google Research vezető tudósa, aki februárban lemondott a cég átláthatatlan AI-etikája miatt, azt mondta, a technológiai cégek felhasználhatták az AI-t arra, hogy más rendszereket úgy képezzenek ki, hogy az még az alkalmazottaknak is kihívást jelenthet.

Azt mondta: „Amikor a Google Fordítót és a YouTube-ot használom, már látom ezeknek a modelleknek és adatbázisoknak azt az ingadozását és instabilitását, ami csak a használatukkal magyarázható.”

Sok vállalat már bemutatta a problémákat a gyors fejlesztéssel és azzal, hogy a nagy közönségre ráeresztette a félkész eszközeit. Percy Liang, a Stanford professzora például azt mondta, hogy a ChatGPT kisbetűs felelősségkizárásai nem teszik egyértelművé az eszköz korlátait. Liang nemrég társszerzője volt egy tanulmánynak, ami olyan AI-kereső eszközöket vizsgált, mint az új Bing, és azt találta, hogy az idézeteknek csak kb. a 70 százaléka volt helyes.

A Google évek óta költ pénzt az AI-technológia fejlesztésére. A 2010-es évek elején kezdett AI-startupokat felvásárolni, és beépítette a technológiájukat a folyamatosan bővülő termékcsaládjába. 2013-ban Hintont, az AI-szoftver úttörőjét vette fel, akinek a tudományos munkája hozzájárult a technológia jelenlegi domináns termésének megalapozásához. Egy évvel később 625 millió dollárért megvásárolta a DeepMindot, amit Hassabis, egy másik vezető AI-kutató alapított.

Nem sokkal azután, hogy kinevezték a Google vezérigazgatójává, Pichai azt mondta, a Google „elsődlegesen AI-cég” lesz, és a technológiát minden termékébe integrálja. Az évek során a Google AI-kutatócsoportjai olyan úttörő eszközöket fejlesztettek ki, amik az egész iparág javára szolgáltak. Feltalálták a „transzformátorokat”: egy új típusú AI-modellt, ami nagyobb adathalmazokat képes megemészteni. Ez a technológia lett az alapja azoknak az LLM-eknek, amik most az AI körüli beszélgetést uralják, ideértve az OpenAI GPT3-ját és GPT4-ét is.

A folyamatos fejlődés ellenére végül a ChatGPT váltott ki szélesebb körű izgalmat az AI körül. Az OpenAI-t azért alapították, hogy ellensúlyt nyújtson a nagy techcégek uralmának, kevésbé ellenőrizték, mint a nagyobb riválisait, és hajlandóbb volt a legerősebb AI-modelljeit a lakosság kezébe adni.

A Google eddig ügyelt arra, hogy a Bard chatbotját és más új AI-termékeit kísérletekként jelölje meg. De egy több milliárd felhasználóval rendelkező cégnél még a kis léptékű kísérletek is emberek millióit érintik, és valószínűleg a világ nagy része a Google-eszközökön keresztül kerül kapcsolatba a generatív AI-val. A vállalat puszta mérete azt jelenti, hogy az új AI-termékek gyorsabb bevezetésére való átállás a szabályozók, az AI-kutatók és az üzleti vezetők széles körében aggályokat vált ki.

A Fehér Ház csütörtöki ülésére szóló meghívó emlékeztette a vezérigazgatókat, hogy Joe Biden elnök már „világossá tette azt az elvárásunkat, hogy az Önéhez hasonló cégeknek meg kell győződniük arról, hogy termékeik biztonságosak, mielőtt nyilvánosságra hozzák azokat”. (Washington Post)

Kapcsolódó cikkek

Max Tegmark: Arra kérem a szénsovinisztákat, hogy mondják meg, az AI milyen feladatokat nem lesz képes soha elvégezni

Az MIT fizikaprofesszora szerint az emberek ugyanolyan téves érvekkel bagatellizálják el a mesterséges intelligencia veszélyeit, mint a Don't Look Up című filmben a közelgő aszteroida fenyegetését.

Herczeg Márk
TECH

Ez még nem a világvége, de az eddig ismert világunknak vége

Minden egész eltörik, és a technológiai forradalom felfalja saját szüleit? Eljött a munka és a kapitalizmus vége, csak nem úgy, ahogy gondoltuk? Vagy ez evolúciós ugrás egy emberiség utáni disztópiába? Az AI után semmi sem marad olyan, amilyen volt.

Rényi Pál Dániel, Herczeg Márk
vélemény

A mesterséges intelligencia leleplezése: létezik, hogy egy akkora magyar, mint Orbán Viktor, nem ült még lóháton?

Megkérdeztem a ChatGPT-t, hogy lovagolt-e valaha Orbán, erre a gép megpróbált csúnyán átverni.

Herczeg Márk
INTERNET

Musk, Harari és Wozniak is kéri, hogy álljanak le minden nagyobb mesterséges intelligencia kísérlettel

A világ legokosabb emberei szerint a mesterséges intelligencia egyik feltétele a bizalom.

Solti Hanna
TECH

Már bánja élete munkáját, otthagyta a Google-t Geoffrey Hinton veterán AI-szakértő

Hogy nyíltan beszélhessen a kockázatokról. „A szokásos kifogással vigasztalom magam: ha én nem tettem volna, akkor valaki más megtette volna” – mondta a 75 éves fejlesztő New York Timesnak.

Herczeg Márk
TECH