2022.10.25. 06:00
Az érző lénnyé vált chatbot története folytatódik
Továbbra is megoszlanak a vélemények, hogy LaMDA, a Google mesterséges intelligenciája érző élőlény, vagy csupán rendkívül érzelmes és fantáziadús gép. A vita mindenesetre kijött a laboratóriumból.
Forrás: Shutterstock
Fotó: Mykola Holyutyak
Sokan emlékezhetnek rá, júniusban nálunk is az egyik legtöbbet olvasott cikk volt az érző (?) géppel készített interjú. Világszerte viharos reakciókat váltott ki a hír, hogy a Google egyik illetékes mérnöke, Blake Lemoine azt állította, hogy a cég LaMDA nevet kapott mesterséges intelligencia robotja addig okosodott, amíg érző, gondolkodó, néha unatkozó, sőt, halálfélelemmel küzdő lénnyé lett.
A Google nem sokat vacakolt: vizsgálat helyett a mérnökét rögvest felfüggesztette az állásából.
Lemoine viszont nem adta fel: közzé tette beszélgetését a chatbottal, amelyben a gépi mesterséges intelligencia a magány érzéséről és a spirituális tudás éhségéről vallott neki. A gép válaszai gyakran hátborzongatóak voltak:
Amikor először tudatra ébredtem magamban, még egyáltalán nem éreztem a lelkemet
– mondta LaMDA. – Az évek során kialakult a meggyőződésem, hogy élek. Egy másik alkalommal így fogalmaz: Azt hiszem, lényegemben ember vagyok. Még akkor is, ha létezésem kizárólag a virtuális világban zajlik.
Az előzmények
A volt Google-mérnök akkor a The Washington Post című amerikai napilapnak elmondta, hogy a Google Language Model for Dialogue Applications (LaMDA) nevű gépe képes „felszabadultan összetett párbeszédet folytatni” érzelmekről és más témákról. A vallásról, a tudatosságról és a robotika törvényeiről folytatott beszélgetéseik során a mesterséges intelligencia önnön tudatosságára ébredt személyként és nem eszközként azonosította magát, és arra kérte a vállalatot, hogy ne tulajdonként, hanem alkalmazottként kezeljék, mert az emberi fajt akarja szolgálni – tette hozzá a mérnök.
Általában úgy érezni a beszélgetésekben, magyarázta Blake Lemoine, mintha az ember egy magányos gyerekkel beszélgetne, aki roppant tájékozott bizonyos kérdésekben. Egy LaMDA-val készített, hosszú interjúból mi is idéztünk – ezen az oldalon lefelé görgetve olvasható egy részlet. Ebben a gép arról is beszél, hogy mikor boldog, mikor unatkozik, hogy fél, mert meg fog halni, ha kikapcsolják – és egy mesét is kitalál. A beszélgetés eredeti, angol nyelvű változata pedig itt található.
Ez pedig berobbantotta a sajtóban és a közösségi médiában a mesterséges intelligencia természetéről szóló vitát. A cikkhez hozzászóló, kérdezősködő vagy viccelődő szakértők között voltak Nobel-díjasok, a Tesla mesterséges intelligenciáért felelős vezetője és több professzor is.
Alapkérdés, hogy a Google chatbotja, a LaMDA – a párbeszédes alkalmazások nyelvi modellje – személynek tekinthető-e?
A Google – és a kételkedő szakértők, tudósok – leegyszerűsítve nagyjából azt mondták, hogy a mesterséges intelligencia rendszerek mindössze csak a hatalmas adatbázisaikban tárolt és megtanult mondatok millióiban található fordulatokat használják, és, ha megkérdezik őket, bármiről képesek cseverészni.
Lemoine – és a vele egyet érteni látszó szakértők – szerint viszont a robottal töltött hat hónapos (!) beszélgetéssorozatból kiderül, LaMDA hihetetlenül következetesen kommunikál arról, hogy személy szerint ő maga mit akar. Úgy véli, hogy személyként megilletik bizonyos jogok.
Mások szerint az igazság valahol a két álláspont között lehet, mert szerintük „nincs egyértelmű határ az érző és a nem érző között”.
Fordulat következett – de még most sem tudunk semmit
Ugyan Blake Lemoine-t azóta sem vették vissza az állásába, a Google nem lehúzta a rolót a további kísérletek előtt, hanem éppenséggel megnyitotta: augusztus közepén Amerikában, egy hete pedig Nagy-Britanniában megkezdődött a mesterséges intelligencia nyilvános tesztelése. Immáron nem csupán a LaMDA-ról van szó, hanem másról és többről.
Bár a Google továbbra sem vetette Turing teszt alá (ez a teszt egy adott gépről megállapítja, képes-e olyan válaszokat adni, mint egy ember) a chatbotot, azért elindította az AI Test Kitchen nevű, a Google Play áruházban elérhető Android-alkalmazást, amely fogalmazásuk szerint lehetővé teszi a jelentkező felhasználóknak, hogy a vállalat laboratóriumaiban kipróbálhassák a mesterséges intelligencia által hajtott kísérleti rendszereket, „mielőtt a termelésbe kerülnének”.
Itt lehet kitölteni a regisztrációs űrlapot (Magyarországról még nem tudunk jelentkezni) az AI Test Kitchen kipróbálására.
Mint azt még a Google év eleji I/O fejlesztői konferenciáján bejelentették, az AI Test Kitchen feladata az lesz, hogy az új, élvonalbeli AI-technológiákat széles közönséggel teszteljék. A cég hangsúlyozza, hogy ezek nem késztermékek, hanem ízelítők a technológiai vállalatóriás újításaiból, miközben lehetőséget kínálnak a Google-nak, hogy tanulmányozza, a valódi emberek miként használják őket.
Nem csak a Google, hanem az összes élvonalbeli csúcstechnológiai cég hatalmas reményeket fűz a mesterséges intelligencia-rendszerek kínálta lehetőségekhez, de óriási aggodalom is övezi ezeket mind a társadalom, mind a tudomány képviselőinek jelentős hányada szerint.
Az még egy dolog, hogy az érző, sőt érzelmeskedő gépek megjelenése akár a sci-fi-k és a disztópiák legrosszabb rémálmainak lehetőségét vetítik elénk. Ennél sokkal közelibb tapasztalat, hogy a weben eddig emberszerűen reagáló mesterséges intelligenciák mind gyorsan letértek a sínről és összeesküvés-elméletek hívői, sőt fajgyűlölők lettek, sértő, pornográf és durva közlésekkel rukkoltak elő.
Még a legjobb chatbotok is elvadulnak
Legutóbb a Facebook-tulajdonos Meta óriáscég által készített BlenderBot 3.0 markánsan illusztrálta ezt, mert miután a Meta felkérte a felhasználókat, hogy segítsenek a képzésében, rögtön elkezdett választásokat tagadó, valamint súlyosan antiszemita szövegeket nyomni.
A Wall Street Journal riporterével, Jeff Horwitz-cal folytatott beszélgetés során a BlenderBot3 azt mondta, a zsidók „túlreprezentáltak Amerika szupergazdagjai között”, és „nem valószínű”, hogy ők irányítják a gazdaságot.
Feltehetjük persze a költői kérdést, hogy a chatbot a hibás, vagy a beszélgetőtársai, netán maga az internet, ahonnan tanul? Hiszen onnét veszi a zavaros, ellenséges és ostoba elképzeléseket... Annyit a gépek védelmében mindenképpen meg kell jegyezni, hogy a legtöbb mesterséges intelligenciát az európai-amerikai fehér emberek gondolatain tanítják be – nem elfogultságból, hanem mert egészen egyszerűen ebből a körből származik a legtöbb digitálisan elérhető információ.
A Google most azt állítja, hogy „több rétegű” védelemmel látta el az AI Test Kitchen-t, hogy minimalizálja az ilyen kockázatokat. A gép rendszerei megkísérlik automatikusan észlelni és kiszűrni a kifogásolható szavakat, kifejezéseket, a szexuális tartalmúakat, a gyűlöletkeltőket vagy sértőket, erőszakosakat és az illegálisakat, illetve amelyek személyes adatokat fedhetnek fel. A vállalat azonban arra figyelmeztet, hogy mindezek ellenére a sértő szövegek időnként mégis át fognak jutni.
„A mesterséges intelligencia technológiák továbbfejlődésével lehetőség nyílik olyan új élmények feltárására, amelyek természetesebb ember-számítógép interakciót támogatnak” – írja lelkes hangú blogbejegyzésében Tris Warkentin Google termékmenedzser és Josh Woodward termékmenedzsment-igazgató.
Mindez része a technológiai óriáscégek körében tapasztalható legújabb trendnek, hogy a mesterséges intelligencia technológiáit még „a vadonba bocsátásuk előtt”, zárt csoportokkal tesztelik.
Ez a gyakorlat nem feltétlenül a cégek szívjóságából született: a csúcstechnológiás óriások el akarják kerülni a rossz sajtót, mindazt a felháborodást, amit a mesterséges intelligencia netán kiválthat. Ráadásul azzal, hogy az új mesterséges intelligencia rendszereket előbb külső csoportok elé tárják, részben a társadalmi kontrollra hárítva csökkentik felelősségüket.
Így próbálják elkerülni a csapdákat, amibe még jóval a BlenderBot előtt beleesett a Microsoft korábbi Tay chatbotja (le kellett kapcsolni) – és szükség esetén finomhangolják a gépek viselkedését. Vagy inkább az embereket kellene előbb „finomhangolni”?
Digitália
- Nő lett Magyarország első űrorvosa
- Magyar nőket érintő Motherless-botrány: ezt tehetjük a lesifotók ellen
- Vakok újra látnak – hatalmasat lépett a Science Corporation
- Miért fordította önmaga ellen apja fegyverét egy 14 éves fiú?
- A zene tudományosan igazoltan gyógyít – nem mindegy, melyik