Digitália

2024.08.29. 06:00

Íme, néhány világos példa, hogy miként NE használjuk a ChatGPT-t

Pár napja kirúgtak egy marketingest, mert páratlan zöldségeket írt össze egy cikkben. Az eset rávilágít a ChatGPT működésével kapcsolatos, széles körben elterjedt félreértésre.

Forrás: Shutterstock

Innen nézve talán apróságnak tűnik, hogy pár napja egy Eddie Egan nevezetű szerzőt rövid úton elbocsátottak, mert mesterséges intelligencia-eszközt, konkrétan ChatGPT-t használt Francis Ford Coppola rendező Megalopolisz című filmje előzetesének értékeléséhez.

Szegény marketinges pedig nem tett egyebet, mint hogy a ChatGPT segítségével úgymond „kutatta” a kritikákat a filmelőzeteshez: az így készült írásmű azonban sajnos meg is jelent.

Mint a Deadline rámutat, a cikk tele van rendkívül kritikus idézetekkel a rendező korábbi munkáiról. Ami nem lenne baj, csak kiderült, hogy az idézett – és tényként említett – szövegeket soha senki nem írta le, hanem a mesterséges intelligencia találta ki.

Eddie Egan neves filmkritikusokat „idézett”, mint Pauline Kael a The New Yorkertől és Andrew Sarris a The Village Voice-tól, akik állítólag az olyan klasszikus darabokat, mint a Keresztapa, „öntörvényűnek”, az Apokalipszis most filmet pedig „kínos szemétnek” nevezték.

Viszont az említettek a valóságban soha nem írtak erről ilyen csípős véleményeket... Éppen ellenkezőleg, a neves kritikusok kifejezetten csodálták ezeket a filmeket. A Lionsgate elnézést kért a tévedésért, eltávolította az előzetest és kirúgta Egant.

Miért is baj, ha csupán a ChatGPT-vel fogalmaztatunk? Nem csak filmkritikát

Mert a mesterséges intelligencia modellek szavakat generálnak, nem tényeket.

Ez az eset jól mutatja, milyen könnyen lehet tévedni ChatGPT-vel és hozzá hasonló MI-rendszerekkel, ha nem értjük a hátterüket. Az ilyen eszközöket működtető, úgynevezett Large Language Models (LLM, nagy nyelvi modell) matematikai és nyelvi valószínűségek alapján állítja elő a mondatait, amelyeket a felhasználó utasításai befolyásolnak. Az eredményül kapott mondatok lehetnek nagyon pontosak, lehetnek bennük apró csacsiságok vagy teleálmodhatják blőd kitalációkkal – ezek a modellek nem rendelkeznek beépített tényellenőrző képességekkel. Ha mondjuk kritikus véleményeket kérünk tőlük, szívélyesen generálnak néhányat – ha akad olyan a valóságban, ha nem.

Nem a figyelmetlen marketinges az első: mások is bedőltek a chatbotok nyelvileg rendkívül logikusnak tűnő mondatainak.

Ismert eset Steven A. Schwartz ügyvédé, aki egy peres ügyben a ChatGPT-t bevetette kutatásra. Nem tudta, hogy az MI-rendszer hamis tartalmat generálhat (angol kifejezéssel: hallucinálhat), és az egyébként teljesen logikusnak tűnő érvelést elhitte.

Egy másik alkalommal ügyvédek a ChatGPT segítségével találtak és idéztek is a bíróságon olyan referenciaeseteket, amelyekről kiderült, hogy csupán a mesterséges intelligencia agyszüleményei. A bíró némi iróniával arra kérte őket, hogy inkább olvassanak „régimódi olvasmányokat”.

Sokan nem értik még a generatív mesterséges intelligencia működését. Ezek a példák arra figyelmeztetnek, hogy a ChatGPT (Bing, Gemini, Claude és társai) közléseit nem szabad további, gondos ellenőrzés nélkül használni.

Hírlevél feliratkozás
Ne maradjon le a boon.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!