DALL-E

2022.06.28. 14:45

Valósághű arcokat generálnak nem létező emberekről

Hamarosan nagyon furcsa dolgokat tapasztalhatunk a képgeneráló mesterséges intelligencia világában.

Az OpenAI gépi tanulási eszköze, a Salvador Daliról elnevezett DALL-E nagy port kavart azzal a képességével, hogy milyen bizarr képeket tud generálni szöveges utasításokból. Egy kép megalkotásához elegendő szövegesen leírni, hogy mit szeretnénk látni – mondjuk egy lovagoló űrhajóst, lásd híres borítóképünket – s DALL-E elkészíti a művet.

Mostanáig korlátozott módon, csak meghívásos alapon lehetett használni a programot, de a közelmúltban megváltoztatták az AI-modellezés felhasználási irányelveit.

Az OpenAI immáron megengedi, hogy megosszák nem létező emberekről készített fotórealisztikus képeket, írja a Vice.

Néhány művet már elkezdtek megosztani és azok elég furcsák.

A valósághű emberi arcok generálásának képessége mindenféle etikai kérdést felvet, még akkor is, ha azok nem létező személyekhez tartoznak.

Mesterséges intelligencia kutatók arra figyelmeztettek, hogy a DALL-E-hez hasonló, tömeges gépi tanulási rendszerek akár árthatnak az embereknek. Az OpenAI saját kutatói is elismerték, hogy a DALL-E gyakran produkál rasszista és szexista sztereotípiák alapján képeket, amikor bizonyos szavak szerepelnek a szöveges utasításokban. A Facebook és a Google mesterséges intelligencia fejlesztéseivel is hasonlóképpen jártak: az AI-t meglehetősen könnyű rosszra vinni.

Bár a fejlesztők állítják, mindent megtesznek, hogy ne lehessen visszaélni a programmal, valószínűleg még csak most kezdjük megismerni, mire képesek a DALL-E-hez hasonló nagy mesterséges intelligencia rendszerek – és hogy milyen károkat okozhatnak.

Borítókép: DALL-E

Hírlevél feliratkozás
Ne maradjon le a boon.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!

Ezek is érdekelhetik

Hírlevél feliratkozás
Ne maradjon le a boon.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!

Rovatunkból ajánljuk

További hírek a témában