Úgy még a Skynetből sem lesz semmi, ha az egész modell még a világhódítás előtt összeomlik.
A kutatók arra figyelmeztetnek, hogy a mesterséges intelligencia (MI) rendszerek értelmetlen eredményeket produkálhatnak, méghozzá ironikus mód épp azért, mert az internet egyre inkább mesterséges intelligencia által generált tartalommal telítődik. A hírről a The Independent számolt be. A jelenség, amelyet “modellösszeomlásnak” neveznek, alááshatja az olyan rendszerek hatékonyságát és megbízhatóságát, mint például az OpenAI ChatGPT-je.
A szöveggeneráló mesterséges intelligenciák elterjedése az általuk létrehozott online tartalom növekedéséhez vezetett. Ezeket az MI-eszközöket az őket fejlesztő vállalatok gyakran internetes forrásokból származó szövegekkel tanítják be, ami visszacsatolási hurkot hoz létre. Hála azonban az egyre növekvő, MI-generált tartalomnak, a mesterséges intelligencia immár a saját kimenetén alapulva tanul. Azonban így az eddig bevált visszacsatolásos tanulási modell gyorsan ronthatja az MI által generált tartalom minőségét, ami még tovább rontja a modell működését, és ami végül teljesen értelmetlen eredményekhez vezethet.
A modellösszeomlás alapja, hogy ahogy a mesterséges intelligencia folyamatosan adatokat állít elő, amelyeket aztán újra felhasználnak a továbbképzéshez, a ritkábban előforduló adatelemek fokozatosan “elpárolognak”. Emily Wenger kutató egy analógiával magyarázta ezt: ha egy mesterséges intelligencia-rendszert különféle kutyafajták képeivel képeznek ki, de az adathalmaz kezdetben több golden retrievert tartalmaz, a következő képzési ciklusok egyre inkább a golden retrieverekre fognak összpontosítani, míg végül teljesen figyelmen kívül hagyják a többi fajtát.
A modellösszeomlásnak nevezett jelenség eddig is ismert volt, kérdés azonban, hogy mennyire égető a probléma? Egy, a Nature folyóiratban publikált tanulmány szerint eléggé.
A friss tanulmányból ugyanis kiderült például, hogy egy középkori építészetről szöveget generáló mesterséges intelligenciarendszer mindössze kilenc generációs rekurzív képzés után ismétlődő és irreleváns listákat állított elő.
Ez a hatás a nagy nyelvi modelleknél is megfigyelhető, mint például a ChatGPT és a Google Gemini. A kutatók olyan megoldásokat javasolnak, mint a mesterséges intelligencia által generált tartalom vízjelezése, hogy kiszűrjék azokat a képzés során. Az ilyen intézkedések hatékonysága azonban kérdéses, mivel a vízjelek könnyen eltávolíthatók, és a mesterséges intelligencia vállalatok gyakran ellenállnak bármiféle, az együttműködésre tett próbálkozásnak.
Mindez azonban egy másik következménnyel is jár: azok a korai MI-vállalatok kerülhetnek versenyelőnybe, amelyek rendelkeznek korábbi, ember által generált adatokkal – az ő MI-rendszereik ugyanis könnyebben őrzik meg a minőségüket, mint azok a cégek, amelyek a modelljeiket immár egy MI-től erősen szennyezett interneten próbálják betanítani.