Az Anthropic három kínai AI fejlesztő céget vádol azzal, hogy több mint 24 000 hamis fiókot hoztak létre a Claude AI modelljük működésének lemásolása érdekében

A laboratóriumok – a DeepSeek , a Moonshot AI és a MiniMax – állítólag több mint 16 millió üzenetváltást generáltak Claude-dal ezeken a fiókokon keresztül egy „desztillációnak” nevezett technika segítségével. Az Anthropic szerint a laboratóriumok „Claude legkülönlegesebb képességeit célozták meg: az ágensi gondolkodást, az eszközhasználatot és a kódolást”.

A vádak a fejlett mesterséges intelligencia chipek exportellenőrzésének szigorúságáról szóló viták közepette merültek fel, amelynek célja Kína mesterséges intelligencia fejlesztésének megfékezése.

A desztilláció egy gyakori képzési módszer, amelyet a mesterséges intelligencia laboratóriumai saját modelljeiken alkalmaznak kisebb, olcsóbb verziók létrehozására, de a versenytársak lényegében más laboratóriumok házi feladatának másolására is használhatják. Az OpenAI a hónap elején egy feljegyzést küldött a képviselőházi törvényhozóknak, amelyben azzal vádolta a DeepSeeket, hogy desztillációt használ termékei utánzására.

A DeepSeek egy évvel ezelőtt csapott le először, amikor kiadta nyílt forráskódú R1 gondolkodási modelljét, amely teljesítményben majdnem felvette a versenyt az amerikai határmenti laboratóriumokéval, töredékáron. A DeepSeek várhatóan hamarosan kiadja legújabb modelljét, a DeepSeek V4-et, amely állítólag kódolásban felülmúlja az Anthropic Claude-ját és az OpenAI ChatGPT-jét.

Az egyes támadások mértéke eltérő volt. Az Anthropic több mint 150 000 DeepSeek-alapú üzenetváltást követett nyomon, amelyek célja az alapvető logika és az összehangolás javítása volt, különösen a cenzúrabiztos alternatívák tekintetében a szabályzatérzékeny lekérdezésekkel szemben.

A Moonshot AI több mint 3,4 millió olyan lekérdezéssel rendelkezett, amelyek az ágensi gondolkodást és eszközhasználatot, a kódolást és adatelemzést, a számítógépes ágensfejlesztést és a számítógépes látást célozták meg. A cég a múlt hónapban kiadott egy új, nyílt forráskódú modellt, a Kimi K2.5-öt és egy kódoló ágenst.

A MiniMax 13 millió lekérdezése az ágensi kódolást, az eszközhasználatot és az összehangolást célozta meg. Az Anthropic állítása szerint a MiniMaxot működés közben figyelhették meg, mivel a cég a bevezetésekor forgalmának közel felét a legújabb Claude modell képességeinek elszívására irányította át.

Az Anthropic azt állítja, hogy továbbra is befektet olyan védelmi megoldásokba, amelyek megnehezítik a desztillációs támadások végrehajtását és könnyebben azonosíthatók, de „összehangolt válaszra szólít fel az MI-iparág, a felhőszolgáltatók és a politikai döntéshozók körében”.

A desztillációs támadások olyan időszakban történtek, amikor az amerikai chipek Kínába történő exportja még mindig heves viták tárgya. A múlt hónapban a Trump-adminisztráció hivatalosan is engedélyezte az olyan amerikai vállalatoknak, mint az Nvidia, hogy fejlett mesterséges intelligencia chipeket (például a H200-at) exportáljanak Kínába. A kritikusok azzal érveltek, hogy az exportkorlátozások enyhítése növeli Kína mesterséges intelligencia alapú számítási kapacitását egy kritikus időszakban a mesterséges intelligencia dominanciájáért folytatott globális versenyben.

Az Anthropic szerint a DeepSeek, a MiniMax és a Moonshot által végzett kinyerés mértéke „fejlett chipekhez való hozzáférést igényel”.

„A desztillációs támadások tehát megerősítik az exportkorlátozások indokoltságát: a korlátozott chiphozzáférés korlátozza mind a közvetlen modellképzést, mind az illegális desztilláció mértékét” – áll az Anthropic blogjában .

Dmitri Alperovitch , a Silverado Policy Accelerator agytröszt elnöke, a CrowdStrike társalapítója és korábbi műszaki igazgatója a TechCrunchnak elmondta, hogy nem lepődik meg ezeken a támadásokon.

„Már egy ideje világos, hogy a kínai mesterséges intelligencia modellek gyors fejlődésének egyik oka az amerikai AI modellek desztillációval történő lopás volt. Most már ezt tényként tudjuk” – mondta Alperovitch. „Ennek még nyomósabb okokat kellene adnia arra, hogy megtagadjuk bármilyen mesterséges intelligencia chip eladását ezeknek a [cégeknek], ami csak további előnyökre tenné őket.”

Az Anthropic azt is elmondta, hogy a desztilláció nemcsak az amerikai mesterséges intelligencia dominanciájának aláásásával fenyeget, hanem nemzetbiztonsági kockázatokat is teremthet.

„Az Anthropic és más amerikai vállalatok olyan rendszereket építenek, amelyek megakadályozzák az állami és nem állami szereplőket abban, hogy mesterséges intelligenciát használjanak például biofegyverek fejlesztésére vagy rosszindulatú kibertevékenységek végrehajtására” – olvasható az Anthropic blogbejegyzésében. „Az illegális desztillációval létrehozott modellek valószínűleg nem fogják megőrizni ezeket a biztosítékokat, ami azt jelenti, hogy a veszélyes képességek elszaporodhatnak, ha számos védelmet teljesen megvonnak.”

Az Anthropic rámutatott azokra az autoriter kormányokra, amelyek az AI-t olyan dolgokra vetik be, mint „támadó kiberműveletek, dezinformációs kampányok és tömeges megfigyelés”, és ez a kockázat megsokszorozódik, ha ezek a modellek nyílt forráskódúak.

Tovább a cikkre: techcrunch.com (Rebecca Bellan)