A Google mesterséges intelligenciával működő chatbotja, a Gemini nagyszabású információrablás célpontjává vált, a támadók kérdésekkel árasztják el a rendszert, hogy lemásolják a működését. Egyetlen művelet során több mint 100 000 lekérdezést küldtek a chatbotnak, megpróbálva feltárni azokat a titkos mintákat, amelyek okossá teszik.
A cég csütörtökön arról számolt be, hogy ezek az úgynevezett „desztillációs támadások” egyre súlyosbodnak. A rosszindulatú szereplők kérdések hullámát küldik, hogy kitalálják a Gemini válaszai mögött rejlő logikát. Céljuk egyszerű: ellopni a Google technológiáját, hogy saját mesterséges intelligencia rendszereket építhessenek vagy fejlesszék anélkül, hogy milliárdokat költenének fejlesztésre.
A Google úgy véli, hogy a támadók többsége magánvállalkozás vagy kutató, aki a nehéz munka elvégzése nélkül szeretne előnyhöz jutni. A vállalat jelentése szerint a támadások a világ minden tájáról érkeztek . John Hultquist, a Google Fenyegetésfelderítő Csoportjának vezetője szerint a kisebb vállalatok, amelyek egyedi mesterséges intelligencia eszközöket használnak, valószínűleg hamarosan hasonló támadásokkal fognak szembesülni.
A tech cégek dollármilliárdokat költöttek mesterséges intelligencia alapú chatbotjaik fejlesztésére. Ezeknek a rendszereknek a belső működését koronaékszerként kezelik. Még ha vannak is védelmi intézkedések ezen támadások elfogására, a nagyobb mesterséges intelligencia alapú rendszerek könnyű célpontok maradnak, mivel bárki, aki rendelkezik internet-hozzáféréssel, beszélhet velük.
Tavaly az OpenAI a kínai DeepSeek cégre mutogatott, azt állítva, hogy desztillációt használ a modelljei fejlesztéséhez. A Cryptopolitan január 30-án arról számolt be, hogy Olaszország és Írország betiltotta a DeepSeeket, miután az OpenAI azzal vádolta a kínai céget, hogy desztillációt használ a mesterséges intelligencia modelljeinek ellopására. A technika lehetővé teszi a vállalatok számára, hogy drága technológiákat másoljanak a költségek töredékéért.
Miért teszik ezt a támadók?
A gazdaságosság brutális. Egy élvonalbeli MI-modell felépítése több százmillió vagy akár milliárd dollárba is kerül. A DeepSeek állítólag körülbelül hatmillió dollárért építette meg R1 modelljét desztillációval, míg a ChatGPT-5 fejlesztése meghaladta a kétmilliárd dollárt az iparági jelentések szerint. Egy modell logikájának ellopása ezt a hatalmas befektetést szinte nullára csökkenti.
A Google szerint a Gemini elleni támadások közül sok azokat az algoritmusokat célozta meg, amelyek segítik az információ „érvelését” vagy feldolgozását. Azok a vállalatok, amelyek saját mesterséges intelligenciarendszereiket érzékeny adatokon – például 100 évnyi kereskedési stratégiákon vagy ügyféladatokon – képzik, most ugyanezzel a veszéllyel néznek szembe.
„Tegyük fel, hogy az LLM diplomádat 100 évnyi titkos gondolkodásmódra képezték ki a kereskedési módszereiddel kapcsolatban. Elméletileg le is tudnád szűrni ennek egy részét” – magyarázta Hultquist.
Nemzetállami hackerek is csatlakoznak a vadászathoz
A probléma túlmutat a pénzéhes vállalatokon. Az APT31, egy kínai kormányzati hackercsoport, amelyet 2024 márciusában amerikai szankciókkal sújtottak, tavaly év végén a Gemini rendszert használta fel amerikai szervezetek elleni tényleges kibertámadások megtervezésére.
A csoport a Geminit a Hexstrike-kal, egy nyílt forráskódú hackereszközzel párosította, amely több mint 150 biztonsági programot képes futtatni. Távoli kódfuttatási hibákat, a webes biztonság megkerülésének módjait és SQL-befecskendezési támadásokat elemeztek – mindezt konkrét amerikai célpontok ellen, áll a Google jelentésében.
A Cryptopolitan korábban is foglalkozott hasonló mesterséges intelligencia biztonsági aggályokkal, figyelmeztetve , hogy a hackerek mesterséges intelligencia sebezhetőségeit használják ki. Az APT31 esete azt mutatja, hogy ezek a figyelmeztetések találóak voltak.
Hultquist két fő aggodalomra mutatott rá. Az ellenfelek minimális emberi segítséggel működhetnek a teljes behatolási ciklusban, és az automatizált támadási eszközök fejlesztése. „Ez két olyan mód, amellyel az ellenfelek jelentős előnyökre tehetnek szert, és minimális emberi beavatkozással haladhatnak végig a behatolási cikluson” – mondta.
A szoftveres gyengeségek felfedezése és a javítás kidolgozása között eltelt idő, az úgynevezett patch gap (javítási rés), drámaian kiszélesedhet. A szervezeteknek gyakran hetekbe telik a védelmi intézkedések telepítése. Mivel a mesterséges intelligencia ágensei automatikusan megtalálják és tesztelik a sebezhetőségeket, a támadók sokkal gyorsabban cselekedhetnek.
„Ki kell használnunk a mesterséges intelligencia előnyeit, és egyre inkább ki kell vonnunk az embereket a folyamatokból, hogy gépi sebességgel tudjunk reagálni” – mondta Hultquist a The Registernek.
A pénzügyi tét óriási. Az IBM 2024-es adatvédelmi incidensekről szóló jelentése szerint a szellemi tulajdon ellopása ma rekordonként 173 dollárba kerül a szervezeteknek, az IP-re fókuszált incidensek pedig 27%-kal nőttek éves szinten. A mesterséges intelligencia modelljeinek súlyai jelentik a legmagasabb értékű célpontokat ebben a földalatti gazdaságban – egyetlen ellopott határmodell több százmillió dollárt hozhat a feketepiacon.
A Google lezárta az ezekhez a kampányokhoz kapcsolódó fiókokat, de a támadások továbbra is „a világ minden tájáról” érkeznek – mondta Hultquist. Ahogy a mesterséges intelligencia egyre erősebbé válik, és egyre több vállalat támaszkodik rá, várhatóan ez a digitális aranyláz fokozódni fog. A kérdés nem az, hogy lesznek-e további támadások, hanem az, hogy a védők képesek-e lépést tartani.
Tovább a cikkre: cryptopolitan.com (Noor Bazmi)