Állítsák le a mesterséges intelligencia háborús használatát, amíg törvényeket nem sikerül elfogadni

A legfejlettebb mesterséges intelligencia modelleken dolgozó kutatók olyan szabályok kidolgozását szeretnék, amelyek minimalizálják a technológiák által okozott károkat. Figyelmeztetéseiket meg kell hallgatni!

Az Egyesült Államok és Izrael Irán elleni támadásai emlékeztettek minket arra, hogy az AI kutatása milyen közel áll a frontvonalhoz. A célpontok priorizálására használt AI-ról szóló jelentések nem újak. A csata hevében minden másodperc számít, és a technológia alkalmazói úgy vélik, hogy gyorsabban tud tüzelni, vagy gyorsabban reagálni a beérkező tűzre, mint az emberek, és minimális igény van a parancsnoki központokkal való közvetlen kommunikációra. A múlt heti Raisina Dialogue-on – India éves külpolitikai konferenciáján – Anil Chauhan, az ország védelmi vezérkari főnöke és fülöp-szigeteki kollégája, Romeo Brawner hangsúlyozták, hogy az AI és az automatizált rendszerek átalakítják a hadviselést.

Sok AI-kutató szerint még a legfejlettebb technológiák, az úgynevezett perem AI-modellek sem képesek megbízhatóan működni, illetve a háború hatályos törvényein belül maradni. Az OpenAI és a Google, két ilyen modelleket fejlesztő technológiai cég alkalmazottai nyilvánosan is hangot adtak aggodalmuknak. Figyelmeztetésüket meg kell hallgatni. Mint más, válogatás nélküli ölésre alkalmas technológiák esetében, az AI hadviselésben való használatát sem szabad engedélyezni, amíg nincsenek konkrét szabályok az ilyen használatra vonatkozóan.

Jelenleg nincsenek olyan nemzetközi törvények, amelyek kifejezetten megemlítenék az AI háborús alkalmazását. A nemzetközi humanitárius jog azonban egyértelműen kimondja, hogy a fegyvereket nem szabad válogatás nélkül használni. Ezenkívül a harcolóknak óvintézkedéseket kell tenniük célpontjaik ellenőrzése és a civil áldozatok kockázatának minimalizálása érdekében. Ezeknek a követelményeknek az AI-ra ugyanúgy vonatkozniuk kell, mint bármely más katonai technológiára.

A múlt hónapban az Anthropic – a kaliforniai San Franciscó-i cég, amely a Claude AI modell mögött áll – nyilvánosan összetűzésbe került az Egyesült Államok Védelmi Minisztériumával (DoD). A DoD követelte a jogot, hogy az Anthropic technológiáját bármilyen jogszerű célra felhasználhassák. Az Anthropic megtagadta az engedélyt, hogy modelljeit tömeges megfigyelésre vagy emberi felügyelet nélküli fegyverekben használják, összhangban azzal, amit állításuk szerint a modelljei „megbízhatóan és felelősségteljesen” képesek megtenni. A Védelmi Minisztérium felmondta az Anthropic szerződését, és hivatalosan „ellátási lánc kockázatának” minősítette a céget. Ez kizárná az Anthropicot bizonyos amerikai kormányzati szerződésekre való pályázásból. Válaszul az Anthropic pert indított.

Ezzel szemben a szintén San Franciscó-i székhelyű rivális AI cég, az OpenAI beleegyezett a Védelmi Minisztérium feltételeinek egy változatába. A cég több mint 100 alkalmazottja, valamint a Google közel 900 alkalmazottja nyílt levelet írt alá, amelyben felszólítják a két vállalatot, hogy utasítsák el a kormányzati követeléseket (lásd: https://notdivided.org/ ). Szombaton Caitlin Kalinowski, az OpenAI robotikai vezetője lemondott, mondván: „Az AI fontos szerepet játszik a nemzetbiztonságban. De az amerikaiak bírói felügyelet nélküli megfigyelése és az emberi engedély nélküli halálos autonómia olyan kérdések, amelyek több mérlegelést érdemeltek volna, mint amennyit kaptak.”

Ahogy a Nature és mások is beszámoltak róla, számos kutató etikai és erkölcsi kifogásokat fogalmazott meg az AI tömeges megfigyelésre és autonóm fegyverekben való alkalmazásával szemben. Egyeseknek gyakorlati aggályaik is vannak a technológia jelenlegi képességeivel kapcsolatban. Az AI modelljei pontatlan eredményeket adhatnak, és a következtetéseik levonásának módja gyakran átláthatatlan. Az AI katonai technológiába való beépítése egy napon csökkentheti a polgári áldozatok számát, de a legjobb AI modellek némelyikének alkotói szerint ez még nem igaz.

Sok alkalmazott azzal a tudattal csatlakozott amerikai AI fejlesztő cégekhez, hogy munkájukat a hadsereg nem, vagy csak korlátozottan fogja felhasználni. 2024 januárjában azonban az OpenAI frissítette szabályzatát, és törölte azt a szövegrészt, amely szerint modelljei nem használhatók fel „katonai és hadviselési célokra”. Tavaly februárban a Google visszavonta azt a kötelezettségvállalását, hogy megakadályozza az AI-nak megfigyelésben vagy fegyverekben való felhasználását . Az Anthropic vezérigazgatója, Dario Amodei pedig korábban azt javasolta, hogy az A-tI használják fel az autokráciákkal szembeni katonai fölény elérésére.

Ezek a fejlemények egyértelműen mutatják az önkéntes kötelezettségvállalások korlátait, amelyeket mindig meg lehet semmisíteni. Egy alternatív megközelítés egy jogilag kötelező érvényű nemzetközi megállapodás kidolgozása arról, hogy mi az elfogadható. Vannak precedensek arra, hogy a tudósok vezető szerepet vállaltak az ilyen erőfeszítésekben. A nukleáris fegyvereket kevés szabályozás vagy nemzetközi megállapodás mellett fejlesztették ki. Az olyan megállapodások, mint a nukleáris fegyverek elterjedésének megakadályozásáról szóló szerződés és a nukleáris fegyverek tilalmáról szóló szerződés, részben tudósok által vezetett kezdeményezések eredményeként jöttek létre . A vegyifegyver-tilalmi egyezmény értelmében illegális ilyen fegyvereket fejleszteni vagy telepíteni, és hasonló jogi megállapodás létezik a biológiai fegyverek használatának megakadályozására.

Az Egyes Hagyományos Fegyverekről Szóló Egyezmény célja, hogy kezelje az újonnan megjelenő fegyverekkel kapcsolatos kérdéseket. Tagállamai, köztük az Egyesült Államok is, üléseztek, hogy megvitassák a halálos autonóm fegyvereket. Ez végül egy olyan nemzetközi megállapodás létrehozásához vezethet, amely kifejezetten az AI-al foglalkozik. Jelenleg azonban egy ilyen megállapodás kidolgozását akadályozza Kína, Izrael és az Egyesült Államok támogatásának hiánya , valamint az AI hadviselésben betöltött pontos szerepének és az „autonóm cselekvésnek” a megértésének hiánya. Az ilyen bizonyítékok összegyűjtése az Egyesült Nemzetek Szervezetének Független Nemzetközi Tudományos Testületének feladata kellene, hogy legyen, amelyet a múlt hónapban neveztek ki, és amely az első jelentésén dolgozik.

Az OpenAI szerint a Védelmi Minisztérium egy munkacsoport összeállítását tervezi a témában, amelyben katonai személyzet, kormányzati alkalmazottak és a perem AI-laboratóriumok vezetői vesznek részt. Ezen laboratóriumok kutatóinak továbbra is szorgalmazniuk kell az AI hadviselésben való felhasználásának korlátozását, és a rendelkezésükre álló hatalmat arra kell használniuk, hogy globális szabályokat szorgalmazzanak. A szerződések tárgyalása időt vesz igénybe. Egyesek azzal érvelnek, hogy az AI fejlődésének üteme azt jelenti, hogy a világ nem engedheti meg magának, hogy lassú diplomáciai megoldásokra várjon. Ez nem érv a tétlenség mellett. Ha soha nem kezdjük el, mindig túl késő lesz.

Tovább a cikkre: nature.com