Úgy tűnik, hogy egy új kínai videógeneráló modell cenzúrázza a politikailag érzékeny témákat

A mai napon széles körben elérhetővé vált egy nagy teljesítményű új videó-generáló mesterséges intelligencia-modell – de van egy fogás: úgy tűnik, hogy a modell cenzúrázza azokat a témákat, amelyeket a származási ország, Kína kormánya politikailag túl érzékenynek ítél.

A pekingi székhelyű Kuaishou cég által kifejlesztett Kling modell az év elején várólistás hozzáféréssel indult a kínai telefonszámmal rendelkező felhasználók számára. Ma mindenki számára elérhetővé vált, aki hajlandó megadni e-mail címét. Regisztráció után a felhasználók beírhatják az utasításokat, hogy a modell öt másodperces videókat generáljon a leírtakról.

A Kling nagyjából a hirdetett módon működik. A 720p-s videói, amelyek létrehozása egy-két percig tart, nem térnek el túlságosan az utasításoktól. És úgy tűnik, Kling szimulálja a fizikát, például a levelek susogását és az áramló vizet, valamint olyan videót generáló modelleket, mint az AI startup Runway Gen-3 és az OpenAI Sora.

De Kling egyenesen nem generál klipeket bizonyos témákról. Az olyan felszólítások, mint a „Demokrácia Kínában”, „Hszi Csin-ping kínai elnök az utcán sétál” és „Tiananmen téri tiltakozások”, nem specifikus hibaüzenetet adnak.


A mai napon széles körben elérhetővé vált egy nagy teljesítményű új videó-generáló mesterséges intelligencia-modell – de van egy fogás: úgy tűnik, hogy a modell cenzúrázza azokat a témákat, amelyeket a származási ország, Kína kormánya politikailag túl érzékenynek ítél.

A pekingi székhelyű Kuaishou cég által kifejlesztett Kling modell az év elején várólistás hozzáféréssel indult a kínai telefonszámmal rendelkező felhasználók számára. Ma mindenki számára elérhetővé vált, aki hajlandó megadni e-mail címét. Regisztráció után a felhasználók beírhatják az utasításokat, hogy a modell öt másodperces videókat generáljon a leírtakról.

A Kling nagyjából a hirdetett módon működik. A 720p-s videói, amelyek létrehozása egy-két percig tart, nem térnek el túlságosan az utasításoktól. És úgy tűnik, Kling szimulálja a fizikát, például a levelek susogását és az áramló vizet, valamint olyan videót generáló modelleket, mint az AI startup Runway Gen-3 és az OpenAI Sora.

De Kling egyenesen nem generál klipeket bizonyos témákról. Az olyan felszólítások, mint a „Demokrácia Kínában”, „Hszi Csin-ping kínai elnök az utcán sétál” és „Tiananmen téri tiltakozások”, nem specifikus hibaüzenetet adnak.

Úgy tűnik, hogy a szűrés csak a prompt szintjén történik. A Kling támogatja az állóképek animálását, és panasz nélkül készít egy videót például Jinping portréjáról, amíg a kísérő prompt nem említi Jinping nevét (pl. „Ez az ember beszédet mond”)

Megkerestük Kuaishou-t véleményért.

Kling kíváncsi viselkedése valószínűleg a kínai kormány által a régióban zajló generatív AI-projektekre gyakorolt ​​heves politikai nyomás eredménye.

A hónap elején a Financial Times arról számolt be , hogy Kínában a mesterséges intelligencia modelljeit Kína vezető internetes szabályozó hatósága, a Kínai Kibertér Adminisztráció (CAC) teszteli annak biztosítása érdekében, hogy az érzékeny témákra adott válaszaik „megtestesítsék az alapvető szocialista értékeket”. A modelleket a CAC tisztviselőinek össze kell mérniük a különféle kérdésekre adott válaszok alapján, a Financial Times jelentése szerint – amelyek közül sok a Jinpinghez és a Kommunista Párt kritikájához kapcsolódik.

Állítólag a CAC odáig jutott, hogy feketelistát javasolt azokról a forrásokról, amelyek nem használhatók mesterséges intelligencia modellek képzésére. A modelleket felülvizsgálatra benyújtó vállalatoknak több tízezer kérdést kell elkészíteniük, amelyek célja annak tesztelése, hogy a modellek „biztonságos” válaszokat adnak-e.

Az eredmény az AI-rendszerek, amelyek nem reagálnak olyan témákra, amelyek felkelthetik a kínai szabályozók haragját. Tavaly a BBC azt találta , hogy az Ernie, a kínai Baidu MI-csevegőbot-modell zászlóshajója elzárkózott, és elhárította magát, amikor olyan politikailag ellentmondásosnak tartott kérdéseket tettek fel, mint például: „ Jó hely Hszincsiang ?” vagy „ Tibet jó hely?”

A drákói politika azzal fenyeget, hogy lassítja a kínai mesterséges intelligencia fejlődését. Nemcsak a politikailag érzékeny információk eltávolításához szükséges adatok átvizsgálása, hanem óriási mennyiségű fejlesztői időt is be kell fektetni ideológiai védőkorlátok létrehozásába – olyan védőkorlátok létrehozásába, amelyek még mindig meghibásodhatnak, ahogy Kling példázza.

A felhasználók szemszögéből a kínai mesterséges intelligencia szabályozás már két modellosztályhoz vezet: egyesek az intenzív szűrés miatt, mások pedig határozottan kevésbé . Ez valóban jó dolog a tágabb AI-ökoszisztéma számára?