A Pindrop azt állítja, hogy akár 99%-os pontossággal észleli a call centereket sújtó szintetikus hangcsalást

A csalók az ellopott azonosító adatokat a GenAI-val párosítják, hogy hanghamisítást, szintetikus hangot hozzanak létre

A Pindrop kiadta 2024-es Hangintelligencia és -biztonsági jelentését , és következtetései nem lepnek meg senkit, aki a biometrikus és digitális identitás szektorban figyel oda. Egyre nő az adatszivárgás, a csalás fejlődik, ahogy az audio deepfake eszközök egyre jobbak és könnyebben hozzáférhetők a csalók számára, a generatív mesterséges intelligencia behatol a fősodorba, és a szintetikus identitások mindenhol jelen vannak. Vannak azonban jó hírek is a sikerarányok tekintetében, a Pindrop a biometrikus életszerűség-érzékeléssel deepfake hamisításokat talált.

„A csalók felfedezték, hogy a deepfake hamisítások olyan kiforrott, generatív mesterséges intelligencia eszközök segítségével, mint a ChatGPT, célzottabb és egyénspecifikus támadásokat hozhatnak létre, amelyek téves információkat terjeszthetnek, pénzeszközöket vonhatnak ki, vagy árthatnak az egyén hírnevének” – áll a jelentésben. „Az új GenAI forradalom , bár a kereskedelem és az emberi termelékenység fokozását ígéri, azzal is fenyeget, hogy alapvető bizalmatlanságot szít a vállalatok, intézmények és az online média iránt.”

A kifinomult beszédmodellekkel és az adatok feltöréséből vagy adatszivárgásából származó, kiszivárgott személyazonossági hitelesítő adatokkal felvértezve , amelyek gyakran megvásárolhatók a darkweben, a csalók egyre gyakrabban alkalmaznak olyan taktikákat, mint a célzott összecsapás , a social engineering, a robottárcsázás és a megszemélyesítési taktikák. Egy sajtóközleményben hangsúlyozva, hogy „a generatív mesterséges intelligencia alapjaiban töri meg a kereskedelembe, a médiába és a kommunikációba vetett bizalmat”, a Pindrop vezérigazgatója, Vijay Balasubramaniyan tűzzel akarja harcolni a tüzet. „Jó mesterséges intelligencia kell ahhoz, hogy legyőzzük a rossz mesterséges intelligenciát” – mondja.

A telefonok továbbra is a legnagyobb csatorna csalókként villognak a kapcsolattartó központokban

A csalók fő célpontjai közé tartoznak a vezetők, a közösségi média platformok – és a Pindrop számára döntően a kapcsolattartók. Mivel sok fogyasztó továbbra is telefonjára támaszkodik a tranzakciók lebonyolításakor, a call centerek ki vannak téve a hanghamisítások, a  deepfake hamisítások és más csalási támadások ellen. „A kapcsolattartó központokkal kapcsolatos csalás 2022-ben kezdett megugrani, miután 2021-ben egy rövid lassulást tapasztaltunk” – áll a jelentésben. „A csalások aránya 2021-ben minden 1200 csalásról egy minden 756-ra nőtt 2023 végére.”

Ezenkívül a csalók social engineering taktikákat alkalmaznak, hogy megtévesszék az ügyfélszolgálati képviselőket, és rávegyék őket a korlátozások megszüntetésére vagy az online banki hitelesítő adatok visszaállítására. Az AI-botok pedig egyre bonyolultabbá válnak, képesek egyszerű beszélgetéseket folytatni, amelyek komolyabb fióktevékenységekhez vezethetnek.

A bankok, hitelszövetkezetek és biztosítótársaságok veszélyben vannak, de a hatás nem korlátozódik a pénzügyi szolgáltatásokra ; a közösségi média célpont, az e-kereskedelem pedig lehetővé tette a burjánzó kiskereskedelmi csalásokat. A Pindrop szerint az e-kereskedelmi visszaküldések akár 14 százaléka csalárd. „2023-ig négyszeresére nőtt a kiskereskedelmi csalások aránya ügyfélszolgálati központjainkban, mivel egyre több koncessziós visszaélésre és csalárd visszaküldésre derült fény, különösen a kapcsolattartó központokban.” Ezenkívül az előrejelzések szerint 2024-ben a kiskereskedelmi csalások több mint kétszeresére nőnek.

„A call centerek képezik az ügyfelekkel folytatott interakció gerincét” – áll a jelentésben. „A kiskereskedőknek lépéseket kell tenniük biztonságuk megőrzése érdekében fejlett hangalapú hitelesítési és csalásfelderítési irányelvek elfogadásával.” A többtényezős hitelesítésről (MFA) szóló nagy rész összefoglalja az MFA bevezetésének költségeit és biztonsági előnyeit: „2023-ban az MFA-megoldások bevezetése figyelemre méltó eredményeket hozott, amint azt egy 33 Pindrop-ügyfélből álló csoport együttesen mintegy 25 millió dollár kezelési idő költséget takarított meg. csökkentések.”

Az élénkség alátámasztja a Pindrop 99%-os észlelési arányát

A csalás elleni küzdelem másik fontos tényezője az élénkség észlelése . Mivel a számok az emberi füleknél és a hangbiometrikus adatoknál nagyobb pontosságot mutatnak az életszerűség észlelésére, ez az egyik legjobb módja a valódi emberi interakciók hitelesítésének – és a legerősebb, ha több tényezővel kombináljuk, és 99,2 százalékos deepfake hamisítás-észlelési pontosságot tesz lehetővé.

Az emberek az esetek alig több mint felében képesek észlelni a mély hanghamisításokat. A jelentés szerint a Pindrop azt állítja, hogy a hangbiometrikus adatok önmagukban 88 százalékban hatékonyak a deepfake hamisítások azonosításában, az életszerűség-érzékelő technológiája pedig önmagában az esetek 98,3 százalékában hatékony.

„A védekezés első lépésének most az élő és valós emberi jelenlét igazolására kell irányulnia, akár hang, arc vagy egyéb azonosítók segítségével” – áll a jelentésben. „A deepfake hamisítás önmagában nem biztos, hogy csalás jele. Ennek ellenére elegendő szünetet kell tartani a nem élő interakció észleléséhez, és gyors és következetes válasz megfogalmazásához a biztonság és az ügyfélszolgálat felé.”

A Pindrop termékigazgató-helyettese, Rahul Sood megjegyzi, hogy „A Pindrop deepfake hamisítás-észlelési technológiája 99 százalékos észlelési arányt mutatott, 1 százalék alatti téves pozitív arány mellett. Ügyfeleinknek tehát biztosnak kell lenniük abban, hogy nagyon kevés deepfake hamisított csalás, ha van ilyen, eleve átjut.”

Az ISMS jelentés kiemeli a harmadik felekkel és a szállítókkal kapcsolatos kockázatokat

Egy másik jelentés, ez az ISMS.online , felméri az információbiztonság helyzetét , és megállapítja, hogy a deepfake hamisítások a második leggyakoribb információbiztonsági probléma az Egyesült Királyságban.

A Microsoft jelentésének összefoglalója szerint „a csalók nagy valószínűséggel deepfake hamisított tartalmat vetnek be üzleti e-mail-kompromittációs (BEC) típusú támadások során mesterséges intelligencia-alapú hang- és videoklónozással, amellyel megtévesztik a címzetteket, hogy teljesítsék a fenyegetőzők kérését. „nagy volumenű pénzátutalások.” A bizonyítékok ezt támasztják alá, a múlt héten kiderült, hogy a 25 millió dolláros veszteséget okozó hongkongi deepfake hamisítás célpontja az Egyesült Királyság fenntartható fejlesztési konzorciuma, az Arup volt.

A válaszadók 38 százaléka szerint a harmadik felekkel és a szállítókkal kapcsolatos kockázatok kezelése jelenti vállalkozása számára a legnagyobb kihívást. „Ez egyenes következménye a digitális ökoszisztémák bővülésének és az egyre inkább összekapcsolódó üzleti tevékenységeknek. E kockázatok hatékony kezelése kulcsfontosságú a támadási felület minimalizálása és az integritás biztosítása szempontjából és az üzleti műveletek megbízhatósága.” A szabályozási megfelelést is kihívásként emelték ki.