A brit kiberbiztonsági ügynökség arra figyelmeztet, hogy a mesterséges intelligencia segíteni fog a zsarolóvírus-szereplőknek és csalóknak
Az Egyesült Királyság kiberbiztonsági ügynöksége, a National Cyber Security Center (NCSC) arra figyelmeztetett, hogy a mesterséges intelligencia térnyerése megnehezíti a valódi e-mailek azonosítását a csalóktól és rosszindulatú szereplőktől származó levelekkel szemben, különös tekintettel a jelszó-visszaállítást kérő üzenetekre.
Az NCSC arra figyelmeztetett, hogy az AI-eszközök kifinomultsága, különösen a meggyőző szövegek, hangok és képek előállítására képes Generative AI, kihívást jelent az egyének számára, hogy felismerjék az adathalász kísérleteket, ahol a felhasználókat jelszavak vagy személyes adatok kiszolgáltatásával csalják meg.
A generatív mesterséges intelligencia, amelyet a chatbotok, például a ChatGPT és a nyílt forráskódú modellek példáznak, lehetővé teszi valósághű tartalom létrehozását egyszerű felszólításokból. A GCHQ kémügynökséghez tartozó NCSC legutóbbi értékelésében kijelentette, hogy a mesterséges intelligencia valószínűleg növelni fogja a kibertámadások gyakoriságát és hatását a következő két évben.
Az ügynökség kiemelte a generatív mesterséges intelligencia és a nagy nyelvi modellek szerepét, amelyek a chatbotok mögöttes technológiái, megnehezítik a különféle támadástípusok azonosítására irányuló erőfeszítéseket, beleértve a hamis üzeneteket és a szociális manipulációt, amely az egyének manipulálásának módja a bizalmas információk felfedésére.
MI-alapú csalások a sarkon
A jelentés hangsúlyozta, hogy 2025-re a generatív mesterséges intelligencia és a nagy nyelvi modellek elterjedése kihívást jelent az egyének számára, függetlenül kiberbiztonsági szakértelmüktől, hogy felmérjék az e-mailek hitelességét vagy a jelszó-visszaállítási kérelmeket, és felismerjék az adathalászat, a hamisítás vagy a szociális manipulációs kísérleteket. .
Az NCSC a ransomware támadások megugrásával is számolt, arra hivatkozva, hogy csökkentek az amatőr kiberbűnözők és hackerek előtt álló korlátok a rendszerek kihasználása előtt. A mesterséges intelligencia kifinomultsága lehetővé tette a potenciális áldozatok meggyőzőbb megközelítését, hamis dokumentumok létrehozását az adathalász támadásokhoz kapcsolódó tipikus hibák nélkül. A jelentés azonban egyértelművé tette, hogy bár a generatív mesterséges intelligencia fokozhatja az adathalász kísérletek meggyőző erejét, nem feltétlenül javítja a zsarolóprogram-kódok hatékonyságát.
Az ügynökség felhívta a figyelmet arra, hogy az állami szereplők valószínűleg jó helyzetben vannak a mesterséges intelligencia fejlesztésére a fejlett kiberműveletek során, és lehetőség nyílik olyan mesterséges intelligencia modellek betanítására, amelyek képesek olyan új kód létrehozására, amely elkerüli a biztonsági intézkedéseket. Ezenkívül az NCSC elismerte az AI-ban rejlő potenciált védekező eszközként, amely képes a támadások észlelésére és biztonságosabb rendszerek tervezésére.