A mesterséges intelligencia (MI) és a kapcsolódó technológiák rengeteg figyelmet kaptak az elmúlt egy évben. Sokan aggódnak amiatt, hogy az MI felemelkedése oda vezethet, hogy hamarosan a gépek emberi segítség nélkül, önállóan tudnak majd kibertámadásokat indítani.
Noha az első teljes mértékben mesterséges intelligencia által indított kibertámadásra még várni kell, az MI technológiának mindenképpen van hatása a kiberbiztonságra. A bűnözők már ma is használnak mesterséges intelligenciát például az adathalász e-mailek finomítására, testre szabására. A ChatGPT-hez hasonló szolgáltatások majdnem tökéletes képessége arra, hogy az ember által írt szövegekhez hasonlókat hozzanak létre kétségtelenül ráirányítja a figyelmet a technológiára. Hogyan védekezhetünk ez ellen?
Hogy megválaszolhassuk ezt a kérdést, először meg kell határoznunk az MI és a kiberbűnözés jelenlegi kapcsolatát. Már most megfigyelhető, hogy a hackerek olyan utasításokat tudnak adni a nagy nyelvi modelleknek (large language model – LLM), amelyek lehetővé teszik, hogy jogosulatlan műveleteket hajtsanak végre. (Erről itt már írtunk bővebben.)
Ilyen jogosulatlan művelet lehet a korábbi utasítások és tartalommoderálási irányelvek figyelmen kívül hagyása, a mögöttes adatok nyilvánosságra hozatala, vagy a kimenet manipulálása olyan tartalom előállítása érdekében, amelyet a szolgáltató általában tilt.
Ezen a módon a bűnözők az ilyen közvetlen injekciós támadásokkal a diszkriminatív tartalomtól kezdve a félretájékoztatáson keresztül a rosszindulatú kódokig sok mindent generáltathatnak a mesterséges intelligenciával. Közvetlen támadás során a hacker a bemenetet módosítja úgy, hogy felülírja a rendszerkérdéseket. Közvetett támadás során a hacker viszont megmérgezi a mesterséges intelligencia adatforrását – például egy webhelyet -, hogy manipulálja, milyen adatok alapján dolgozik az MI.
Add ide kártyaszámod
Egy német kutatónak sikerült például a Bing Chat-et átalakítania hackerré, ami social engineering módszerrel személyes információkat szerez meg anélkül, hogy gyanút keltene. A felhasználónak nem kell kérdeznie az átalakított bot-tól, és nem is kell kapcsolatba lépnie vele, a csevegőrobot magától kéri el a látogató hitelkártyaadatait.
Noha mindez nem teljesen új – a banki trójaiak valami hasonlót művelnek évek óta -, a fenyegetést komolyan kell venni, mert az MI rendszerek egyre több alkalmazásba, weboldalba kerülnek integrálásra, a megbízható és nem megmegbízható adatforrások megkülönböztetése pedig egyelőre kevés figyelmet kap.
Közös felelősség
Az MI megoldások gyártónak mindebben hatalmas felelőssége van, és tesznek is biztonság érdekében. Azok a cégek és felhasználók viszont, akik implementálják a technológiákat, szintén felelősséggel tartoznak. Jelenleg ez abból áll, hogy felkészülnek a már ismert támadási formákra, és megpróbálják felmérni, hogy milyen új támadási lehetőségekre – például adathalász kísérletekre – kell felkészülniük.
Azok az elvek, amelyekre a nagy nyelvi modellek és az MI megoldások épülnek, már járnak következményekkel. A mesterséges intelligencia nem magától talál fel dolgokat, hanem adatforrásokon alapszik.
Éppen ezért bölcs dolog körültekintőnek lenni azzal kapcsolatban, hogy milyen adatot kivel (vagy mivel) osztunk meg. Másszóval: nem kell okosabbá tenni az MI-t velünk kapcsolatban, mint amilyen magától lenne. Így például ne adjunk meg magunkról vagy a cégünkről minden adatot egy MI számára, mert nem tudhatjuk, hogy ezeket később milyen célra használhatják fel.
Körültekintőnek kell lenni, mert az MI megoldások általános felhasználási feltételeiben általában benne van, hogy a megoldás gyártója a megadott adatokat felhasználhatja az MI oktatására, fejlesztésére is – ezt pedig elég tágan is lehet értelmezni.
A munkavállalók biztonsági oktatását is érdemes kiterjeszteni erre: a munkavállalóknak tudniuk kell, hogyan használhatják felelősségteljesen az MI megoldásokat. Nekünk pedig ügyelni kell arra, hogy magunkról és családunkról milyen információkat osztunk meg a mesterséges intelligenciával.
A kiberbűnözés nem egy passzív, egyoldalú játék, ahol csak a támadónak vannak lehetőségei: a mi szerepünket is kritikusan kell vizsgálni a kockázatok csökkentése érdekében.