A mesterséges intelligencia (MI) és a kapcsolódó technológiák rengeteg figyelmet kaptak az elmúlt egy évben. Sokan aggódnak amiatt, hogy az MI felemelkedése oda vezethet, hogy hamarosan a gépek emberi segítség nélkül, önállóan tudnak majd kibertámadásokat indítani.

Noha az első teljes mértékben mesterséges intelligencia által indított kibertámadásra még várni kell, az MI technológiának mindenképpen van hatása a kiberbiztonságra. A bűnözők már ma is használnak mesterséges intelligenciát például az adathalász e-mailek finomítására, testre szabására. A ChatGPT-hez hasonló szolgáltatások majdnem tökéletes képessége arra, hogy az ember által írt szövegekhez hasonlókat hozzanak létre kétségtelenül ráirányítja a figyelmet a technológiára. Hogyan védekezhetünk ez ellen?

Hogy megválaszolhassuk ezt a kérdést, először meg kell határoznunk az MI és a kiberbűnözés jelenlegi kapcsolatát. Már most megfigyelhető, hogy a hackerek olyan utasításokat tudnak adni a nagy nyelvi modelleknek (large language model – LLM), amelyek lehetővé teszik, hogy jogosulatlan műveleteket hajtsanak végre. (Erről itt már írtunk bővebben.)

Ilyen jogosulatlan művelet lehet a korábbi utasítások és tartalommoderálási irányelvek figyelmen kívül hagyása, a mögöttes adatok nyilvánosságra hozatala, vagy a kimenet manipulálása olyan tartalom előállítása érdekében, amelyet a szolgáltató általában tilt.

Ezen a módon a bűnözők az ilyen közvetlen injekciós támadásokkal a diszkriminatív tartalomtól kezdve a félretájékoztatáson keresztül a rosszindulatú kódokig sok mindent generáltathatnak a mesterséges intelligenciával. Közvetlen támadás során a hacker a bemenetet módosítja úgy, hogy felülírja a rendszerkérdéseket. Közvetett támadás során a hacker viszont megmérgezi a mesterséges intelligencia adatforrását – például egy webhelyet -, hogy manipulálja, milyen adatok alapján dolgozik az MI.

Add ide kártyaszámod

Egy német kutatónak sikerült például a Bing Chat-et átalakítania hackerré, ami social engineering módszerrel személyes információkat szerez meg anélkül, hogy gyanút keltene. A felhasználónak nem kell kérdeznie az átalakított bot-tól, és nem is kell kapcsolatba lépnie vele, a csevegőrobot magától kéri el a látogató hitelkártyaadatait.

Noha mindez nem teljesen új – a banki trójaiak valami hasonlót művelnek évek óta -, a fenyegetést komolyan kell venni, mert az MI rendszerek egyre több alkalmazásba, weboldalba kerülnek integrálásra, a megbízható és nem megmegbízható adatforrások megkülönböztetése pedig egyelőre kevés figyelmet kap.

Közös felelősség

Az MI megoldások gyártónak mindebben hatalmas felelőssége van, és tesznek is biztonság érdekében. Azok a cégek és felhasználók viszont, akik implementálják a technológiákat, szintén felelősséggel tartoznak. Jelenleg ez abból áll, hogy felkészülnek a már ismert támadási formákra, és megpróbálják felmérni, hogy milyen új támadási lehetőségekre – például adathalász kísérletekre – kell felkészülniük.

Azok az elvek, amelyekre a nagy nyelvi modellek és az MI megoldások épülnek, már járnak következményekkel. A mesterséges intelligencia nem magától talál fel dolgokat, hanem adatforrásokon alapszik.

Éppen ezért bölcs dolog körültekintőnek lenni azzal kapcsolatban, hogy milyen adatot kivel (vagy mivel) osztunk meg. Másszóval: nem kell okosabbá tenni az MI-t velünk kapcsolatban, mint amilyen magától lenne. Így például ne adjunk meg magunkról vagy a cégünkről minden adatot egy MI számára, mert nem tudhatjuk, hogy ezeket később milyen célra használhatják fel.

Körültekintőnek kell lenni, mert az MI megoldások általános felhasználási feltételeiben általában benne van, hogy a megoldás gyártója a megadott adatokat felhasználhatja az MI oktatására, fejlesztésére is – ezt pedig elég tágan is lehet értelmezni.

A munkavállalók biztonsági oktatását is érdemes kiterjeszteni erre: a munkavállalóknak tudniuk kell, hogyan használhatják felelősségteljesen az MI megoldásokat. Nekünk pedig ügyelni kell arra, hogy magunkról és családunkról milyen információkat osztunk meg a mesterséges intelligenciával.

A kiberbűnözés nem egy passzív, egyoldalú játék, ahol csak a támadónak vannak lehetőségei: a mi szerepünket is kritikusan kell vizsgálni a kockázatok csökkentése érdekében.

A cikkhez a lap alján tud hozzászólni, és mások hozzászólásait is ott olvashatja.

Ha tetszett a cikk:


Ne felejtsen el feliratkozni hírlevelünkre:

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük

Robotok lesznek a jövő kiberbűnözői?
A weboldalon sütiket (cookie) használunk, melyek segítenek minket a lehető legjobb szolgáltatások nyújtásában. Weboldalunk további használatával elfogadja Adatkezelési tájékoztatónkat.