A ChatGPT képes komplikálni a mai informatikai védelmi rendszereket azzal a tulajdonságával, hogy olyan változó jellegű, nemkívánatos programokat képes létrehozni, amelyek nehezen azonosíthatók az úgynevezett végpontfelismerő és reagáló (EDR) rendszerek segítségével.
A mesterséges intelligencia számos alkalommal szolgált már szellemes, szórakoztató és tanító jellegű tartalommal a megfelelő irányítás mellett. Az AI-nak azonban van egy sötétebb oldala is, ami nagymértékben bonyolítaná az IT szektor jövőjét.
Egyes informatikai szakértők nemrég felvázolták a ChatGPT rejtett veszélyeit, és arra világítottak rá, hogy képes olyan polimorfikus kártékony programokat generálni, amelyek szinte lehetetlenek az EDR segítségével feltartóztatni.
Az EDR egy kiberbiztonsági technika, amellyel azonosíthatók a nemkívánatos programok. Ennek ellenére a szakértők szerint ez a konvencionális megközelítés nem lesz képes versenyezni a ChatGPT által okozott lehetséges fenyegetésekkel. A képesek mutálódni lévő kódok - ez az, ahol a polimorf szó jelentőséget nyer - sokkal nehezebben észrevehetők.
A nyelvtanulási modellek, mint például a ChatGPT, úgy lettek kialakítva, hogy beépített szűrőik képesek legyenek elkerülni a készítők által nemkívánatos tartalmak generálását. Ez a tartalomskála a specifikus témáktól a kártékony kódokig terjed. Nem kellett azonban sok idő ahhoz, hogy a felhasználók kitaláljanak módszereket ezeknek a szűrőknek a kijátszására. Ez a stratégia teszi a ChatGPT-t különösen sebezhetővé azok számára, akik kártékony szkripteket szeretnének alkotni.
Jeff Sims a HYAS InfoSec biztonsági mérnök, egy olyan vállalatnál dolgozik, mely az IT-biztonságra fókuszál. Sims korábban, márciusban prezentált egy bizonyítékokra épülő projektet, amit BlackMamba névre keresztelt. Ez a tool egy polimorfikus keylogger, ami minden futtatáskor API hívásokat indít a ChatGPT felé.
"Ezek az innovatív technikák lehetővé teszik a potenciális támadóknak, hogy kombinálják a szokásosan könnyen azonosítható viselkedésmintákat újszerű módon, és képesek legyenek megkerülni a detektálást a modell képességeinek hiányosságának kihasználásával, hogy ezt káros mintaként azonosítsa" - magyarázta Sims.
A CyberArk, egy kiberbiztonsági cég, nemrég bemutatta a ChatGPT képességét, hogy polimorfikus nemkívánatos programokat generáljon, Eran Shimony és Omer Tsarfati blogbejegyzésében. A bejegyzésben illusztrálják, hogyan engedélyez a ChatGPT-ből származó kódinjekció a szkriptek módosítását az aktiválásuk után, ezzel kijátszva a legfrissebb detekciós technológiákat, amelyeket a nemkívánatos viselkedés felismerésére alkalmaznak.
Jelenleg csak ezeket az eseteket tudjuk bizonyítékként felmutatni - de reménykedünk abban, hogy ez a felismerés több fejlesztéshez vezet, amelyek segítenek megelőzni a károkat, amit ez a típusú evolúciós kód okozhat a valóságban.
Forrás: