Kép forrása: pixabay.com
A vitathatatlan előnyök mellett komoly kockázatokkal is jár a mesterséges intelligencia (artificial intelligence, AI) alkalmazásnak terjedése.
A 45 oldalas tanulmány, amelyet a tudományos, innovációs és technológiaügyi minisztérium megbízásából állított össze egy szakértői testület, a brit kormány által november elejére összehívott nemzetközi AI-biztonsági csúcs vitairata. A dolgozat szerzői által említett fő kockázatok között szerepel, hogy a mesterséges intelligencia alkalmazása megkönnyítheti a biológiai, a vegyi és a sugárszennyezést okozó fegyverek előállítását, illetve a kibertámadások végrehajtását.
A különböző AI-modellek ugyanis "személyre szabott" tudományos ismeretekkel láthatják el az egyes felhasználókat, útmutatást nyújthatnak az adott cél eléréséhez szükséges laboratóriumi munkához, és információval szolgálhatnak a biológiai és vegyi alapanyagok beszerzésének lehetséges módozatairól is. A tanulmány szerzői szerint az ilyen célú laboratóriumi kutatásnak jelenleg komoly korlátai vannak, de a mesterséges intelligencia fejlődése - különösen a laboratóriumi munka automatizálásának kiterjesztésével - már a közeljövőben lebonthat néhányat e korlátok közül.
Az AI-rendszerek használatával a fenyegetést jelentő felhasználók mindemellett időt is megtakaríthatnak. A mesterséges intelligencia például máris elősegítette olyan számítógépes vírusok előállítását, amelyek az észlelés megnehezítése érdekében időről időre módosulnak. Az ilyen vírusok előállítása korábban meglehetősen hosszú időbe telt, ám egyes hackercsoportok fórumainak használói máris arról számolnak be, hogy a ChatGPT és más hasonló eszközök használatával lehetővé vált számukra a kártékony szoftverek (malware) gyors előállítása számos különböző programnyelven.
A tanulmány szerzői szerint az emberi tényezőket kihasználó, pszichológiai manipulációt alkalmazó, úgynevezett social engineering-típusú módszer a mesterséges intelligenciával megerősítve már most szerepel a kiberbűnözők rendszeresen használt eszköztárában. Ez a kombinált eszköz képes például olyan emberek hangjának tökéletes utánzására, akikben a kiszemelt célszemély megbízik.
Az AI-rendszerek mindemellett új támadási módszereket is kidolgozhatnak. Képesek például olyan kártékony szoftverek előállítására, amelyek mindaddig "jóindulatúan" viselkednek, amíg meg nem találják a célba vett áldozatokat, és csak ekkor fejtik ki káros hatásukat, megnehezítve a vírusirtó szoftverek számára a támadás észlelését.