• Mesterséges intelligencia,  Technikai SEO

    Mindössze néhány mérgezett dokumentum is veszélyeztetheti a nagy nyelvi modelleket

    Az utóbbi évek egyik legfontosabb kérdése a mesterséges intelligencia biztonsága, különösen a nagy nyelvi modellek (LLM-ek) esetében. Egy friss, az Egyesült Királyság AI Biztonsági Intézete, az Alan Turing Intézet és az Anthropic közös kutatása új megvilágításba helyezte a „mérgezett adat” (data poisoning) támadások veszélyét. Meglepő eredményük szerint mindössze 250 rosszindulatú, úgynevezett „mérgezett” dokumentum is képes egy hátsóajtós (backdoor) sebezhetőséget létrehozni a modellekben – függetlenül azok méretétől vagy a tanító adatok mennyiségétől. A tanulmány rávilágít arra, hogy a támadóknak nem kell a tanító adatok jelentős részét irányítaniuk ahhoz, hogy sikerrel járjanak. Egy fix, viszonylag kis számú mérgezett dokumentum elegendő lehet a modell megfertőzéséhez, ami jelentősen megkönnyíti a támadók dolgát. Ez a…