• Mesterséges intelligencia,  Tartalommarketing

    Új kutatás: Introspektív képességek jelei nagy nyelvi modellekben

    Az utóbbi években az mesterséges intelligencia fejlődése szinte megállíthatatlannak tűnik, különösen a nagy nyelvi modellek területén. Egy friss tanulmány most arra világít rá, hogy ezek a modellek nemcsak válaszokat adnak, hanem bizonyos korlátozott mértékben képesek lehetnek önreflexióra, vagyis saját belső folyamataik megfigyelésére. Ez a felfedezés fontos lépés az AI átláthatósága és megbízhatósága felé, ugyanakkor számos kérdést is felvet a mesterséges intelligencia tudatosságával és működésével kapcsolatban. Mit jelent az, hogy egy AI „introspektív”? Az introspekció az a képesség, amikor valaki vagy valami képes megfigyelni és értelmezni saját gondolatait vagy belső állapotait. Emberi értelemben ez a tudatosság egy formája, amikor képesek vagyunk megérteni, hogyan jutottunk el egy döntéshez vagy válaszhoz. De hogyan…

  • Mesterséges intelligencia,  Technikai SEO

    Mindössze néhány mérgezett dokumentum is veszélyeztetheti a nagy nyelvi modelleket

    Az utóbbi évek egyik legfontosabb kérdése a mesterséges intelligencia biztonsága, különösen a nagy nyelvi modellek (LLM-ek) esetében. Egy friss, az Egyesült Királyság AI Biztonsági Intézete, az Alan Turing Intézet és az Anthropic közös kutatása új megvilágításba helyezte a „mérgezett adat” (data poisoning) támadások veszélyét. Meglepő eredményük szerint mindössze 250 rosszindulatú, úgynevezett „mérgezett” dokumentum is képes egy hátsóajtós (backdoor) sebezhetőséget létrehozni a modellekben – függetlenül azok méretétől vagy a tanító adatok mennyiségétől. A tanulmány rávilágít arra, hogy a támadóknak nem kell a tanító adatok jelentős részét irányítaniuk ahhoz, hogy sikerrel járjanak. Egy fix, viszonylag kis számú mérgezett dokumentum elegendő lehet a modell megfertőzéséhez, ami jelentősen megkönnyíti a támadók dolgát. Ez a…