-
Petri: Nyílt forráskódú eszköz az AI biztonságos működésének gyorsabb vizsgálatához
Az egyre fejlettebb mesterséges intelligencia rendszerek biztonságos működésének biztosítása kiemelt kutatási területté vált az utóbbi években. Az AI modellek viselkedésének alapos és gyors értékelése azonban jelentős kihívásokat rejt magában, hiszen a lehetséges viselkedési minták száma és komplexitása túlmutat az emberi vizsgálatok korlátain. Ebben a helyzetben nyújt segítséget a Petri nevű új, nyílt forráskódú eszköz, amely automatizált módon teszi lehetővé a modellek viselkedésének gyors és átfogó elemzését. Mi az a Petri és hogyan működik? A Petri (Parallel Exploration Tool for Risky Interactions) egy olyan innovatív eszköz, amely automatizált ügynökök segítségével vizsgálja a cél AI rendszerek viselkedését. A program többfordulós párbeszédeket folytat a modellekkel, amelyek során különböző szimulált felhasználók és eszközök vesznek…
-
A Google Ad Manager felbontásának kockázatai és a jogi eljárás tanulságai
Az Egyesült Államok Igazságügyi Minisztériumának (DOJ) hirdetési technológiákat érintő javaslatai a Google Ad Manager felbontására irányultak, azonban a legutóbbi bírósági tárgyalások során számos szakértői és érintett vállalati tanúvallomás bizonyította, hogy ez a megoldás nemcsak kivitelezhetetlen, hanem jelentős bizonytalanságot és fennakadásokat okozna a hirdetők és kiadók számára egyaránt. A Google ezzel szemben olyan alternatívákat kínált, amelyek figyelembe veszik a bíróság aggályait, miközben nem nehezítik meg a kisvállalkozások fogyasztók elérését és növekedését. A bírósági tanúvallomások fényt derítettek a valós problémákra A tanúk között többen is megerősítették, hogy a viselkedésalapú, célzott változtatások hatékonyabb és működőképes megoldást jelentenének a bíróság által megfogalmazott aggályokra. James Avery, a Kevel hirdetési szerver cég vezérigazgatója elmondta, hogy egy…
-
Az Európai Unió 16 éves korhatárt szab az AI chatbotok és közösségi média használatához
Az Európai Parlament új, szigorú szabályozást fogadott el a kiskorúak online védelme érdekében, amelynek értelmében egységesen 16 éves minimális életkort vezetnek be az AI chatbotokhoz, közösségi média platformokhoz és videómegosztó oldalakhoz való hozzáféréshez. A 13 és 16 év közötti fiatalok csak szülői beleegyezéssel használhatják ezeket a szolgáltatásokat, az ellenőrzés pedig egy EU-s szintű életkor-ellenőrző és digitális azonosító rendszer segítségével történik majd. Az új szabályok komoly felelősséget rónak a platformokra, akik súlyos szankciókkal, akár betiltással is számolhatnak, ha nem védenek megfelelően a káros tartalmaktól és a manipulatív tervezési megoldásoktól. Egységes korhatár az online szolgáltatásokhoz Az elmúlt időszakban egyre nagyobb figyelem irányult a gyermekek online biztonságára világszerte. Miután Ausztrália már korábban törvényt…
-
Forradalmi áttörés az AI és a kiberbiztonság területén: Claude Sonnet 4.5 új korszakot nyit
Az utóbbi években az MI (mesterséges intelligencia) alkalmazása a kiberbiztonságban egyre inkább a gyakorlati hasznosság irányába mozdult el. A kutatások és a gyakorlati tapasztalatok egyaránt azt mutatják, hogy a legfejlettebb AI-modellek nem csupán elméleti szinten, hanem a valós védekezési feladatokban is kiemelkedő eredményeket érnek el. Ezt igazolja a Claude Sonnet 4.5 modell megjelenése, amely a kódhibák felfedezésében és javításában, valamint a rendszerek védelmében új mércét állított fel. Cikkünkben bemutatjuk, milyen jelentős előrelépést hoz ez a fejlesztés, és miért fontos az AI aktív alkalmazása a kibervédelemben. Az AI szerepe a kiberbiztonságban: elmélettől a gyakorlatig Az elmúlt években a mesterséges intelligencia képességeit folyamatosan követték a biztonsági szakemberek, de kezdetben a modellek korlátozottan…
-
Új mérföldkő az AI és a kiberbiztonság kapcsolatában: Claude Sonnet 4.5 a védelem élvonalában
Az utóbbi években az mesterséges intelligencia (AI) egyre fontosabb szerepet tölt be a kiberbiztonság területén. Míg korábban az AI főként elméleti szinten volt jelen, mára már gyakorlati eszközként is bizonyítja hatékonyságát a kiberfenyegetések és sebezhetőségek felismerésében, elemzésében és kezelésében. A legújabb fejlesztések középpontjában Claude Sonnet 4.5 áll, amely jelentős előrelépést hoz a kiberbiztonsági feladatok automatizálásában és hatékonyabbá tételében. Az AI fejlődése a kibervédelemben Az AI-képességek változása az elmúlt év során jelentős paradigmaváltást hozott a kiberbiztonságban. Korábban az intelligens modelleket nem tartották elég fejlettnek a komplex támadások és védekezési mechanizmusok kezelésére, azonban a legfrissebb kutatások és versenyeredmények azt mutatják, hogy az AI immár képes nemcsak támadók, hanem védekezők számára is hatékony…
-
Google Ads Fiókfeltörések és AI Fejlesztések: Friss Hírek a Google Keresési Ökoszisztémából
Az idei hálaadás hetén jelentős változások és problémák rázzták meg a Google keresési és hirdetési rendszereit. A Google Ads fiókok feltörése egyre nagyobb aggodalomra ad okot, miközben a Google mesterséges intelligenciája, a Gemini 3, egyre több keresési lekérdezést kezel automatikusan. Emellett új funkciók és fejlesztések is megjelentek a Google hirdetési platformján, a Google Business Profile-on és más szolgáltatásokban. Összegyűjtöttük a legfontosabb újdonságokat, amelyek érintik a keresőoptimalizálást (SEO) és az online marketinget. Google Ads Fiókfeltörések és a Keresési Volatilitás Az elmúlt napokban több hír érkezett arról, hogy nőtt a Google Ads fiókok feltörésének száma. Ez komoly biztonsági kockázatot jelent a hirdetők számára, hiszen illetéktelenek hozzáférhetnek kampányokhoz, módosíthatják azokat, vagy akár jelentős…
-
Az EU egyszerűsítené a GDPR-t: új szabályok az AI-képzés és a cookie-hozzájárulás terén
Az Európai Bizottság egy átfogó „Digitális Omnibus” csomagot terjesztett elő, amely jelentős változásokat hozhat az adatvédelmi szabályozásban, különösen a GDPR és az AI-szabályozás területén. A javaslat célja, hogy versenyképesebbé és egyszerűbbé tegye az európai digitális szabályozást, miközben kezelhetőbbé válik a cookie-k és az AI-képzéshez használt adatok kezelése. Bár a jogszabály még nem lépett életbe, a digitális szakembereknek, marketingeseknek és adatvédelmi felelősöknek érdemes figyelemmel kísérniük a fejleményeket. Főbb változások a Digitális Omnibus javaslatban A Digitális Omnibus több jogszabályt is módosítana egyszerre. Az AI-szabályozás terén a legmagasabb kockázatú rendszerekre vonatkozó szigorúbb előírásokat 2026 augusztusáról 2027 decemberére tolná el, miközben csökkentené egyes rendszerek dokumentációs és jelentési kötelezettségeit. Emellett az ellenőrzési feladatok nagyobb részét…
-
Új mérföldkő a böngésző-alapú AI biztonságában: Claude Opus 4.5 jelentős előrelépéseket hoz a prompt injection elleni védekezésben
Az AI-alapú böngészőügynökök gyors fejlődésével párhuzamosan egyre nagyobb figyelmet kap a biztonság kérdése, különösen a prompt injection támadások elleni védelem. Ezek a támadások olyan rejtett rosszindulatú utasítások, melyeket a böngésző által feldolgozott tartalomba ágyaznak be, hogy manipulálják az AI viselkedését. A legújabb fejlesztés, a Claude Opus 4.5 modell jelentős előrelépést hoz ezen a területen, új szintre emelve a robusztusságot és a használat körüli védelmi mechanizmusokat. Mi is az a prompt injection és miért veszélyes? A prompt injection egy speciális támadási forma, amely során rosszindulatú utasításokat rejtenek el olyan tartalmakban, amelyeket az AI ügynökök feldolgoznak. Mivel az AI modellek egyre inkább képesek böngészni az internetet, e-maileket kezelni, vagy akár konkrét feladatokat…
-
Mindössze néhány mérgezett dokumentum is veszélyeztetheti a nagy nyelvi modelleket
Az utóbbi évek egyik legfontosabb kérdése a mesterséges intelligencia biztonsága, különösen a nagy nyelvi modellek (LLM-ek) esetében. Egy friss, az Egyesült Királyság AI Biztonsági Intézete, az Alan Turing Intézet és az Anthropic közös kutatása új megvilágításba helyezte a „mérgezett adat” (data poisoning) támadások veszélyét. Meglepő eredményük szerint mindössze 250 rosszindulatú, úgynevezett „mérgezett” dokumentum is képes egy hátsóajtós (backdoor) sebezhetőséget létrehozni a modellekben – függetlenül azok méretétől vagy a tanító adatok mennyiségétől. A tanulmány rávilágít arra, hogy a támadóknak nem kell a tanító adatok jelentős részét irányítaniuk ahhoz, hogy sikerrel járjanak. Egy fix, viszonylag kis számú mérgezett dokumentum elegendő lehet a modell megfertőzéséhez, ami jelentősen megkönnyíti a támadók dolgát. Ez a…
-
Biztonsági incidens: Az OpenAI reagált a Mixpanel adatvédelmi szivárgására
Az elmúlt napokban jelentős adatvédelmi incidensről érkeztek hírek, amely az OpenAI API-felhasználóinak korlátozott analitikai adatait érintette. A Mixpanel nevű harmadik fél elemzőcég rendszereiben történt betörés során jogosulatlan személyek férhettek hozzá bizonyos felhasználói információkhoz. Az OpenAI gyorsan reagált a helyzetre, és világossá tette, hogy saját rendszereik nem sérültek, így a ChatGPT felhasználók adatai biztonságban vannak. Mi történt pontosan a Mixpanelnél? November 9-én a Mixpanel belső infrastruktúrájában jogosulatlan hozzáférést észleltek, amely során egy támadó kiszivárogtatott egy olyan adatbázist, amely egyes OpenAI API-felhasználókhoz kapcsolódó információkat tartalmazott. A kompromittált adatok kizárólag elemzői jellegűek voltak, így nem érintették az OpenAI rendszereit, nem kerültek ki chatnaplók, API-kulcsok, jelszavak vagy pénzügyi adatok. Az incidensről az OpenAI azonos…