Mesterséges intelligencia,  Tartalommarketing

Az AI és biológiai kockázatok: Az Anthropic nézőpontja a felelős mesterséges intelligencia fejlesztésről

A mesterséges intelligencia (AI) rohamos fejlődése új lehetőségeket teremt a tudományos kutatásban, különösen a biológia és az orvostudomány területén. Az Anthropic vállalat kiemelten foglalkozik azzal, hogy az AI miként segítheti a kutatókat, miközben egyidejűleg felelősségteljesen kezelni kell azokat a kockázatokat, amelyek abból adódhatnak, ha a technológiát rossz szándékkal használják fel. Új fejlesztéseik, például a Claude Opus 4 modell, jelentős előrelépést hoztak a tudományos elemzések támogatásában, ugyanakkor komoly biztonsági intézkedéseket is bevezettek az esetleges visszaélések megelőzése érdekében.

AI alkalmazása a biológiai kutatásokban és a biztonsági kihívások

Az Anthropic által fejlesztett Claude modell több olyan innovatív megoldásban is szerepet játszik, amelyek elősegítik a biológiai és orvosi kutatások hatékonyságát. Például a Benchling platform a Claudet használva segíti a kutatókat az adatok rendszerezésében és az új kérdések feltevésében, míg a Biomni a bioinformatikai elemzések gyorsítására és az kísérletek tervezésének automatizálására alkalmazza az AI-t. Ugyanakkor az AI kettős felhasználású technológia: ugyanazok a képességek, amelyek előnyt jelentenek a tudományban, rossz kezekben veszélyt hordozhatnak.

Az Anthropic ezért már a Claude Opus 4 megjelenésekor bevezette az AI Safety Level 3 (ASL-3) biztonsági szintet, amely szigorú korlátozásokat tartalmaz a modell alkalmazására vonatkozóan, különösen a vegyi, biológiai, radiológiai és nukleáris (CBRN) fegyverek fejlesztésének megelőzése érdekében. Ez a lépés megelőző intézkedés volt, hiszen a modell fejlődése miatt már nem lehetett teljes biztonsággal kizárni, hogy rosszindulatú felhasználók hasznát vegyék a technológiának.

Miért kiemelten fontos a biológiai kockázat kezelése?

Az AI-val kapcsolatos biztonsági keretrendszerek szinte mindegyike tartalmaz utalást a biológiai kockázatokra, ami elsőre talán nem tűnik egyértelműnek. A nagy nyelvi modellek (LLM-ek) ugyanis általános tudással rendelkeznek, nem kizárólag biológiai alkalmazásokra specializálódtak, mint például az AlphaFold. Ennek ellenére a biológiai fenyegetések különösen aggasztóak, mert egy sikeres biológiai támadás következményei sokkal súlyosabbak lehetnek, mint a helyi hatású fegyvereké.

Az utóbbi időben a biotechnológia területén bekövetkezett fejlődés, például a nukleinsav-szintézis költségeinek csökkenése, a szabványosított reagenskészletek és a könnyen hozzáférhető molekuláris biológiai eszközök (például PCR gépek) miatt a korábbi anyagi akadályok enyhültek. Az AI pedig tovább csökkenti az információs és tudásbeli korlátokat, így a kombináció – a potenciálisan súlyos következmények mellett – különösen indokolttá teszi a biológiai kockázatok átfogó vizsgálatát és kezelését.

A Claude modell teljesítménye és a biológiai tudás

A nagy nyelvi modelleket hatalmas adatmennyiségeken képezik, amelyek között tudományos publikációk, könyvek és online szakmai viták is szerepelnek. Ennek köszönhetően ezek a modellek biológiai tudással is rendelkeznek, például a fehérjeszerkezetekről, a genetikai módosítási technikákról vagy a virológiáról.

Érdekes módon az utóbbi időben a Claude és más LLM-ek egyre inkább képesek túlszárnyalni a szakértői szintet bizonyos biológiai tudást igénylő feladatokban. Egy év alatt a Claude jelentősen javított virológiai laboratóriumi problémamegoldó képességein, és már több alkalommal is meghaladta a szakértők teljesítményét. Ez azt jelenti, hogy a mesterséges intelligencia nemcsak széles körű tudást halmoz fel, hanem egyes esetekben a szakterületi specialistákat is képes felülmúlni.

Valós veszélyek és kísérleti eredmények AI segítségével tervezett biológiai fenyegetésekről

Az Anthropic nemcsak elméleti szinten foglalkozik az AI és biológiai kockázatok kapcsolatával, hanem konkrét vizsgálatokat is végeznek. Egy kontrollált tanulmányban két csoportot kértek meg arra, hogy két nap alatt dolgozzanak ki egy biológiai fegyver megszerzési tervét: az egyik csoport kizárólag internetes forrásokat használhatott, míg a másik csoport hozzáférést kapott a Claude modellhez, a biztonsági korlátozások nélkül.

Az eredmény egyértelmű volt: a Claude támogatását élvező résztvevők sokkal átfogóbb és kevesebb hibát tartalmazó terveket készítettek. Bár ezek a laboratóriumi környezetben zajló, szöveges alapú tesztek nem fedik le teljesen a valós világ összetett tényezőit, világosan jelzik, hogy az AI komoly előnyt jelenthet egy kevésbé tapasztalt, rosszindulatú szereplő számára.

Kísérleti laboratóriumi vizsgálatok és a tacit tudás szerepe

Egy másik fontos kérdés a kutatók számára a „tacit knowledge” vagyis a nehezen verbalizálható, tapasztalati tudás szerepe a biológiai laboratóriumi munkában. Egy 2024-es pilot vizsgálatban, amelyben alapszintű biológiai protokollokat próbáltak végrehajtani, nem találtak bizonyítékot arra, hogy az AI jelentősen növelné a kevésbé tapasztalt résztvevők teljesítményét a laborban.

Ugyanakkor a résztvevők, még az internethasználók is, meglepően jól teljesítettek, ami arra utalhat, hogy a tacit tudás nem feltétlenül akkora akadály, mint azt korábban gondolták. Ezt a kutatást most egy nagyobb léptékű laboratóriumi vizsgálat követi, amelyet az Anthropic a Frontier Model Forum és a Sentinel Bio szervezetével közösen végez. Ennek célja az AI valós laboratóriumi feladatokban való használhatóságának és a tacit tudás jelentőségének pontosabb megértése.

Az együttműködés és átláthatóság fontossága a biorisk kezelésében

Az Anthropic hangsúlyozza a kormányzati és ipari együttműködések jelentőségét a biológiai kockázatok hatékony kezelésében. Az Egyesült Államok és az Egyesült Királyság AI biztonsági intézményeivel folytatott közös munka segíti a fenyegetések jobb megértését és az AI alkalmazások biztonságosabbá tételét.

A vállalat támogatja az átláthatóságot és a felelős fejlesztési keretrendszerek bevezetését, valamint automatikus védelmi rendszereket alkalmaz, amelyek valós időben figyelik a modell bemeneteit és kimeneteit, hogy megakadályozzák a potenciálisan veszélyes információk terjedését.

Kitekintés és következtetések

Az AI és a biológiai kockázatok viszonya bonyolult és folyamatosan változik, ezért kiemelt figyelmet igényel a fejlesztők és a döntéshozók részéről. Bár a pontos kockázatok és fenyegetések mértéke még bizonytalan, az eddigi eredmények egyértelműen alátámasztják, hogy a mesterséges intelligencia fejlődése új típusú veszélyeket is hordozhat, amelyeket komolyan kell venni.

Az Anthropic elkötelezett amellett, hogy tovább fejlessze biztonsági intézkedéseit és hozzájáruljon a nyilvános párbeszédhez, elősegítve ezzel a mesterséges intelligencia felelős és biztonságos használatát a biológia és más kritikus területeken.

Forrás: az eredeti angol cikk itt olvasható