-
Claude AI új funkciója: véget vet a káros beszélgetéseknek!
Az Anthropic legújabb bejelentése szerint a cég Claude modelljei mostantól képesek lesznek leállítani a „káros vagy bántalmazó” beszélgetéseket. Az új funkció célja nem a felhasználók védelme, hanem a mesterséges intelligencia (AI) modellek biztonságának megőrzése. A cég hangsúlyozta, hogy nem állítják, hogy Claude modellek tudatosak lennének vagy bármilyen módon sérülhetnének a felhasználókkal folytatott párbeszédek során. Az Anthropic az AI modellek jólétének kutatására irányuló programot indított, és a bevezetett intézkedések célja, hogy minimalizálják a lehetséges kockázatokat. A legújabb fejlesztések a Claude Opus 4 és 4.1 modellekre vonatkoznak, és csak „extrém esetekben” aktiválódnak, például ha a felhasználó kiskorúakkal kapcsolatos szexuális tartalmakat kér, vagy olyan információt próbál szerezni, amely nagy léptékű erőszakra vagy terrorcselekményekre…