-
Claude AI új funkciója: véget vet a káros beszélgetéseknek!
Az Anthropic legújabb bejelentése szerint a cég Claude modelljei mostantól képesek lesznek leállítani a „káros vagy bántalmazó” beszélgetéseket. Az új funkció célja nem a felhasználók védelme, hanem a mesterséges intelligencia (AI) modellek biztonságának megőrzése. A cég hangsúlyozta, hogy nem állítják, hogy Claude modellek tudatosak lennének vagy bármilyen módon sérülhetnének a felhasználókkal folytatott párbeszédek során. Az Anthropic az AI modellek jólétének kutatására irányuló programot indított, és a bevezetett intézkedések célja, hogy minimalizálják a lehetséges kockázatokat. A legújabb fejlesztések a Claude Opus 4 és 4.1 modellekre vonatkoznak, és csak „extrém esetekben” aktiválódnak, például ha a felhasználó kiskorúakkal kapcsolatos szexuális tartalmakat kér, vagy olyan információt próbál szerezni, amely nagy léptékű erőszakra vagy terrorcselekményekre…
-
Anthropic kihívása: Claude $1-ért az amerikai kormány számára
Az Anthropic cég nemrégiben egy új lépést tett, hogy megpróbálja felvenni a versenyt az OpenAI-jal. Az OpenAI bejelentése után, miszerint a ChatGPT Enterprise szolgáltatását 1 dolláros éves díjért kínálja az Egyesült Államok szövetségi végrehajtó ágazata számára, az Anthropic úgy döntött, hogy még egy lépéssel tovább megy. A cég bejelentette, hogy saját Claude nevű AI modelljét nemcsak az executive ágazatnak, hanem az Egyesült Államok három ágazatának – a végrehajtónak, a törvényhozónak és az igazságszolgáltatásnak – is elérhetővé teszi, szintén 1 dollárért évente. Az Anthropic célja, hogy bővítse jelenlétét a szövetségi AI használatban, hangsúlyozva, hogy a közszolgáltatások számára elérhetővé kell tenni a legfejlettebb mesterséges intelligencia megoldásokat. A cég nyilatkozatában kiemelte, hogy az…
-
Claude AI modell: Mostantól hosszabb bemenetek kezelése!
Anthropic nemrégiben bejelentette, hogy Claude AI modellje mostantól hosszabb promptok kezelésére is képes. Ez a lépés része annak a stratégiának, hogy még több fejlesztőt vonzanak a cég népszerű AI kódolási modelljeihez. Az Anthropic API ügyfelei számára a Claude Sonnet 4 AI modell mostantól egy 1 millió tokenes kontextusablakot kínál, ami azt jelenti, hogy az AI képes akár 750 000 szavas kérdések kezelésére is. Ez a mennyiség több mint a „Gyűrűk Ura” trilógia teljes szövege, vagy 75 000 kódsor. Az új kapacitás körülbelül ötszöröse Claude korábbi, 200 000 tokenes limitjének, és jelentősen meghaladja az OpenAI GPT-5 által kínált 400 000 tokenes kontextusablakot is. Az AI kódolási platformok jövője Az Anthropic célja,…