Newsparadies: Anthropic: Nutzer sollen Jailbreak-Schutz für KI-Chatbot auf die Probe stellen

News => Welt-Ticker => Thema gestartet von: heise am 05.02.2025, 08:18:31



Titel: Anthropic: Nutzer sollen Jailbreak-Schutz für KI-Chatbot auf die Probe stellen
Beitrag von: heise am 05.02.2025, 08:18:31
(http://newsparadies.de/images/board/x31.gif) Anthropic hat ein Filtersystem entwickelt, das Antworten auf unzulässige KI-Anfragen verhindern soll. Nun sind die Nutzer gefordert, die Filter zu testen.
Quelle: https://www.heise.de/news/Anthropic-Nutzer-sollen-Jailbreak-Schutz-fuer-KI-Chatbot-auf-die-Probe-stellen-10269014.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag
(http://www.netzausfall.de/wp-content/heise.jpg)

Stichworte: Anthropic, Bug Bounty, Chatbots, Claude, Künstliche Intelligenz, iOS


Newsparadies | Impressum | Datenschutz | Powered by SMF 1.0.7.
© 2001-2005, Lewis Media. Alle Rechte vorbehalten.