Anthropic: Nutzer sollen Jailbreak-Schutz für KI-Chatbot auf die Probe stellen
« am: 05.02.2025, 08:18:31 »
Anthropic hat ein Filtersystem entwickelt, das Antworten auf unzulässige KI-Anfragen verhindern soll. Nun sind die Nutzer gefordert, die Filter zu testen.