None

Anthropic: Nutzer sollen Jailbreak-Schutz für KI-Chatbot auf die Probe stellen

Anthropic hat ein Filtersystem entwickelt, das Antworten auf unzulässige KI-Anfragen verhindern soll. Nun sind die Nutzer gefordert, die Filter zu testen.