Anthropic: Nutzer sollen Jailbreak-Schutz für KI-Chatbot auf die Probe stellen
Anthropic hat ein Filtersystem entwickelt, das Antworten auf unzulässige KI-Anfragen verhindern soll. Nun sind die Nutzer gefordert, die Filter zu testen.
Hier finden Sie den kompletten Artikel: