ChatPaper.aiChatPaper

MinorBench: Ein manuell erstellter Benchmark für inhaltsbasierte Risiken für Kinder

MinorBench: A hand-built benchmark for content-based risks for children

March 13, 2025
Autoren: Shaun Khoo, Gabriel Chua, Rachel Shong
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) dringen zunehmend in das Leben von Kindern ein – sei es durch die Nutzung seitens der Eltern, in Schulen oder über Peer-Netzwerke – doch die aktuelle Forschung zu KI-Ethik und Sicherheit berücksichtigt die inhaltsbezogenen Risiken für Minderjährige nicht ausreichend. In diesem Artikel beleuchten wir diese Lücken anhand einer Fallstudie eines LLM-basierten Chatbots, der in einer Mittelschule eingesetzt wurde, und zeigen auf, wie Schüler das System genutzt und teilweise missbraucht haben. Aufbauend auf diesen Erkenntnissen schlagen wir eine neue Taxonomie inhaltsbezogener Risiken für Minderjährige vor und stellen MinorBench vor, einen Open-Source-Benchmark, der entwickelt wurde, um LLMs hinsichtlich ihrer Fähigkeit zu bewerten, unsichere oder unangemessene Anfragen von Kindern abzulehnen. Wir evaluieren sechs bekannte LLMs unter verschiedenen System-Prompts und zeigen erhebliche Unterschiede in ihrer Einhaltung von Kindersicherheitsstandards auf. Unsere Ergebnisse liefern praktische Ansätze für robustere, kindgerechte Sicherheitsmechanismen und unterstreichen die Dringlichkeit, KI-Systeme so anzupassen, dass junge Nutzer geschützt werden.
English
Large Language Models (LLMs) are rapidly entering children's lives - through parent-driven adoption, schools, and peer networks - yet current AI ethics and safety research do not adequately address content-related risks specific to minors. In this paper, we highlight these gaps with a real-world case study of an LLM-based chatbot deployed in a middle school setting, revealing how students used and sometimes misused the system. Building on these findings, we propose a new taxonomy of content-based risks for minors and introduce MinorBench, an open-source benchmark designed to evaluate LLMs on their ability to refuse unsafe or inappropriate queries from children. We evaluate six prominent LLMs under different system prompts, demonstrating substantial variability in their child-safety compliance. Our results inform practical steps for more robust, child-focused safety mechanisms and underscore the urgency of tailoring AI systems to safeguard young users.

Summary

AI-Generated Summary

PDF43March 14, 2025