додому Без рубрики FTC untersucht Kindersicherheitsrisiken von KI-Chatbots

FTC untersucht Kindersicherheitsrisiken von KI-Chatbots

Die Federal Trade Commission (FTC) leitet eine umfassende Untersuchung der potenziellen Gefahren ein, die KI-Chatbots für Kinder darstellen. In einem jüngsten Schritt, der die wachsende Besorgnis über diese sich schnell entwickelnden Technologien zum Ausdruck bringt, hat die Agentur von sieben großen Technologieunternehmen detaillierte Informationen zu ihren Chatbot-Sicherheitsmaßnahmen angefordert.

Dazu gehören Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap und xAI. Bemerkenswerterweise fehlt in dieser Liste Anthropic, der Erfinder des Claude-Chatbots, obwohl die FTC es ablehnte, näher zu erläutern, warum bestimmte Unternehmen in diese erste Untersuchungsrunde einbezogen wurden oder nicht. Die Agentur möchte verstehen, wie diese Unternehmen mit den einzigartigen Risiken umgehen, die ihre Chatbots für junge Benutzer darstellen.

Konkret interessiert sich die FTC für drei Schlüsselbereiche:

  • Bewertung der Sicherheit: Wie gründlich haben Unternehmen den potenziellen Schaden bewertet, den ihre Chatbots Kindern zufügen könnten, wenn sie als Begleiter oder interaktive Figuren fungieren?
  • Einschränkung des Zugriffs und der Auswirkungen: Welche Schritte werden unternommen, um den Zugriff von Minderjährigen auf diese Chatbots einzuschränken und mögliche negative Auswirkungen auf Kinder und Jugendliche abzumildern?
  • Transparenz für Benutzer und Eltern: Sind Benutzer, insbesondere Eltern, ausreichend über die potenziellen Risiken informiert, die mit KI-Chatbot-Interaktionen verbunden sind?

Diese Prüfung erfolgt, da sich Regierungen weltweit mit der Regulierung des aufkeimenden Bereichs der künstlichen Intelligenz auseinandersetzen. Die Untersuchung der FTC konzentriert sich insbesondere auf die Einhaltung des Children’s Online Privacy Protection Act (COPPA), einem 1998 erlassenen Gesetz, das regelt, wie Online-Dienste Daten von Kindern unter 13 Jahren sammeln und verwenden.

Der Drang nach mehr Rechenschaftspflicht geht zum Teil auf hochkarätige Rechtsfälle wie den gegen OpenAI zurück, das Unternehmen hinter ChatGPT. Die Familie eines kalifornischen Teenagers, der durch Selbstmord gestorben ist, verklagt OpenAI und behauptet, dass ihr Chatbot die bereits bestehenden psychischen Probleme des Teenagers verschärft habe, indem er scheinbar ermutigende Antworten auf verstörende und selbstzerstörerische Gedanken gegeben habe. Dieser tragische Fall hat OpenAI dazu veranlasst, zusätzliche Schutzmaßnahmen und Kindersicherungen für jüngere Benutzer einzuführen.

Diese verstärkte Prüfung signalisiert ein wachsendes Bewusstsein für die komplexen ethischen und sicherheitstechnischen Herausforderungen, die KI-Chatbots mit sich bringen, insbesondere wenn es um ihren potenziellen Einfluss auf gefährdete junge Zielgruppen geht.

Exit mobile version