додому Без рубрики FTC onderzoekt de kinderveiligheidsrisico’s van AI-chatbots

FTC onderzoekt de kinderveiligheidsrisico’s van AI-chatbots

De Federal Trade Commission (FTC) lanceert een uitgebreid onderzoek naar de potentiële gevaren die AI-chatbots met zich meebrengen voor kinderen. In een recente stap die wijst op de groeiende bezorgdheid over deze snel evoluerende technologieën, heeft het bureau gedetailleerde informatie geëist van zeven grote technologiebedrijven over de veiligheidsmaatregelen voor hun chatbots.

Dit omvat Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap en xAI. Opvallend afwezig in deze lijst is Anthropic, de maker van de Claude-chatbot, hoewel de FTC weigerde uit te leggen waarom specifieke bedrijven wel of niet in deze eerste onderzoeksronde waren opgenomen. Het bureau wil begrijpen hoe deze bedrijven omgaan met de unieke risico’s die hun chatbots met zich meebrengen voor jonge gebruikers.

Concreet is de FTC geïnteresseerd in drie belangrijke gebieden:

  • Veiligheid evalueren: Hoe grondig hebben bedrijven de potentiële schade beoordeeld die hun chatbots kunnen toebrengen aan kinderen wanneer ze optreden als metgezellen of interactieve figuren?
  • Toegang en impact beperken: Welke stappen worden er ondernomen om de toegang tot deze chatbots voor minderjarigen te beperken en eventuele negatieve gevolgen voor kinderen en tieners te verzachten?
  • Transparantie voor gebruikers en ouders: Worden gebruikers, en vooral ouders, voldoende geïnformeerd over de potentiële risico’s die gepaard gaan met AI-chatbot-interacties?

Dit onderzoek komt op het moment dat regeringen over de hele wereld worstelen met het reguleren van het snelgroeiende veld van kunstmatige intelligentie. Het onderzoek van de FTC is vooral gericht op de naleving van de Children’s Online Privacy Protection Act (COPPA), een wet uit 1998 die regelt hoe onlinediensten gegevens van kinderen onder de 13 jaar verzamelen en gebruiken.

De drang naar grotere verantwoordelijkheid komt deels voort uit spraakmakende rechtszaken zoals die tegen OpenAI, het bedrijf achter ChatGPT. De familie van een Californische tiener die door zelfmoord is omgekomen, klaagt OpenAI aan en beweert dat hun chatbot de reeds bestaande geestelijke gezondheidsproblemen van de tiener heeft verergerd door schijnbaar bemoedigende reacties te bieden op verontrustende en zelfdestructieve gedachten. Deze tragische zaak heeft OpenAI ertoe aangezet om extra veiligheidsmaatregelen en ouderlijk toezicht voor jongere gebruikers in te voeren.

Dit verhoogde toezicht duidt op een groeiend bewustzijn van de complexe ethische en veiligheidsuitdagingen die AI-chatbots met zich meebrengen, vooral als het gaat om hun potentiële invloed op een kwetsbaar jong publiek.

Exit mobile version