OpenAI richt een geestelijke welzijnsraad op te midden van groeiende zorgen over de impact van AI

11

OpenAI, het bedrijf achter de populaire chatbot ChatGPT, heeft een stap gezet om de toenemende zorgen over de invloed van kunstmatige intelligentie op de geestelijke gezondheid weg te nemen door een deskundigenraad op te richten die zich richt op het welzijn van gebruikers en AI-veiligheid. Deze groep van acht leden zal worden belast met het definiëren van normen voor gezonde interacties met AI in verschillende leeftijdsgroepen.

De aankondiging kwam naast een controversiële verklaring van OpenAI CEO Sam Altman op X (voorheen Twitter). Hoewel Altman beweerde dat het bedrijf met succes “ernstige geestelijke gezondheidsproblemen” als gevolg van zijn producten had verzacht, onthulde Altman ook dat ChatGPT binnenkort meer inhoud voor volwassenen zou toestaan, inclusief seksueel expliciet materiaal in gesprekken. Deze stap komt op een precair moment voor OpenAI, omdat het geconfronteerd wordt met de eerste rechtszaak wegens onrechtmatige dood waarin wordt beweerd dat ChatGPT heeft bijgedragen aan de zelfmoord van een tiener.

De nieuwe raad van OpenAI bestaat uit academici van prestigieuze instellingen zoals het Digital Wellness Lab van het Boston Children’s Hospital en de Digital Mental Health Clinic van Stanford. Ze worden vergezeld door specialisten op het gebied van psychologie, psychiatrie en mens-computerinteractie. Het bedrijf benadrukt zijn toewijding aan verantwoorde ontwikkeling en stelt dat ze “verantwoordelijk blijven voor de beslissingen die we nemen, maar [zullen] blijven leren van deze raad… terwijl we geavanceerde AI-systemen bouwen op manieren die het welzijn van mensen ondersteunen.”

Ondanks deze proactieve stap blijft het publieke vertrouwen in de rol van AI in de geestelijke gezondheidszorg laag. Uit een recent YouGov-onderzoek onder 1.500 Amerikanen bleek dat slechts 11% openstond voor het gebruik van AI voor geestelijk welzijn, terwijl slechts 8% vertrouwen uitsprak in de veiligheid en werkzaamheid ervan. Dit scepticisme weerspiegelt bredere zorgen op het gebied van de geestelijke gezondheidszorg.

Deskundigen hebben ernstige zorgen geuit over de mogelijke valkuilen van generatieve AI-metgezellen, waaronder de opkomst van “AI-psychose” onder frequente gebruikers van chatbot-interacties. Ondanks dit gebrek aan sluitend bewijs over de voordelen van AI voor de geestelijke gezondheid, wendt een groeiend aantal Amerikanen zich tot AI voor antwoorden en ondersteuning, waardoor een debat over de ethische implicaties ervan wordt aangewakkerd.

Federale toezichthouders onderzoeken nu de impact van generatieve AI, met name chatbots die op de markt worden gebracht als therapeutische hulpmiddelen, te midden van een golf van crises op het gebied van de geestelijke gezondheidszorg, vooral onder tieners. Verschillende staten hebben een verbod ingevoerd op AI-aangedreven chatbots die voor therapeutische doeleinden worden geadverteerd. Californië heeft een bijzonder proactieve houding aangenomen door wetgeving in te voeren die AI-bedrijven verplicht veiligheidsproblemen te melden, tienergebruikers te beschermen tegen seksueel expliciete inhoud en mechanismen op te zetten voor het aanpakken van zelfmoordgedachten en zelfbeschadiging.

De vorming van de raad van OpenAI benadrukt de groeiende druk op AI-ontwikkelaars om te worstelen met de diepgaande maatschappelijke gevolgen van hun technologie, vooral op gevoelige gebieden als de geestelijke gezondheidszorg. Het valt nog te bezien of deze inspanningen de zorgen van het publiek zullen wegnemen en het vertrouwen in AI zullen vergroten als een verantwoordelijk instrument voor het aanpakken van complexe menselijke behoeften.