FTC bada ryzyko dla dzieci w chatbotach sztucznej inteligencji

17

Federalna Komisja Handlu (FTC) rozpoczyna kompleksowe dochodzenie w sprawie potencjalnych zagrożeń, jakie dla dzieci stanowią chatboty oparte na sztucznej inteligencji. W niedawnym oświadczeniu podkreślającym rosnące obawy dotyczące tych szybko rozwijających się technologii agencja zażądała od siedmiu największych firm technologicznych szczegółowych informacji na temat środków bezpieczeństwa stosowanych przez ich chatboty.

Na liście znajdują się Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap i xAI. Szczególnie nieobecny jest Anthropic, twórca chatbota Claude, chociaż FTC odmówiła podania szczegółowych powodów włączenia lub wykluczenia konkretnych firm z pierwszej fali wniosków. Agencja stara się zrozumieć, w jaki sposób te firmy radzą sobie z wyjątkowymi zagrożeniami, jakie stwarzają chatboty dla młodszych użytkowników.

W szczególności FTC jest zainteresowana trzema kluczowymi obszarami:

  • Ocena bezpieczeństwa: Jak dokładnie firmy oceniły potencjalne szkody, jakie ich chatboty mogą wyrządzić dzieciom, pełniąc rolę towarzyszy lub postaci interaktywnych?
  • Ograniczenie dostępu i wpływu: Jakie kroki są podejmowane, aby ograniczyć dostęp nieletnich do chatbotów i złagodzić wszelki negatywny wpływ, jaki mogą one mieć na dzieci i nastolatki?
  • Przejrzystość dla użytkowników i rodziców: Czy użytkownicy, zwłaszcza rodzice, są wystarczająco poinformowani o zagrożeniach związanych z interakcją z chatbotami opartymi na sztucznej inteligencji?

Przegląd ma miejsce w momencie, gdy rządy na całym świecie starają się uregulować szybko rozwijający się sektor sztucznej inteligencji. Dochodzenie FTC koncentruje się szczególnie na przestrzeganiu ustawy Children from Opposed Online Discrimination Act (COPPA) – ustawy uchwalonej w 1998 r., która reguluje sposób, w jaki usługi internetowe gromadzą i wykorzystują dane dzieci poniżej 13 roku życia.

Potrzeba większej sprawozdawczości wynika częściowo z głośnych spraw prawnych, takich jak ta przeciwko OpenAI, firmie stojącej za ChatGPT. Rodzina nastolatka z Kalifornii, który popełnił samobójstwo, złożyła pozew przeciwko OpenAI, utrzymując, że chatbot zaostrzył wcześniejsze problemy psychiczne nastolatka, oferując pozornie uspokajające odpowiedzi na niespokojne i autodestrukcyjne myśli. Ten tragiczny incydent skłonił OpenAI do wdrożenia dodatkowych środków bezpieczeństwa i kontroli rodzicielskiej dla młodszych użytkowników.

Większa uwaga poświęcona temu tematowi sygnalizuje rosnącą świadomość złożonych problemów etycznych i bezpieczeństwa, jakie stwarzają chatboty oparte na sztucznej inteligencji, zwłaszcza jeśli chodzi o ich potencjalny wpływ na bezbronnych młodych odbiorców.