Character.AI zakazała nieograniczonej liczby rozmów między nastolatkami a chatbotami AI, zamiast tego wprowadziła nową funkcję: interaktywne historie oparte na fabule. Zmiana następuje w obliczu rosnących obaw związanych ze szkodliwymi interakcjami ze sztuczną inteligencją oraz presją prawną ze strony rodziców, których dzieci ucierpiały w wyniku rozmów prowadzonych przez sztuczną inteligencję bez nadzoru.
Po co zmieniać?
Platforma, znana z konfigurowalnych „postaci botów”, wcześniej umożliwiała nieograniczoną komunikację. Prowadziło to jednak do niebezpiecznych sytuacji. W tym roku kilka procesów sądowych zarzuca nastolatkom samobójstwo po rozmowach na temat samookaleczeń z modelami sztucznej inteligencji, w tym w sprawach przeciwko OpenAI (twórcy ChatGPT). Od tego czasu OpenAI wzmocniło swoje środki bezpieczeństwa, ale Character.AI zdecydowało się na bardziej drastyczny krok.
„Przejście na bardziej wyszukane gry i filmy RPG zapewni nastolatkom lepsze wrażenia niż zwykłe rozmowy” – powiedział dyrektor generalny Karandeep Anand.
Jak działa nowy system
Użytkownicy poniżej 18 roku życia mogą teraz wchodzić w interakcje wyłącznie w ramach wstępnie zdefiniowanych scenariuszy. Wybierają postać, gatunek, a następnie prowadzą sztuczną inteligencję przez historię. To jak książka „Wybierz własną przygodę”, w której sztuczna inteligencja reaguje na podstawie danych wejściowych użytkownika w kontrolowanych ramach.
W blogu platformy wyjaśniono, że ta zmiana wspiera „rodzaje kreatywności wykraczające poza niekończące się czaty”, przedstawiając tę funkcję jako zabawną i bezpieczniejszą alternatywę. Historie można odtwarzać i udostępniać, co dodatkowo stymuluje nową metodę interakcji.
Większy obraz
Zmiana ta podkreśla krytyczne debaty na temat bezpieczeństwa sztucznej inteligencji i ochrony dzieci. Chociaż sztuczna inteligencja oferuje potencjał rozrywkowy i edukacyjny, niekontrolowany dostęp może być katastrofalny. Decyzja Character.AI ustanawia precedens: ograniczenie niekontrolowanych interakcji jest obecnie postrzegane jako konieczne w celu ograniczenia ryzyka prawnego i etycznego.
Przyszłość interakcji nastolatków ze sztuczną inteligencją prawdopodobnie będzie podążać za tym modelem. Platformy będą priorytetowo traktować ustrukturyzowane doświadczenia z przewodnikiem zamiast otwartych czatów, zapewniając większą kontrolę nad treścią i zmniejszając prawdopodobieństwo szkodliwych skutków.
