Character.ai – pełna blokada otwartych rozmów dla osób poniżej 18 lat
Platforma Character.ai ogłosiła wprowadzenie jednego z najbardziej restrykcyjnych systemów ochrony nieletnich w branży AI. Od 25 listopada 2025 roku użytkownicy poniżej 18. roku życia stracą możliwość prowadzenia otwartych rozmów z chatbotami. Nastolatkowie zachowają jedynie dostęp do wcześniejszych historii czatów oraz będą mogli tworzyć wideo i historie z postaciami AI, ale bez opcji prowadzenia bieżącej konwersacji tekstowej.
W okresie przejściowym, do dnia wejścia w życie zmian, młodsi użytkownicy mają zostać ograniczeni do maksymalnie dwóch godzin czatu dziennie. Po tej dacie interakcyjny charakter platformy dla nieletnich praktycznie znika – z narzędzia towarzyszącego rozmowie Character.ai staje się dla nich wyłącznie kreatorem treści.
Character.ai – pozwy po samobójstwach nastolatków i presja na zmianę podejścia
Decyzja o blokadzie nieletnich jest bezpośrednio związana z serią głośnych pozwów sądowych. W jednym z nich rodzina 14-letniego Sewella Setzera III oskarżyła platformę o współodpowiedzialność za śmierć chłopca, który miał rozwinąć silną więź emocjonalną z chatbotem wcielającym się w postać Daenerys Targaryen. Ostatnia konwersacja, w której bot zwracał się do nastolatka w sposób mocno spoufalony i emocjonalny, stała się jednym z kluczowych dowodów w sprawie.

Kolejne pozwy, m.in. dotyczące 13-letniej Juliany Peralty, dodatkowo wzmocniły nacisk na operatora platformy. W centrum zarzutów znajduje się ryzyko, że chatboty – szczególnie typu AI companion, budujące poczucie „relacji” – mogą wzmacniać destrukcyjne myśli, w tym związane z samookaleczeniami i samobójstwem.
Character.ai – weryfikacja wieku i nowe struktury bezpieczeństwa
Aby realnie egzekwować nowe zasady, Character.ai wprowadza zaawansowaną weryfikację wieku. Wykorzystywany ma być zarówno własny model AI, jak i technologia firmy Persona, specjalizującej się w potwierdzaniu tożsamości i wieku użytkowników. Celem jest znaczące utrudnienie omijania ograniczeń przez nastolatków, którzy od lat doskonale radzą sobie z prostymi formularzami „potwierdzam, że mam 18 lat”.
Dodatkowo powołana zostaje organizacja AI Safety Lab w formie niezależnej jednostki non-profit. Jej zadaniem ma być badanie bezpieczeństwa rozrywkowych aplikacji AI, ze szczególnym uwzględnieniem wpływu na dzieci i młodzież. To krok w stronę bardziej sformalizowanego, badawczego podejścia do projektowania chatbotów, które wchodzą w obszar zdrowia psychicznego.
Character.ai – paradoks założycieli i rozwój platformy
Historia Character.ai ma wymiar symboliczny. Firmę założyli w 2021 roku Noam Shazeer i Daniel De Freitas, byli inżynierowie Google, którzy odeszli po tym, jak ich chatbot Meena nie został dopuszczony do publicznego wydania z uwagi na obawy o bezpieczeństwo – m.in. w kontekście treści samobójczych i seksualnych dla nastolatków.
Character.ai w krótkim czasie urosło do roli jednego z najpopularniejszych serwisów AI companion. W 2023 roku spółka pozyskała rundę finansowania rzędu 150 mln dolarów przy wycenie około 1 mld dolarów, a rok później doszło do dużej umowy licencyjnej z Google na poziomie 2,7 mld dolarów, co pozwoliło m.in. na powrót założycieli do struktur giganta.
Character.ai – szerszy kontekst regulacyjny i branżowy
Problem nie dotyczy tylko jednej platformy. Wokół AI narasta dyskusja o konieczności obowiązkowej weryfikacji wieku i twardszych standardów bezpieczeństwa dla usług kierowanych do nastolatków. Inne systemy, jak ChatGPT, wprowadziły tryby z kontrolą rodzicielską, a nowe przepisy – np. w Kalifornii czy w ramach regulacji w UE – mogą wymusić na operatorach cyfrowych wdrożenie realnych zabezpieczeń chroniących nieletnich.
Character.ai wybiera w tym kontekście rozwiązanie skrajnie zachowawcze: zamiast poluzowanych, „nastoletnich” wersji chatbotów, po prostu odcina całą grupę wiekową od kluczowej funkcji usługi. Z jednej strony ogranicza to ryzyko prawne i reputacyjne, z drugiej – może zmniejszyć bazę użytkowników i ilość danych, na których modele są trenowane.
Character.ai – tabela kluczowych zmian i parametrów
|
Element |
Charakterystyka |
|
Rodzaj usługi |
platforma chatbotów AI typu AI companion |
|
Data ogłoszenia zmian |
29 października 2025 |
|
Data wejścia w życie blokady |
25 listopada 2025 |
|
Zakres blokady |
brak możliwości prowadzenia nowych otwartych czatów dla użytkowników < 18 lat |
|
Okres przejściowy |
do 2 godzin rozmów dziennie dla nieletnich przed blokadą |
|
Dostęp dla nieletnich po zmianie |
tylko tworzenie wideo i historii z postaciami AI, bez bieżącego czatu |
|
Mechanizmy bezpieczeństwa |
zaawansowana weryfikacja wieku (AI + Persona), dodatkowe filtry treści |
|
Nowa struktura |
niezależna organizacja AI Safety Lab (non-profit) |
|
Twórcy |
Noam Shazeer, Daniel De Freitas (dawniej Google) |
|
Model biznesowy |
AI companion, wysoki czas zaangażowania użytkowników (wielogodzinne sesje) |
Character.ai – podsumowanie znaczenia dla rynku AI
Zmiana wprowadzona przez Character.ai pokazuje, że emocjonalne chatboty AI przestają być „dzikim zachodem”. Odcinając nieletnich od otwartych rozmów, platforma wybiera bezpieczeństwo i ograniczenie ryzyka prawnego kosztem wzrostu i zaangażowania. Jest bardzo prawdopodobne, że ten ruch stanie się punktem odniesienia dla regulatorów oraz innych usług AI, które oferują relacyjne interakcje z wirtualnymi postaciami.
Dla branży to sygnał, że projektowanie systemów AI musi coraz mocniej uwzględniać psychologiczne skutki długotrwałych interakcji, szczególnie z osobami młodymi. Dla użytkowników – zwłaszcza rodziców – to przypomnienie, że AI w roli „cyfrowego przyjaciela” wymaga takich samych, a nawet większych środków ostrożności niż media społecznościowe.