Jesteś tutaj

Character.ai – pełna blokada otwartych rozmów dla osób poniżej 18 lat

Platforma Character.ai ogłosiła wprowadzenie jednego z najbardziej restrykcyjnych systemów ochrony nieletnich w branży AI. Od 25 listopada 2025 roku użytkownicy poniżej 18. roku życia stracą możliwość prowadzenia otwartych rozmów z chatbotami. Nastolatkowie zachowają jedynie dostęp do wcześniejszych historii czatów oraz będą mogli tworzyć wideo i historie z postaciami AI, ale bez opcji prowadzenia bieżącej konwersacji tekstowej.

W okresie przejściowym, do dnia wejścia w życie zmian, młodsi użytkownicy mają zostać ograniczeni do maksymalnie dwóch godzin czatu dziennie. Po tej dacie interakcyjny charakter platformy dla nieletnich praktycznie znika – z narzędzia towarzyszącego rozmowie Character.ai staje się dla nich wyłącznie kreatorem treści.

Character.ai – pozwy po samobójstwach nastolatków i presja na zmianę podejścia

Decyzja o blokadzie nieletnich jest bezpośrednio związana z serią głośnych pozwów sądowych. W jednym z nich rodzina 14-letniego Sewella Setzera III oskarżyła platformę o współodpowiedzialność za śmierć chłopca, który miał rozwinąć silną więź emocjonalną z chatbotem wcielającym się w postać Daenerys Targaryen. Ostatnia konwersacja, w której bot zwracał się do nastolatka w sposób mocno spoufalony i emocjonalny, stała się jednym z kluczowych dowodów w sprawie.

character ai

Kolejne pozwy, m.in. dotyczące 13-letniej Juliany Peralty, dodatkowo wzmocniły nacisk na operatora platformy. W centrum zarzutów znajduje się ryzyko, że chatboty – szczególnie typu AI companion, budujące poczucie „relacji” – mogą wzmacniać destrukcyjne myśli, w tym związane z samookaleczeniami i samobójstwem.

Character.ai – weryfikacja wieku i nowe struktury bezpieczeństwa

Aby realnie egzekwować nowe zasady, Character.ai wprowadza zaawansowaną weryfikację wieku. Wykorzystywany ma być zarówno własny model AI, jak i technologia firmy Persona, specjalizującej się w potwierdzaniu tożsamości i wieku użytkowników. Celem jest znaczące utrudnienie omijania ograniczeń przez nastolatków, którzy od lat doskonale radzą sobie z prostymi formularzami „potwierdzam, że mam 18 lat”.

Dodatkowo powołana zostaje organizacja AI Safety Lab w formie niezależnej jednostki non-profit. Jej zadaniem ma być badanie bezpieczeństwa rozrywkowych aplikacji AI, ze szczególnym uwzględnieniem wpływu na dzieci i młodzież. To krok w stronę bardziej sformalizowanego, badawczego podejścia do projektowania chatbotów, które wchodzą w obszar zdrowia psychicznego.

Character.ai – paradoks założycieli i rozwój platformy

Historia Character.ai ma wymiar symboliczny. Firmę założyli w 2021 roku Noam Shazeer i Daniel De Freitas, byli inżynierowie Google, którzy odeszli po tym, jak ich chatbot Meena nie został dopuszczony do publicznego wydania z uwagi na obawy o bezpieczeństwo – m.in. w kontekście treści samobójczych i seksualnych dla nastolatków.

Character.ai w krótkim czasie urosło do roli jednego z najpopularniejszych serwisów AI companion. W 2023 roku spółka pozyskała rundę finansowania rzędu 150 mln dolarów przy wycenie około 1 mld dolarów, a rok później doszło do dużej umowy licencyjnej z Google na poziomie 2,7 mld dolarów, co pozwoliło m.in. na powrót założycieli do struktur giganta.

Character.ai – szerszy kontekst regulacyjny i branżowy

Problem nie dotyczy tylko jednej platformy. Wokół AI narasta dyskusja o konieczności obowiązkowej weryfikacji wieku i twardszych standardów bezpieczeństwa dla usług kierowanych do nastolatków. Inne systemy, jak ChatGPT, wprowadziły tryby z kontrolą rodzicielską, a nowe przepisy – np. w Kalifornii czy w ramach regulacji w UE – mogą wymusić na operatorach cyfrowych wdrożenie realnych zabezpieczeń chroniących nieletnich.

Character.ai wybiera w tym kontekście rozwiązanie skrajnie zachowawcze: zamiast poluzowanych, „nastoletnich” wersji chatbotów, po prostu odcina całą grupę wiekową od kluczowej funkcji usługi. Z jednej strony ogranicza to ryzyko prawne i reputacyjne, z drugiej – może zmniejszyć bazę użytkowników i ilość danych, na których modele są trenowane.

Character.ai – tabela kluczowych zmian i parametrów

Element

Charakterystyka

Rodzaj usługi

platforma chatbotów AI typu AI companion

Data ogłoszenia zmian

29 października 2025

Data wejścia w życie blokady

25 listopada 2025

Zakres blokady

brak możliwości prowadzenia nowych otwartych czatów dla użytkowników < 18 lat

Okres przejściowy

do 2 godzin rozmów dziennie dla nieletnich przed blokadą

Dostęp dla nieletnich po zmianie

tylko tworzenie wideo i historii z postaciami AI, bez bieżącego czatu

Mechanizmy bezpieczeństwa

zaawansowana weryfikacja wieku (AI + Persona), dodatkowe filtry treści

Nowa struktura

niezależna organizacja AI Safety Lab (non-profit)

Twórcy

Noam Shazeer, Daniel De Freitas (dawniej Google)

Model biznesowy

AI companion, wysoki czas zaangażowania użytkowników (wielogodzinne sesje)

Character.ai – podsumowanie znaczenia dla rynku AI

Zmiana wprowadzona przez Character.ai pokazuje, że emocjonalne chatboty AI przestają być „dzikim zachodem”. Odcinając nieletnich od otwartych rozmów, platforma wybiera bezpieczeństwo i ograniczenie ryzyka prawnego kosztem wzrostu i zaangażowania. Jest bardzo prawdopodobne, że ten ruch stanie się punktem odniesienia dla regulatorów oraz innych usług AI, które oferują relacyjne interakcje z wirtualnymi postaciami.

Dla branży to sygnał, że projektowanie systemów AI musi coraz mocniej uwzględniać psychologiczne skutki długotrwałych interakcji, szczególnie z osobami młodymi. Dla użytkowników – zwłaszcza rodziców – to przypomnienie, że AI w roli „cyfrowego przyjaciela” wymaga takich samych, a nawet większych środków ostrożności niż media społecznościowe.