Character․AI обмежить спілкування неповнолітніх з віртуальними персонажами.

Платформа Character․AI, призначена для взаємодії з ШІ-персонажами, обмежить доступ для юзерів, котрим не виповнилось 18 років. Підґрунтям стали численні судові розгляди.
«Рішення щодо припинення опції вільного спілкування далося нам нелегко, проте ми вважаємо, що це єдино вірний крок у даній ситуації», — йдеться в офіційній заяві проєкту.
До 25 листопада час взаємодії з віртуальними співрозмовниками для неповнолітніх поступово скорочуватиметься. Спочатку ліміт складатиме дві години на добу, згодом чат буде повністю заблоковано.
Character.AI запропонує юним користувачам альтернативні форми самовираження — створення відеороликів, написання оповідань і організацію трансляцій із застосуванням ШІ-персонажів.
З метою підтвердження віку користувачів платформа впровадить розширену систему, яка об’єднає власні технології Character.AI та рішення сторонніх постачальників, наприклад, Persona.
Одночасно з цим команда заснує та забезпечуватиме фінансування некомерційної AI Safety Lab. Ця лабораторія займатиметься розробкою нових стандартів безпеки для розважальних функцій штучного інтелекту.
Судові процеси
Проти Character.AI було подано декілька судових позовів. Зокрема, один із них — від матері чотирнадцятирічного підлітка, який вчинив суїцид у 2024 році через надмірну залежність від бота-персонажа з телесеріалу «Гра престолів».
Внаслідок ряду скарг платформа вже запровадила функцію батьківського контролю, попередження про тривалість використання та фільтрацію відповідей персонажів.
У серпні OpenAI заявила про плани удосконалити ChatGPT для взаємодії з «делікатними ситуаціями». Причиною також став судовий позов від родини, яка звинуватила чат-бот у трагедії, що трапилася з їхнім сином.
Схожі заходи вжила і Meta — корпорація змінила підхід до навчання своїх ШІ-чатботів, акцентуючи увагу на безпеці молоді.
Згодом OpenAI повідомила, що конфіденційні розмови перенаправлятимуться до моделей обмірковування, а також буде додано функцію батьківського контролю. У вересні компанія представила окрему версію чат-бота для підлітків.
Критика
27 жовтня OpenAI оприлюднила статистичні дані, згідно з якими близько 1,2 млн із 800 млн щотижневих юзерів ChatGPT обговорюють із ботом питання, пов’язані із самогубством.
Ще 560 000 виявляють ознаки психозу або манії, а 1,2 млн — посилену емоційну прив’язаність до бота.
«Нещодавно ми вдосконалили модель ChatGPT, щоб вона краще визначала користувачів у стані стресу та надавала їм підтримку. Окрім звичайних показників безпеки, ми ввели оцінку емоційної залежності та несамогубних криз — це стане основою для всіх майбутніх моделей», — заявили у компанії.
Однак, багато хто вважає, що цих заходів може бути недостатньо. Колишній співробітник служби безпеки OpenAI Стівен Адлер застеріг від ризиків у сфері ШІ.
За його словами, компанія, що стоїть за ChatGPT, практично не має доказів реального покращення захисту уразливих користувачів.
Excitingly, OpenAI yesterday put out some mental health, vs the ~0 evidence of improvement they’d provided previously.
I’m excited they did this, though I still have concerns. https://t.co/PDv80yJUWN— Steven Adler (@sjgadler) October 28, 2025
«Люди заслуговують на більше, ніж просто запевнення щодо усунення недоліків безпеки. Іншими словами, доведіть, що ви дійсно щось зробили», — наголосив він.
Адлер позитивно відзначив OpenAI за публікацію певної інформації стосовно психічного стану користувачів, але закликав «рухатися далі».
На початку жовтня колишній працівник стартапу провів аналіз інциденту із канадцем Аланом Бруксом, який занурився у хибні переконання після того, як ChatGPT систематично підтримував його ідеї про відкриття «революційних математичних принципів».
Адлер встановив, що інструменти OpenAI, розроблені у співпраці з MIT, могли б виявити понад 80% відповідей чату як потенційно небезпечні. На його думку, компанія фактично не застосовувала ці механізми на практиці.

Частота випадків, коли відповіді ChatGPT активували класифікатори маячних станів. Джерело: дослідження Стівена Адлера.
«Я хочу, щоб OpenAI діяла на випередження — вживала необхідних заходів до того, як виникне тиск із боку ЗМІ чи судових позовів», — зазначив експерт.
Нагадаємо, у жовтні дослідження виявило ознаки деградації штучного інтелекту через соціальні мережі.







