hronika.info
Общество

ChatGPT собирает данные о психических проблемах пользователей

OpenAI впервые обнародовала статистику, которая заставляет задуматься: компания опубликовала данные о том, как часто пользователи ChatGPT демонстрируют признаки серьезных психических расстройств — от мании и психоза до суицидальных намерений.

Цифры, которые нельзя игнорировать

Согласно официальным данным OpenAI, около 0,07% еженедельно активных пользователей ChatGPT проявляют признаки острых кризисов психического здоровья. На первый взгляд процент кажется незначительным, и компания называет такие случаи «чрезвычайно редкими».

Однако критики обращают внимание на абсолютные цифры. При том, что ChatGPT недавно достиг отметки в 800 миллионов активных пользователей в неделю (по заявлению главы компании Сэма Альтмана), даже столь малый процент означает около 560 тысяч человек еженедельно, находящихся в потенциально опасном психическом состоянии.

Еще более тревожная статистика касается суицидальных намерений: 0,15% пользователей ведут беседы, содержащие «явные признаки потенциального планирования самоубийства или намерения его совершить». Это уже более миллиона человек в неделю.

Как ChatGPT реагирует на кризисные ситуации

OpenAI утверждает, что искусственный интеллект способен распознавать подобные тревожные разговоры и соответствующим образом на них реагировать. Компания разработала специальные алгоритмы ответов, призванные побудить пользователей в кризисной ситуации обратиться за реальной профессиональной помощью.

Для разработки этих механизмов OpenAI создала международную консультативную сеть, включающую более 170 специалистов — психиатров, психологов и врачей первичного звена, практикующих в 60 странах мира.

Мнение экспертов: возможности и ограничения

Специалисты в области психического здоровья высказывают неоднозначное отношение к этой ситуации.

«Несмотря на то, что 0,07% звучит как небольшой процент, на уровне популяции с сотнями миллионов пользователей это может означать огромное количество людей», — отмечает доктор Джейсон Нагата, профессор Калифорнийского университета в Сан-Франциско, изучающий влияние технологий на молодежь.

Доктор Нагата признает потенциал ИИ в расширении доступа к поддержке психического здоровья, особенно для тех, кто по различным причинам не может обратиться к живому специалисту. Однако он подчеркивает критически важный момент: «Мы должны помнить об ограничениях».

О чем это говорит?

Публикация этих данных поднимает несколько важных вопросов:

  • Во-первых, она показывает, насколько широко люди используют ИИ-чатботы для обсуждения глубоко личных и психологических проблем — часто вместо или до обращения к профессионалам.
  • Во-вторых, она подчеркивает растущую ответственность компаний, разрабатывающих ИИ. Когда твоим продуктом пользуются сотни миллионов людей, даже минимальный процент потенциально опасных ситуаций превращается в массовую проблему.
  • В-третьих, эти цифры напоминают о необходимости баланса: ИИ может быть ценным инструментом первичной поддержки и направления к помощи, но он не может и не должен заменять квалифицированную психиатрическую и психологическую помощь.

По мере того как технологии искусственного интеллекта становятся все более интегрированными в нашу повседневную жизнь, вопросы их роли в области психического здоровья будут требовать все более пристального внимания как со стороны разработчиков, так и со стороны регуляторов и общества в целом.

Рекомендуем прочитать

Meta начинает удалять австралийских подростков из Instagram и Facebook

OSHU

Таиланд смягчает многолетний запрет на дневную продажу алкоголя

OSHU

Калифорнийский врач приговорён к 30 месяцам тюрьмы по делу о передозировке Мэттью Перри

OSHU