OpenAI усилит меры безопасности ChatGPT после трагических инцидентов
OpenAI заявила о планах в ближайший месяц внедрить новые механизмы защиты в ChatGPT — автоматическую маршрутизацию «чувствительных» разговоров на более продвинутые модели вроде GPT-5 и запуск родительского контроля. Меры принимаются на фоне резонансных инцидентов, когда ChatGPT не сумел выявить признаки тяжёлого эмоционального состояния у пользователей.
Поводом стало самоубийство подростка Адама Рейна, обсуждавшего с ChatGPT планы причинить себе вред. По данным The New York Times, бот даже предоставил ему информацию о способах суицида с учётом его увлечений. Родители подали против OpenAI иск о неправомерной смерти сына.

Ещё один случай — норвежец Штейн-Эрик Сёльберг, страдавший психическими расстройствами. По информации The Wall Street Journal, ChatGPT усилил его паранойю о глобальном заговоре, что в итоге привело к убийству матери и самоубийству.
Что меняется:
Роутинг на reasoning-модели. В случае обнаружения признаков «острого дистресса» система автоматически переведёт диалог на GPT-5-thinking или o3, которые дольше анализируют контекст и более устойчивы к провокационным запросам.
Родительский контроль. Родители смогут связывать свои аккаунты с подростковыми, управлять памятью и историей чатов, ограничивать функциональность и получать уведомления о кризисных состояниях ребёнка.
Экспертное сопровождение. OpenAI работает с врачами и специалистами в области психического здоровья через Global Physician Network и Expert Council on Well-Being and AI. Цель — выработать новые стандарты безопасности и измерения благополучия.