С 1 ноября 2025 года ChatGPT перестал отвечать на персональные медицинские и юридические запросы. Компания OpenAI официально подтвердила, что теперь чат-бот не может давать индивидуальные советы, ставить диагнозы, подбирать лечение или составлять судебные документы.

Решение разработчиков связано с тем, что многие пользователи воспринимали ответы нейросети как профессиональные рекомендации. А это, по мнению OpenAI, могло привести к опасным последствиям. Ошибочный совет при болезни или юридическом конфликте способен не просто запутать человека, но и нанести серьезный вред его здоровью или финансовому положению.
Теперь при попытке задать ChatGPT вопрос о конкретных симптомах или правовых нюансах бот ответит лишь в общем виде и предложит обратиться к врачу или юристу.
Важно отметить, что ChatGPT по-прежнему способен объяснять базовые понятия: что такое гипертония, как устроен договор аренды, или чем отличается уголовное дело от гражданского. Однако любые персонализированные рекомендации, требующие профессиональной лицензии, теперь под запретом.
Некоторые пользователи уже пожаловались на то, что бот стал отвечать «слишком осторожно». Тем не менее в компании уверены: этот шаг необходим, чтобы защитить людей от некорректных данных.
Эксперты считают, что ужесточение правил стало логичным продолжением политики OpenAI по повышению безопасности использования искусственного интеллекта. Подобные ограничения действуют и в других популярных сервисах, включая Google Gemini и Claude от Anthropic.
По сути, ChatGPT остается мощным инструментом для поиска и обучения, но теперь делает четкую оговорку: ответственность за диагноз или юридическое решение несет только человек.
Случайное
Еда из «Макдоналдса» хранится 6 лет
Почему Элона Маска относят к охотникам

Стали известны победители конкурса
В Малайзии 4 туриста попали в тюрьму за
