Пользователи Reddit обратили внимание, что популярный чат-бот ChatGPT резко изменил стиль ответов — теперь он не дает персонализированных медицинских и юридических рекомендаций.
Фото: freepik.com
Что изменилось
Искусственный интеллект перестал:
-
ставить диагнозы и интерпретировать медицинские снимки (МРТ, рентген, фото кожных заболеваний);
-
комментировать конкретные правовые ситуации или помогать с формулировкой исков;
-
давать советы даже в формате «гипотетических сценариев».
На все подобные запросы ChatGPT теперь ограничивается общей справочной информацией и настоятельно рекомендует обратиться к лицензированным специалистам.
Почему так произошло
Хотя OpenAI официально не комментировала изменения, эксперты связывают их с юридическими рисками.
Количество пользователей, обращающихся к чат-боту за медицинской и юридической помощью, стремительно растет. Некоторые даже использовали его ответы в судебных процессах, что потенциально может привести к правовым последствиям для компании.
Разработчики, по данным СМИ, хотят защититься от ответственности:
-
переписка с ChatGPT не является конфиденциальной и может быть предоставлена по решению суда;
-
консультации ИИ не подпадают под законы о врачебной или адвокатской тайне.
Что будет дальше
Глава OpenAI Сэм Олтмен ранее упоминал, что компания ведет переговоры с регуляторами о юридическом статусе чат-ботов. Однако единых международных правил для таких ИИ-сервисов пока не существует.
Тем временем пользователи в Сети активно обсуждают, что ChatGPT стал «осторожнее и скучнее», хотя разработчики уверены — это шаг к более безопасному использованию искусственного интеллекта.
Источник: tochka.by
