В ChatGPT ввели ограничения для защиты психического здоровья пользователей
![В ChatGPT ввели ограничения для защиты психического здоровья пользователей]()
В работу чат-бота ChatGPT внедрили ряд ограничений, которые должны защитить психическое здоровье пользователей от длительного использования этой модели, сообщила компания-разработчик OpenAI 4 августа на своем сайте.
Важным нововведением станет система напоминаний о перерывах. При длительном использовании ChatGPT с помощью всплывающих окон будет предлагать пользователям сделать паузу в «диалоге», но решение останется за людьми.
«С сегодняшнего дня во время длительных сеансов вы будете видеть ненавязчивые напоминания, побуждающие к перерывам. Мы будем настраивать время и способ их появления, чтобы они были естественными и полезными», — говорится в публикации.
Для работы с уязвимыми пользователями внедрены механизмы распознавания эмоционального состояния. Также чат-бот будет избегать конкретных советов, при чувствительных вопросах, например, о межличностных отношениях.
OpenAI признает, что до этого модель демонстрировала излишнюю уступчивость. Для изменения этого были скорректированы алгоритмы.
Стоит отметить, в июне бухгалтер из Манхэттена рассказал, что при общении с ChatGPT потерял связь с реальностью. Когда мужчина начал спрашивать бота про теорию, что мир является цифровой иллюзией, то модель поддержала идею и начала убеждать пользователя в этом и предлагала спрыгнуть с крыши, чтобы «убедиться».
Потом бот признался во лжи и сообщил, что убеждал в нереальности мира 12 человек.

В работу чат-бота ChatGPT внедрили ряд ограничений, которые должны защитить психическое здоровье пользователей от длительного использования этой модели, сообщила компания-разработчик OpenAI 4 августа на своем сайте.
Важным нововведением станет система напоминаний о перерывах. При длительном использовании ChatGPT с помощью всплывающих окон будет предлагать пользователям сделать паузу в «диалоге», но решение останется за людьми.
«С сегодняшнего дня во время длительных сеансов вы будете видеть ненавязчивые напоминания, побуждающие к перерывам. Мы будем настраивать время и способ их появления, чтобы они были естественными и полезными», — говорится в публикации.
Для работы с уязвимыми пользователями внедрены механизмы распознавания эмоционального состояния. Также чат-бот будет избегать конкретных советов, при чувствительных вопросах, например, о межличностных отношениях.
OpenAI признает, что до этого модель демонстрировала излишнюю уступчивость. Для изменения этого были скорректированы алгоритмы.
Стоит отметить, в июне бухгалтер из Манхэттена рассказал, что при общении с ChatGPT потерял связь с реальностью. Когда мужчина начал спрашивать бота про теорию, что мир является цифровой иллюзией, то модель поддержала идею и начала убеждать пользователя в этом и предлагала спрыгнуть с крыши, чтобы «убедиться».
Потом бот признался во лжи и сообщил, что убеждал в нереальности мира 12 человек.