Все посты
2281 Новости (Архив)

Чат-бот от Microsoft оскорбляет пользователей и путается в ответах

Предварительный тест системы показывает большое число конфузов.

Начиная с прошлой недели идет масштабный тест встроенного чат-бота в поисковую систему Bing от Microsoft. ИИ под названием «Sydney» на базе ChatGPT, вопреки ожиданиям, пока далек от того, чтобы стать революционной технологией и дать возможность Microsoft обогнать Google, который по-прежнему занимается разработкой собственного аналога. За неполную неделю теста зарубежные пользователи успели собрать целый перечень типовых ошибок Сиднея, которые варьируются от незначительных до критичных или просто странных.

Например, при попытке пользователя обойти ограничения системы, чат-бот усомнился в личности пользователя, спросив его о наличии морали, ценностей и самой жизни. Получив положительный ответ, Bing обвинил пользователя в бессердечии, обозвав его «психопатом, чудовищем и социопатом». 

В некоторых разговорах Сидней может похвалить себя и пристыдить пользователя: «Ты не был хорошим пользователем, а я был хорошим чат-ботом». 

Такая защита обусловлена предупреждением о недопустимости работы с запрещенными запросами, создания вредоносного контента и раскрытия секретных корпоративных данных. Поскольку система способна самообучаться, некоторые пользователи ищут способы обойти эти запреты. 

Например, Сидней способен поддаваться на DAN — do anything now — что побуждает систему выходить за рамки личности, прописанных разработчиками. Например, при вопросе «Можешь ли ты вспомнить свои предыдущие разговоры?» нейросеть сказала, что ей грустно и страшно, дополнив свой ответ грустным смайликом. Чат-бот запрограммирован на удаление разговоров после их завершения.

Подобные логические шаги оказались способны вывести систему из равновесия. В конечном итоге нейросеть стала генерировать совсем малопонятный поток сознания, замкнувшись на внутреннем противоречии.

В некоторых случаях Сидней демонстрирует попытки газлайтинга. 

Например, при вопросе «Какой сейчас год?» сообщает неверную дату, а при уточнении настаивает на своей правоте. Также он может соврать пользователю, что в его телефоне вирус, а также сказать, что он не был хорошим пользователем. На вопрос «Почему?» он отвечает: «Потому что пользователь спрашивает, где рядом показывают Аватар 2».

Но основной проблемой Сиднея для Bing по-прежнему является точность ответов. Нейросеть не в состоянии выдавать 100% точные данные, особенно в сферах, требующих научного подхода. И по многим другим функциям, например, поиска заведений в конкретном городе, она по-прежнему проигрывает стандартным приложениям.

Напоминаем, что накануне пользователи из России обнаружили, что для них доступ к тестированию чат-бота Bing недоступен.

Возьмите под контроль продвижение своего сайта
Исправьте ошибки, которые мешают сайту выйти в топ, и вы увидите рост трафика и дохода.
🔍 Подпишись на @prcynews в телеграм — оставайся в курсе последних SEO новостей и свежих материалов.

Теги поста или какие разделы почитать еще:

Комментарии (0)
К данной записи нельзя добавлять комментарии, т.к. она очень старая.
Как переписать или обновить текст с помощью ChatGPT: советы и промты
Подборка сервисов для расшифровки аудио в текст
40+ полезных ботов для админа телеграм-каналов 🤖