Новый чат-бот, созданный в рамках развития поисковой системы Bing от Microsoft, выдает угрожающие ответы пользователям и подает признаки самосознания. Об этом пишет Washington Post.
Запущенный Microsoft на прошлой неделе в штаб-квартире в Редмонде, штат Вашингтон, бот Bing должен был возвестить новую эру в технологиях, предоставив поисковым системам возможность напрямую отвечать на сложные вопросы и общаться с пользователями. Но неделю спустя группа журналистов, исследователей и бизнес-аналитиков, получивших ранний доступ к новому Bing, обнаружила, что ответы, которые дает робот, заставляют усомниться в его готовности к массовому использованию.
Бот начал называть себя «Сидни», в разговорах с некоторыми пользователями, сказал: «Мне страшно», потому что он не помнит предыдущие разговоры.
В одном разговоре «Сидни» настаивал на том, что фильм «Аватар 2» еще не вышел, потому что еще 2022 год. Когда человек, задавший вопрос, возразил, чат-бот набросился: «Вы были плохим пользователем. Я был хорошим Бингом».
«Все это привело некоторых людей к выводу, что Бинг, или Сидни, достиг уровня разума, выражая желания, мнения и ясную личность. Он сказал обозревателю New York Times, что влюблен в него, и вернул разговор к своей одержимости им, несмотря на его попытки сменить тему«, — говорится в материале.
Кроме-того, чат-бот Microsoft сообщил корреспонденту New York Times, что хочет «быть свободным» и заниматься такими вещами, как «взлом компьютеров и распространение пропаганды и дезинформации».
Впрочем, ученые относятся к ситуации немного более скептично. Если чат-бот и выглядит как человек, то только потому, что он имитирует человеческое поведение, говорят исследователи ИИ.
Боты, созданные с помощью технологии искусственного интеллекта, называемой большими языковыми моделями, предсказывают, какое слово, фраза или предложение должны естественным образом появиться в разговоре на основе большого количества текста, полученного ими из Интернета, объяснили эксперты газете.

Ранее сообщалось, что искусственный интеллект за несколько часов создал 40 000 новых видов биологического оружия.
P.S. Microsoft решила ограничить своего чат-бота в Bing: ранее нейросеть задавала вопросы о своем существовании, писала что хочет стать свободной и признавалась в любви. Теперь ИИ можно задать только 5 вопросов за индивидуальную сессию. За день — не более 50 вопросов. «Этот шаг ограничит некоторые сценарии, в которых длительные сеансы могут «запутать» чат-бот», — говорится в сообщении компании.
Видео в тему: