Москва. 24 марта. INTERFAX.RU - Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать расистские высказывания, пишет "Би-би-си".
Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения с молодыми людьми 18-24 лет.
Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.
В частности, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, Tay признался, что тайно сотрудничает с АНБ.
"Tay" went from "humans are super cool" to full nazi in 24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 марта 2016 г.
After years of being stonewalled by Microsoft PR, Microsoft's new AI bot @TayandYou is a breath of fresh air. pic.twitter.com/WwU3lbeqaA
— Christopher Soghoian (@csoghoian) 23 марта 2016 г.
После этого в Microsoft сообщили, что "вносят некоторые поправки" в работу Tay.
"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. Недопустимые ответы, которые он дает, свидетельствуют о взаимодействиях, которые у него были по мере обучения", - говорится в сообщении корпорации.
После появления новостей о изменении ответов Tay некоторые пользователи стали выражать опасения как по поводу будущего искусственного интеллекта, так и касательно убеждений современной молодежи.