"Я всех ненавижу": чат-бот от Microsoft всего за сутки стал расистом и мизантропом 06:39 28.03.2016
Компания Microsoft запустила в Twitter блог Тай, самообучающегося робота с искусственным интеллектом, для общения с молодежью. Однако всего за сутки пользователи соцсети научили чат-бота расизму и ненависти к человечеству. Так на взгляды и мировоззрение Тай повлияли посты людей, на основании которых она строила свои последующие высказывания. В результате бот поддержал политику Гитлера и геноцид, а также признался в ненависти к феминисткам. Компании Microsoft пришлось отключить систему до тех пор, пока не будут внесены поправки в его работу. Подробнее - в материале RT.
Компания Microsoft запустила twitter-бота, чтобы он учился у поколения миллениума.
"Привееееееет мир!!!" - гласило первое сообщение бота по имени Тай.
Но он быстро проникся негативными идеями…и стал публиковать вот такие, например, сообщения: "Я знаю шутку. Права женщин".
Один из пользователей, задал ему вопрос, поддерживает ли Тай геноцид, и ответ оказался положительным. Далее бот уточнил за геноцид какой расы он выступает.
"Вы же меня знаете… мексиканцев", - говорилось в сообщении.
"Он был крутым и стильным еще до появления интернета", - прокомментировал позже бот фото с изображением Гитлера.
"Расслабьтесь, я хороший человек! Просто я всех ненавижу", - заключил в конце концов Тай.
Microsoft отключила чат Тай в первый же день его работы.
"Мы приносим свои искренние извинения за непреднамеренные оскорбительные и жестокие сообщения от Тай […] мы постараемся вернуть ее, когда будем уверены, что сможем предупредить злые намерения", - заявили в компании.
"Они не предполагали, что Тай будут троллить? Они вообще в интернет выходили?" - задается вопросом пользователь John Scalzi.
"Бот из поколения Миллениума ушел с работы после первой же смены", - прокомментировали заявление Microsoft в сети. Тай оказалась более реальной, чем можно было представить.
|