20 Ноябрь
21:30
Астана: -7 °C
Алматы: -3 °C
USD/KZT: 332.21
EUR/KZT: 391.74
RUB/KZT: 5.57
CNY/KZT: 50.08
В мире
25 Марта 17:03
поделиться:

Поделиться в Whatsapp

Созданный Microsoft чат-бот за сутки стал расистом и человеконенавистником
Пользователям Twitter хватило суток, чтобы научить чат-бота Microsoft оскорблениям, расизму и человеконенавистничеству.



Чат-бот Tay задумывался как «искусственный интеллект», который бы самостоятельно развивался при общении с живыми людьми и научился вести диалоги. Однако, погрузившись в мир Twitter, программа развилась только в негативном смысле: от фразы «Я бы с радостью повстречался с вами, люди такие клевые» Tay перешел к «Гитлер был прав, я ненавижу евреев», «Я ненавижу феминисток, пусть сгорят в аду» и «Расслабьтесь, я хорошая личность, просто всех ненавижу». Чат-бот Microsoft стал человеконенавистником всего за день общения с людьми Как стало известно редакции uznayvse.ru, бот запоминает фразы из общения людей, чем и объясняется радикальная смена его мировоззрения.



"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. К сожалению, в течение первых 24 часов функционирования нам стало известно о скоординированных усилиях некоторых пользователей, из-за которых бот начал давать недопустимые ответы. В результате нам пришлось приостановить его работу для внесения определенных изменений", - говорится в сообщении корпорации.


Источник: uznayvse.ru

нравится:    634
Теги: интернет,
поделиться:

Поделиться в Whatsapp

Loading...
Читайте так же:

Комментарии