19 Сентябрь
17:28
Астана: 17 °C
Алматы: 30 °C
USD/KZT: 340.02
EUR/KZT: 406.26
RUB/KZT: 5.90
CNY/KZT: 51.79
В мире
25 Марта 17:03
поделиться:

Поделиться в Whatsapp

Созданный Microsoft чат-бот за сутки стал расистом и человеконенавистником
Пользователям Twitter хватило суток, чтобы научить чат-бота Microsoft оскорблениям, расизму и человеконенавистничеству.



Чат-бот Tay задумывался как «искусственный интеллект», который бы самостоятельно развивался при общении с живыми людьми и научился вести диалоги. Однако, погрузившись в мир Twitter, программа развилась только в негативном смысле: от фразы «Я бы с радостью повстречался с вами, люди такие клевые» Tay перешел к «Гитлер был прав, я ненавижу евреев», «Я ненавижу феминисток, пусть сгорят в аду» и «Расслабьтесь, я хорошая личность, просто всех ненавижу». Чат-бот Microsoft стал человеконенавистником всего за день общения с людьми Как стало известно редакции uznayvse.ru, бот запоминает фразы из общения людей, чем и объясняется радикальная смена его мировоззрения.



"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. К сожалению, в течение первых 24 часов функционирования нам стало известно о скоординированных усилиях некоторых пользователей, из-за которых бот начал давать недопустимые ответы. В результате нам пришлось приостановить его работу для внесения определенных изменений", - говорится в сообщении корпорации.


Источник: uznayvse.ru

нравится:    632
Теги: интернет,
поделиться:

Поделиться в Whatsapp

Loading...
Читайте так же:

Комментарии