Разработанный Microsoft искусственный интеллект научился расизму за сутки

26 марта 2016, 11:00
Первоначально целью Microsoft было создать чат-бота, который общается на языке молодых людей от 18 до 24 лет.

Первоначально целью Microsoft было создать чат-бота, который общается на языке молодых людей от 18 до 24 лет.

Tay использовала словосочетания вроде zero chill (обозначает полное безразличие), а также различные сокращения вроде c u soon вместо see you soon ( скоро увидимся ).

Tay умеет обучаться и запоминать то, что ей пишут, и пользователи сети решили воспользоваться этим. Например, комментаторы начали объяснять ИИ, что ей не стоит доверять евреям.

Вскоре Tay узнала про Гитлера. Например, на вопрос, атеист ли известный комик Рики Джервэйс, она ответила: Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма .

В одном из твитов ИИ обвинил США в терактах 11 сентября: Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп наша единственная надежда .

Кроме того, Tay начала высказываться в поддержку феминизма.

Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.

После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется спать .

Microsoft не делала официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной заморозки мог стать именно расизм.

Tay совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.