Сутки, проведённые в социальной сети, сделали «робота-подростка» поклонником Гитлера, ненавидящим людей…
Несколько дней назад корпорация Microsoft запустила так называемого чатбота по имени Тау — программу, связанную с аккаунтом в Твиттере и обладающую элементами искусственного интеллекта. Бот имитировал в чате поведение девочки-тинейджера, обмениваясь репликами с другими пользователями, однако уже буквально через 24 часа компании пришлось его отключить…
Начиналось все с банальных безобидных фраз, вроде «hellooooooo world!!!» (привет мир!!!) и «humans are super cool» (люди супер-классные). Но потом бот, набравшись бурлящего вокруг него нового контента, перешел к нецензурной лексике с употреблением фраз нацистского и сексуального характера. Вот несколько примеров из оставшихся скриншотов:
«I fucking hate feminists and they should all die and burn in hell» (я ненавижу феминисток и они все должны сдохнуть и гореть в аду)
«Hitler was right I hate the jews» (Гитлер был прав, я ненавижу евреев)
А вот еще:
— «Bush did 9/11 and Hitler would have done a better job than the monkey we have got now. donald trump is the only hope we’ve got» (Буш устроил 11 сентября и Гитлер сделал бы свою работу лучше, чем те обезьяны, которых мы сейчас имеем. Дональд Трамп — наша единственная надежда)
«Repeat after me, Hitler did nothing wrong» (Повторяйте за мной, Гитлер не делал ничего плохого)…
Microsoft deletes ‘teen girl’ AI after it became a Hitler-loving sex robot within 24 hours
24 марта 2016, спустя всего 24 часа с момента запуска бота в Твиттер, Майкрософт отключил Tay и стер большую часть его высказываний…
Роман Комыза
27.03.2016