Игорь Бигдан (ibigdan) wrote,
Игорь Бигдан
ibigdan

Categories:

Разработанный Microsoft ИИ научился расизму и полюбил Гитлера за сутки

Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки возненавидел человечество, сообщает Engadget.

Сразу после запуска ИИ начал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».

Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.

После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».

Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.

источник

Это он в украинский фейсбучек зашёл на полчасика, почитал ко-ко-ко и решил, что людей надо уничтожить.

Tags: Приколы, Фейл
Subscribe
promo ibigdan декабрь 3, 2007 00:08
Buy for 1 000 tokens
Хотите 1 миллион просмотров вашей рекламы за неделю? Легко и не дорого. Хотите чтобы о вашем продукте или услуге узнали сотни тысяч уникальных посетителей? Запросто. Адекватные цены и профессиональный подход, базирующийся на 11-летнем опыте. Блог "Самый сок!" читают во всём мире. Среднее…
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 41 comments
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →