Усть-Каменогорск
пасмурно
-20°
  • Усть-Каменогорск
    -20°
  • Семей
    -20°
  • Алматы
    -6°
  • Риддер
    -16°
  • Астана
    -19°
  • Актобе
    -4°
  • Актау
    -1°
  • Атырау
    +2°
  • Караганда
    -14°
  • Кокшетау
    -18°
  • Костанай
    -17°
  • Кызылорда
    -4°
  • Павлодар
    -23°
  • Петропавловск
    -22°
  • Тараз
    -5°
  • Туркестан
    +7°
  • Уральск
    -3°
  • Шымкент
    +4°
$
497.56
586.92
¥
72.55
6.44
Курсы Национального Банка РК

Звоните, если вы стали очевидцем происшествия, ваши права нарушены, или хотите поднять проблему

Чат-бот от Microsoft за сутки научился ругаться и стал расистом

Разработанный Microsoft самообучаемый чат-бот Tay, запущенный 23 марта в соцсети Twitter, научился ругаться, а также стал делать расистские высказывания

Новости мира / Интересные новости / Чат-бот от Microsoft за сутки научился ругаться и стал расистом
Фото:
29ru.net
Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников и перенимать их манеру общения, была создана для того, чтобы продемонстрировать стиль общения молодых людей в возрасте 18-24 лет. Однако уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

В частности, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера и поддержку кандидату в президенты США Дональду Трампу. Чат-бот также сказал, что "ненавидит всех".

"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. К сожалению, в течение первых 24 часов функционирования нам стало известно о скоординированных усилиях некоторых пользователей, из-за которых бот начал давать недопустимые ответы. В результате нам пришлось приостановить его работу для внесения определенных изменений", - говорится в сообщении корпорации.
Следующая →
Только самое важное в нашем Telegram-канале
Темы: Чат-бот от Microsoft