Первая программа искусственного интеллекта от Microsoft по имени Tay, выпущенная на Twitter в марте прошлого года, привела не к тому, чего ожидали ученые. Всего за 24 часа программа научилась расизму и неонацизму от пользователей социальной сети после чего ее было принято отправить на доработку.
Научное издание ToDay News Ufa сообщает, что по словам ученых, создать искусственный интеллект вне расизма невозможно. По мнению ученых, любой искусственный интеллект, обучаемый на человеческом языке, научится и предвзятости. Человеческий мозг способен воспринимать ассоциации по-разному.
Искусственный интеллект, наоборот, видит все буквально. У него объекты не ассоциируются с положительными или отрицательными вещами. Поэтому он поглощает всю информацию без каких-либо фильтров. Поэтому ученые считают, что пока не будет создан «фильтр», который бы давал искусственному интеллекту понимание, что «хорошо», а что – «плохо», его нельзя будет создать безопасным для человека.