Уважаемый пользователь Game2Day!

Мы обнаружили, что вы используете систему удаления рекламы (Adblock, AdGuard или какую-то другую).

Реклама – наш единственный источник дохода и она позволяет нам каждый день готовить актуальные и крутые материалы.

Чтобы наш проект жил и развивался, просим вас отключить блокировку рекламы на нашем сайте. Ну а мы обещаем не делать ее надоедливой.

Почему разные ИИ становятся расистами и сексистами

Искусственный интеллект постепенно становится частью нашей повседневной жизни: приложения, в основе которых лежит данная технология, переводят тексты, помогают упорядочить e-mail’ы и фотографии в смартфоне. Технологические гиганты Google, Facebook, Apple и Microsoft пытаются найти самый эффективный способ для внедрения ИИ в новые сервисы.

Однако есть одна проблема, справиться с которой исследователям пока не под силу: несмотря на то, что ИИ обрабатывает данные значительно быстрее человеческого мозга, он как губка впитывает все наши предрассудки. Дело в том, что чаще всего ученые «скармливают» нейросетям данные, обнаруженные в Сети, однако язык, который используют большинство пользователей, содержит множество стереотипов. В соответствии с недавним исследованием, проведенным учеными из Стэнфорда, нейросети ассоциировали имена, характерные для представителей белой европеоидной расы, с позитивными концептами (например, «любовь», «дружба» и т.п.), а имена темнокожих с негативными понятиями («провал», «рак»). Авторы проекта ConceptNet обнаружили, что ИИ рассматривает ведение домашнего хозяйства, шитье и косметические процедуры как исключительно женские занятия.

Принимая во внимание эту особенность, становится ясно, что приложения, в основе которых лежит ИИ, не могут использоваться, например, для отбора кандидатов на рабочее место. Ведь тогда нейросети будут автоматически отдавать приоритет мужчинам, в то время как резюме женщин будут отправлены в мусорную корзину.

К счастью, ученые вовремя заметили эту особенность, и в данный момент работают над мерами, чтобы избавить ИИ от предрассудков. К примеру, авторам ConceptNet, единственной пока нейросети со встроенным механизмом исправления предрасположенности к определенным оценкам, пришлось корректировать некоторые ассоциации ИИ вручную. Роб Спир призывает и других исследователей встроить подобную систему в нейросети, чтобы добиться максимальной объективности искусственного интеллекта. Ведь иначе сложные системы будущего будут воспроизводить наши собственные ошибки. 


Поделиться


Вы не авторизованы

Войдите, чтобы оставить комментарий!


Еще не зарегестрированы? Регистрация здесь.