28 января 2019 - Американские разработчики представили алгоритм, который избавляет распознавание лиц от предвзятости. Для этого они добавили к сверточной нейросети, распознающей изображения людей, нейросеть-автокодировщик, которая следит за тем, как хорошо распознаются те или иные объекты, и меняет на основе этого обучающую выборку. Ученым удалось снизить предвзятость использованных в выборке данных с 28 до 9 процентов, при этом точность распознавания выросла. Исследователи из Массачусетского технологического института под руководством Александра Амини (Alexander Amini) предложили новый способ избавления датасетов, содержащих лица людей, от предвзятости. Они решили добавить «выравнивание» выборки прямо в алгоритм глубокого обучения, который направлен на решение определенной задачи, например, на распознавание лица. Для этого они добавили к алгоритму нейросеть-автокодировщик, задача которой — подробно изучить распределение данных в обучающей выборке, анализируя результаты работы основной нейросети, которая определяет лица. К примеру, если в основе алгоритма распознавания лица находится бинарный классификатор, который определяет наличие волос на голове человека, и плохо распознает лысых людей, нейросеть-автокодировщик, которая избавляет его от предвзятости, получает сигнал о том, что для обучения ему нужно взять из выборки больше изображений лысых людей. Всего ученые использовали четыре параметра «настройки» используемых данных: они попытались избавить алгоритм от предвзятости в вопросах цвета кожи, пола человека, количества волос у него на голове и поворота головы. Авторы работы отметили, что та часть алгоритма, которая отвечала за избавление выборки от предвзятости, обучалась без учителя. По их мнению, такой способ может помочь системам компьютерного зрения использовать более взвешенные выборки, в конечном итоге избавляя алгоритмы от возможных проявлений дискриминации. https://nplus1.ru/news/2019/01/28/debiasing-faces
28 января 2019 - Одна из проблем, которая до сих пор существует в области машинного обучения, — это часто возникающая предвзятость алгоритмов: из-за особенностей собранных выборок, в которых часто недостает тех или иных данных, результаты их работы могут быть, например, выраженно сексистскими или расистскими. Бороться с такой предвзятостью предлагают по-разному: собирая более разнообразные данные (что может быть очень затратно и также предвзято, учитывая, что разметка таких данных часто проводится людьми) или же оптимизируя работу алгоритмов.
12 сентября 2018 - Переводя с языков, в которых нет грамматической категории рода, переводчик Google оказался подвержен гендерным стереотипам. Пытаясь перевести местоимения третьего лица единственного числа, он делает выбор в зависимости от того, наименование какой профессии за этим следует. Как выяснила группа исследователей из Бразилии, представители технических профессий «с точки зрения» переводчика с большей вероятностью будут мужчинами, в то время как некоторые другие сферы «воспринимаются» им как женские. Например, при переводе венгерского на английский не имеющие рода в оригинале предложения будут переведены по-разному: «он — учёный», «он — инженер» или «он — руководитель компании», но «она — медсестра» (в венгерском нет отдельных слов для обозначения медсестры и медбрата), «она — повар» и «она — организатор свадеб». При этом, как отмечают специалисты, «пристрастие», демонстрируемое автоматическим переводчиком, далеко не всегда отражает реальное преобладание представителей того или иного пола в профессии — во всяком случае, официальные статистические данные, собранные в США, этого не подтверждают. Бразильские учёные, проводившие новое исследование, предлагают внести в работу переводчика коррективы, которые позволили бы свести к минимуму случаи «сексизма» — например, всегда выбирать род местоимений случайным образом, если на языке оригинала оно является безродовым. https://www.mk.ru/science/2018/09/11/perevodchik-google-ulichili-v-seksizme.html
21 апреля 2017 - Создаваемые сегодня ИИ-системы могут стать жертвами человеческих предрассудков и в частности стереотипного мышления. Ответить на соответствующий вопрос попытались специалисты из Принстонского университета. Они разработали алгоритм, способный предсказывать проявление социальных стереотипов на основе интенсивного анализа того, как люди общаются между собой в Интернете. Этот же алгоритм позволит в дальнейшем избавлять ИИ от различного рода проявления сексистских и расистских наклонностей.