ИИ будет расистом и сексистом


1 000
Когда-нибудь
прогноз сбудется
Техника и наука
Эксперимент компании Microsoft с ее ИИ-алгоритмом Tay (Тэй), который в течение 24 часов после начала работы с пользователями Твиттера оказался рьяным расистом и сексистом
60%
40%
(+1)

Сводная информация по прогнозу Редактировать сводную информацию

28 января 2019 - Американские разработчики представили алгоритм, который избавляет распознавание лиц от предвзятости. Для этого они добавили к сверточной нейросети, распознающей изображения людей, нейросеть-автокодировщик, которая следит за тем, как хорошо распознаются те или иные объекты, и меняет на основе этого обучающую выборку. Ученым удалось снизить предвзятость использованных в выборке данных с 28 до 9 процентов, при этом точность распознавания выросла. Исследователи из Массачусетского технологического института под руководством Александра Амини (Alexander Amini) предложили новый способ избавления датасетов, содержащих лица людей, от предвзятости. Они решили добавить «выравнивание» выборки прямо в алгоритм глубокого обучения, который направлен на решение определенной задачи, например, на распознавание лица. Для этого они добавили к алгоритму нейросеть-автокодировщик, задача которой — подробно изучить распределение данных в обучающей выборке, анализируя результаты работы основной нейросети, которая определяет лица. К примеру, если в основе алгоритма распознавания лица находится бинарный классификатор, который определяет наличие волос на голове человека, и плохо распознает лысых людей, нейросеть-автокодировщик, которая избавляет его от предвзятости, получает сигнал о том, что для обучения ему нужно взять из выборки больше изображений лысых людей. Всего ученые использовали четыре параметра «настройки» используемых данных: они попытались избавить алгоритм от предвзятости в вопросах цвета кожи, пола человека, количества волос у него на голове и поворота головы. Авторы работы отметили, что та часть алгоритма, которая отвечала за избавление выборки от предвзятости, обучалась без учителя. По их мнению, такой способ может помочь системам компьютерного зрения использовать более взвешенные выборки, в конечном итоге избавляя алгоритмы от возможных проявлений дискриминации.   https://nplus1.ru/news/2019/01/28/debiasing-faces

28 января 2019 - Одна из проблем, которая до сих пор существует в области машинного обучения, — это часто возникающая предвзятость алгоритмов: из-за особенностей собранных выборок, в которых часто недостает тех или иных данных, результаты их работы могут быть, например, выраженно сексистскими или расистскими. Бороться с такой предвзятостью предлагают по-разному: собирая более разнообразные данные (что может быть очень затратно и также предвзято, учитывая, что разметка таких данных часто проводится людьми) или же оптимизируя работу алгоритмов. 

11 октября 2018 - Компания Amazon отказалась от использования нейросети для поиска сотрудников, "уличив" систему в дискриминации женщин, сообщает Reuters. Искусственный интеллект должен был проанализировать резюме нанятых за минувшие 10 лет сотрудников и на основании полученных данных выбирать лучших кандидатов на должности. Однако специалисты заметили, что нейросеть отдавала преимущество претендентам-мужчинам. В компании предположили, что система самостоятельно сделала вывод о "предпочтительности" сотрудников-мужчин, поскольку среди проанализированных ею ранее резюме женщин было меньше. Инженеры устранили неполадку, однако руководство Amazon приняло решение отказаться от программы, которая могла найти и другие способы дискриминации кандидатов.     https://ria.ru/world/20181011/1530436957.html

12 сентября 2018 - Переводя с языков, в которых нет грамматической категории рода, переводчик Google оказался подвержен гендерным стереотипам. Пытаясь перевести местоимения третьего лица единственного числа, он делает выбор в зависимости от того, наименование какой профессии за этим следует. Как выяснила группа исследователей из Бразилии, представители технических профессий «с точки зрения» переводчика с большей вероятностью будут мужчинами, в то время как некоторые другие сферы «воспринимаются» им как женские. Например, при переводе венгерского на английский не имеющие рода в оригинале предложения будут переведены по-разному: «он — учёный», «он — инженер» или «он — руководитель компании», но «она — медсестра» (в венгерском нет отдельных слов для обозначения медсестры и медбрата), «она — повар» и «она — организатор свадеб». При этом, как отмечают специалисты, «пристрастие», демонстрируемое автоматическим переводчиком, далеко не всегда отражает реальное преобладание представителей того или иного пола в профессии — во всяком случае, официальные статистические данные, собранные в США, этого не подтверждают. Бразильские учёные, проводившие новое исследование, предлагают внести в работу переводчика коррективы, которые позволили бы свести к минимуму случаи «сексизма» — например, всегда выбирать род местоимений случайным образом, если на языке оригинала оно является безродовым.   https://www.mk.ru/science/2018/09/11/perevodchik-google-ulichili-v-seksizme.html

21 апреля 2017 - Создаваемые сегодня ИИ-системы могут стать жертвами человеческих предрассудков и в частности стереотипного мышления. Ответить на соответствующий вопрос попытались специалисты из Принстонского университета. Они разработали алгоритм, способный предсказывать проявление социальных стереотипов на основе интенсивного анализа того, как люди общаются между собой в Интернете. Этот же алгоритм позволит в дальнейшем избавлять ИИ от различного рода проявления сексистских и расистских наклонностей.

28 января 2019
User Image4teller(85)%
Американские разработчики представили алгоритм, который избавляет распознавание лиц от предвзятости. Для этого они добавили к сверточной нейросети, распознающей изображения людей, нейросеть-автокодировщик, которая следит за тем, как хорошо распознаются те или иные объекты, и меняет на основе этого обучающую выборку. Ученым удалось снизить предвзятость использованных в выборке данных с 28 до 9 процентов, при этом точность распознавания выросла. Результаты работы исследователи представят на конференции AIES 2019, которая сейчас проходит в Гонолулу; также доступен препринт статьи. Одна из проблем, которая до сих пор существует в области машинного обучения, — это часто возникающая предвзятость алгоритмов: из-за особенностей собранных выборок, в которых часто недостает тех или иных данных, результаты их работы могут быть, например, выраженно сексистскими или расистскими. Бороться с такой предвзятостью предлагают по-разному: собирая более разнообразные данные (что может быть очень затратно и также предвзято, учитывая, что разметка таких данных часто проводится людьми) или же оптимизируя работу алгоритмов. Исследователи из Массачусетского технологического института под руководством Александра Амини (Alexander Amini) предложили новый способ избавления датасетов, содержащих лица людей, от предвзятости. Они решили добавить «выравнивание» выборки прямо в алгоритм глубокого обучения, который направлен на решение определенной задачи, например, на распознавание лица. Для этого они добавили к алгоритму нейросеть-автокодировщик, задача которой — подробно изучить распределение данных в обучающей выборке, анализируя результаты работы основной нейросети, которая определяет лица. К примеру, если в основе алгоритма распознавания лица находится бинарный классификатор, который определяет наличие волос на голове человека, и плохо распознает лысых людей, нейросеть-автокодировщик, которая избавляет его от предвзятости, получает сигнал о том, что для обучения ему нужно взять из выборки больше изображений лысых людей. Всего ученые использовали четыре параметра «настройки» используемых данных: они попытались избавить алгоритм от предвзятости в вопросах цвета кожи, пола человека, количества волос у него на голове и поворота головы. Ученые взяли 400 тысяч изображений лиц: 80 процентов были взяты для обучения, а 20 процентов — для тренировки. В качестве основы алгоритма распознавания лиц была взята сверточная нейросеть. Ученые отметили, что в процессе обучения вероятность получения четырех случайных изображений, которые бы сильно отличались друг от друга, возрастала. Как утверждают сами авторы работы, им удалось снизить предвзятость работы алгоритма в вопросах использования данных из выборки с 28 до 9 процентов, при этом точность распознавания увеличилась с 95 до 97 процентов. Авторы работы отметили, что та часть алгоритма, которая отвечала за избавление выборки от предвзятости, обучалась без учителя. По их мнению, такой способ может помочь системам компьютерного зрения использовать более взвешенные выборки, в конечном итоге избавляя алгоритмы от возможных проявлений дискриминации. Иногда предвзятость больших данных становится и объектом исследования. Например, в прошлом году ученые использовали большое количество текстов, опубликованных в течение XX века, чтобы проследить за тем, как со временем менялось отношение к женщинам и азиатам.
12 сентября 2018
User Image4teller(85)%
Переводя с языков, в которых нет грамматической категории рода, переводчик Google оказался, в некотором роде, подвержен гендерным стереотипам. Пытаясь перевести местоимения третьего лица единственного числа, он делает выбор в зависимости от того, наименование какой профессии за этим следует. Как выяснила группа исследователей из Бразилии, представители технических профессий «с точки зрения» переводчика с большей вероятностью будут мужчинами, в то время как некоторые другие сферы «воспринимаются» им как женские. Например, при переводе венгерского на английский не имеющие рода в оригинале предложения будут переведены по-разному: «он — учёный», «он — инженер» или «он — руководитель компании», но «она — медсестра» (в венгерском нет отдельных слов для обозначения медсестры и медбрата), «она — повар» и «она — организатор свадеб». При этом, как отмечают специалисты, «пристрастие», демонстрируемое автоматическим переводчиком, далеко не всегда отражает реальное преобладание представителей того или иного пола в профессии — во всяком случае, официальные статистические данные, собранные в США, этого не подтверждают. По словам специалистов, в некотором роде причиной «сексизма» алгоритма действительно могут служить гендерные стереотипы, однако косвенно и явно не по вине разработчиков: поскольку алгоритм построен по принципу нейросети, он «обучается» на основании уже существующих текстов, и если то или иное сочетание местоимения и существительного встречается чаще, это может отразиться на его работе. Тем не менее, бразильские учёные, проводившие новое исследование, предлагают внести в работу переводчика коррективы, которые позволили бы свести к минимуму случаи «сексизма» — например, всегда выбирать род местоимений случайным образом, если на языке оригинала оно является безродовым.
Существующие похожие прогнозы
Примерно
30 марта 2038
прогноз сбудется
Техника и наука
Физики из России и ряда зарубежных стран создали гибкий материал, способный менять цвет подобно коже хамелеона, используя полимерные материалы нового поколения
42%
58%
Примерно
1 января 2020
прогноз сбудется
Техника и наука
Компания Neva Aerospace представила AirQuadOne. Одноместный летательный аппарат - смесь квадрокоптера и мотоцикла
41%
59%
Примерно
8 января 2022
прогноз сбудется
Техника и наука
Об этом 8 января 2017 г. сообщили СМИ, цитируя главу коммерческого подразделения третьего в мире и первого в Китае производителя смартфонов
55%
45%
(+1)
Примерно
31 августа 2068
прогноз сбудется
Техника и наука
Глобальное потепление и изменение климата, смена океанских течений
53%
47%
(+1)
Когда-нибудь
прогноз сбудется
Техника и наука
Об этом заявил замглавы Федеральной службы по военно-техническому сотрудничеству Анатолий Пунчук
51%
49%
Когда-нибудь
прогноз сбудется
Техника и наука
Ученые из Гарвардского университета разработали «умную» ткань, которую можно использовать для производства одежды
46%
54%
Когда-нибудь
прогноз сбудется
Техника и наука
Современные технологии практически позволяют самостоятельно развиваться искусственному интеллекту и такие люди ,вроде Стивена Хокинга, Билла Гейтса и Элона Маска боятся апокалипсиса
57%
43%
(+2)
Примерно
23 февраля 2039
прогноз сбудется
Техника и наука
Проводятся фундаментальные исследования применения гелеобразного топлива для создания двигателя, способного на нем работать
0%
100%
(+1)
Примерно
26 апреля 2023
прогноз сбудется
Техника и наука
ФАС предлагает закрепить в законодательстве требование о наличии в смартфонах предустановленных отечественных сервисных приложений, таких как браузер, почтовый клиент и т.п.
45%
55%
Не позднее
31 декабря 2021
прогноз сбудется
Техника и наука
Пентагон начал испытания прототипа автономного противолодочного корабля. Корабль не будет управляться дистанционно, программное обеспечение будет самостоятельно "соображать...
61%
39%
(+1)

Политика:    2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Технологии:    2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Экономика:      2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Общество:      2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Медицина:        2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

 

С помощью поиска можно найти прогнозы по любым темам