1 000
Когда-нибудь
прогноз сбудется
Техника и наука

ИИ будет расистом и сексистом

Эксперимент компании Microsoft с ее ИИ-алгоритмом Tay (Тэй), который в течение 24 часов после начала работы с пользователями Твиттера оказался рьяным расистом и сексистом
63%
37%

Сводная информация по прогнозу редактировать информацию

28 января 2019 - Американские разработчики представили алгоритм, который избавляет распознавание лиц от предвзятости. Для этого они добавили к сверточной нейросети, распознающей изображения людей, нейросеть-автокодировщик, которая следит за тем, как хорошо распознаются те или иные объекты, и меняет на основе этого обучающую выборку. Ученым удалось снизить предвзятость использованных в выборке данных с 28 до 9 процентов, при этом точность распознавания выросла. Исследователи из Массачусетского технологического института под руководством Александра Амини (Alexander Amini) предложили новый способ избавления датасетов, содержащих лица людей, от предвзятости. Они решили добавить «выравнивание» выборки прямо в алгоритм глубокого обучения, который направлен на решение определенной задачи, например, на распознавание лица. Для этого они добавили к алгоритму нейросеть-автокодировщик, задача которой — подробно изучить распределение данных в обучающей выборке, анализируя результаты работы основной нейросети, которая определяет лица. К примеру, если в основе алгоритма распознавания лица находится бинарный классификатор, который определяет наличие волос на голове человека, и плохо распознает лысых людей, нейросеть-автокодировщик, которая избавляет его от предвзятости, получает сигнал о том, что для обучения ему нужно взять из выборки больше изображений лысых людей. Всего ученые использовали четыре параметра «настройки» используемых данных: они попытались избавить алгоритм от предвзятости в вопросах цвета кожи, пола человека, количества волос у него на голове и поворота головы. Авторы работы отметили, что та часть алгоритма, которая отвечала за избавление выборки от предвзятости, обучалась без учителя. По их мнению, такой способ может помочь системам компьютерного зрения использовать более взвешенные выборки, в конечном итоге избавляя алгоритмы от возможных проявлений дискриминации.   https://nplus1.ru/news/2019/01/28/debiasing-faces

28 января 2019 - Одна из проблем, которая до сих пор существует в области машинного обучения, — это часто возникающая предвзятость алгоритмов: из-за особенностей собранных выборок, в которых часто недостает тех или иных данных, результаты их работы могут быть, например, выраженно сексистскими или расистскими. Бороться с такой предвзятостью предлагают по-разному: собирая более разнообразные данные (что может быть очень затратно и также предвзято, учитывая, что разметка таких данных часто проводится людьми) или же оптимизируя работу алгоритмов. 

11 октября 2018 - Компания Amazon отказалась от использования нейросети для поиска сотрудников, "уличив" систему в дискриминации женщин, сообщает Reuters. Искусственный интеллект должен был проанализировать резюме нанятых за минувшие 10 лет сотрудников и на основании полученных данных выбирать лучших кандидатов на должности. Однако специалисты заметили, что нейросеть отдавала преимущество претендентам-мужчинам. В компании предположили, что система самостоятельно сделала вывод о "предпочтительности" сотрудников-мужчин, поскольку среди проанализированных ею ранее резюме женщин было меньше. Инженеры устранили неполадку, однако руководство Amazon приняло решение отказаться от программы, которая могла найти и другие способы дискриминации кандидатов.     https://ria.ru/world/20181011/1530436957.html

12 сентября 2018 - Переводя с языков, в которых нет грамматической категории рода, переводчик Google оказался подвержен гендерным стереотипам. Пытаясь перевести местоимения третьего лица единственного числа, он делает выбор в зависимости от того, наименование какой профессии за этим следует. Как выяснила группа исследователей из Бразилии, представители технических профессий «с точки зрения» переводчика с большей вероятностью будут мужчинами, в то время как некоторые другие сферы «воспринимаются» им как женские. Например, при переводе венгерского на английский не имеющие рода в оригинале предложения будут переведены по-разному: «он — учёный», «он — инженер» или «он — руководитель компании», но «она — медсестра» (в венгерском нет отдельных слов для обозначения медсестры и медбрата), «она — повар» и «она — организатор свадеб». При этом, как отмечают специалисты, «пристрастие», демонстрируемое автоматическим переводчиком, далеко не всегда отражает реальное преобладание представителей того или иного пола в профессии — во всяком случае, официальные статистические данные, собранные в США, этого не подтверждают. Бразильские учёные, проводившие новое исследование, предлагают внести в работу переводчика коррективы, которые позволили бы свести к минимуму случаи «сексизма» — например, всегда выбирать род местоимений случайным образом, если на языке оригинала оно является безродовым.   https://www.mk.ru/science/2018/09/11/perevodchik-google-ulichili-v-seksizme.html

21 апреля 2017 - Создаваемые сегодня ИИ-системы могут стать жертвами человеческих предрассудков и в частности стереотипного мышления. Ответить на соответствующий вопрос попытались специалисты из Принстонского университета. Они разработали алгоритм, способный предсказывать проявление социальных стереотипов на основе интенсивного анализа того, как люди общаются между собой в Интернете. Этот же алгоритм позволит в дальнейшем избавлять ИИ от различного рода проявления сексистских и расистских наклонностей.

28 января 2019
User Image4teller(88)%
Американские разработчики представили алгоритм, который избавляет распознавание лиц от предвзятости. Для этого они добавили к сверточной нейросети, распознающей изображения людей, нейросеть-автокодировщик, которая следит за тем, как хорошо распознаются те или иные объекты, и меняет на основе этого обучающую выборку. Ученым удалось снизить предвзятость использованных в выборке данных с 28 до 9 процентов, при этом точность распознавания выросла. Результаты работы исследователи представят на конференции AIES 2019, которая сейчас проходит в Гонолулу; также доступен препринт статьи. Одна из проблем, которая до сих пор существует в области машинного обучения, — это часто возникающая предвзятость алгоритмов: из-за особенностей собранных выборок, в которых часто недостает тех или иных данных, результаты их работы могут быть, например, выраженно сексистскими или расистскими. Бороться с такой предвзятостью предлагают по-разному: собирая более разнообразные данные (что может быть очень затратно и также предвзято, учитывая, что разметка таких данных часто проводится людьми) или же оптимизируя работу алгоритмов. Исследователи из Массачусетского технологического института под руководством Александра Амини (Alexander Amini) предложили новый способ избавления датасетов, содержащих лица людей, от предвзятости. Они решили добавить «выравнивание» выборки прямо в алгоритм глубокого обучения, который направлен на решение определенной задачи, например, на распознавание лица. Для этого они добавили к алгоритму нейросеть-автокодировщик, задача которой — подробно изучить распределение данных в обучающей выборке, анализируя результаты работы основной нейросети, которая определяет лица. К примеру, если в основе алгоритма распознавания лица находится бинарный классификатор, который определяет наличие волос на голове человека, и плохо распознает лысых людей, нейросеть-автокодировщик, которая избавляет его от предвзятости, получает сигнал о том, что для обучения ему нужно взять из выборки больше изображений лысых людей. Всего ученые использовали четыре параметра «настройки» используемых данных: они попытались избавить алгоритм от предвзятости в вопросах цвета кожи, пола человека, количества волос у него на голове и поворота головы. Ученые взяли 400 тысяч изображений лиц: 80 процентов были взяты для обучения, а 20 процентов — для тренировки. В качестве основы алгоритма распознавания лиц была взята сверточная нейросеть. Ученые отметили, что в процессе обучения вероятность получения четырех случайных изображений, которые бы сильно отличались друг от друга, возрастала. Как утверждают сами авторы работы, им удалось снизить предвзятость работы алгоритма в вопросах использования данных из выборки с 28 до 9 процентов, при этом точность распознавания увеличилась с 95 до 97 процентов. Авторы работы отметили, что та часть алгоритма, которая отвечала за избавление выборки от предвзятости, обучалась без учителя. По их мнению, такой способ может помочь системам компьютерного зрения использовать более взвешенные выборки, в конечном итоге избавляя алгоритмы от возможных проявлений дискриминации. Иногда предвзятость больших данных становится и объектом исследования. Например, в прошлом году ученые использовали большое количество текстов, опубликованных в течение XX века, чтобы проследить за тем, как со временем менялось отношение к женщинам и азиатам.
12 сентября 2018
User Image4teller(88)%
Переводя с языков, в которых нет грамматической категории рода, переводчик Google оказался, в некотором роде, подвержен гендерным стереотипам. Пытаясь перевести местоимения третьего лица единственного числа, он делает выбор в зависимости от того, наименование какой профессии за этим следует. Как выяснила группа исследователей из Бразилии, представители технических профессий «с точки зрения» переводчика с большей вероятностью будут мужчинами, в то время как некоторые другие сферы «воспринимаются» им как женские. Например, при переводе венгерского на английский не имеющие рода в оригинале предложения будут переведены по-разному: «он — учёный», «он — инженер» или «он — руководитель компании», но «она — медсестра» (в венгерском нет отдельных слов для обозначения медсестры и медбрата), «она — повар» и «она — организатор свадеб». При этом, как отмечают специалисты, «пристрастие», демонстрируемое автоматическим переводчиком, далеко не всегда отражает реальное преобладание представителей того или иного пола в профессии — во всяком случае, официальные статистические данные, собранные в США, этого не подтверждают. По словам специалистов, в некотором роде причиной «сексизма» алгоритма действительно могут служить гендерные стереотипы, однако косвенно и явно не по вине разработчиков: поскольку алгоритм построен по принципу нейросети, он «обучается» на основании уже существующих текстов, и если то или иное сочетание местоимения и существительного встречается чаще, это может отразиться на его работе. Тем не менее, бразильские учёные, проводившие новое исследование, предлагают внести в работу переводчика коррективы, которые позволили бы свести к минимуму случаи «сексизма» — например, всегда выбирать род местоимений случайным образом, если на языке оригинала оно является безродовым.
Существующие похожие прогнозы
Когда-нибудь
прогноз сбудется
Техника и наука
Пара энтузиастов в Финляндии решили сделать полное 3D-сканирование своего будущего ребёнка, после чего перенести получившуюся модель внутрь виртуальной реальности
61%
39%
Когда-нибудь
прогноз сбудется
Техника и наука
Инженеры из Walt Disney Imagineering создали робота-каскадера, способного выполнять сложные акробатические прыжки с троса
32%
68%
Не позднее
10 января 2037
прогноз сбудется
Техника и наука
Американские ученые научились использовать магнитное излучение для улучшения работы ИИ, приближающего его деятельность к возможностям человеческого мозга.
60%
40%
Примерно
1 июня 2020
прогноз сбудется
Техника и наука
Первый полёт космического корабля Orion EM-1 (Exploration Mission-1), запланирован на июнь 2020 года. Перспективы SLS становятся все туманнее
75%
25%
Примерно
2 декабря 2019
прогноз сбудется
Техника и наука
Стартап представил свой автомобиль инвесторам, сотрудничает с Siemens, привлек финансирование, объявил предзаказ. Обещание начать поставки в 2019 году - на сайте стартапа
49%
51%
Примерно
8 августа 2019
прогноз сбудется
Техника и наука
Harley-Davidson объявил, что его долгожданный мотоцикл LiveWire поступит в продажу в августе
51%
49%
Примерно
1 августа 2022
прогноз сбудется
Техника и наука
Uber уже этим летом в Сан-Диего начнет доставлять фаст-фуд специальными воздушными дронами.
100%
0%
Примерно
1 января 2020
прогноз сбудется
Техника и наука
Российская компания «Прозрение» презентовала систему дополненной реальности для незрячих и слабовидящих людей.
33%
67%
Примерно
30 июня 2020
прогноз сбудется
Техника и наука
Основным кандидатом на запуск спутника является компания SpaceX
52%
48%
Примерно
31 октября 2021
прогноз сбудется
Техника и наука
В Сети обнаружили патент Apple, согласно которому в новых iPhone может появиться датчик определения газа
0%
100%

Политика:    2016    2017    2018    2019    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е   

Технологии:    2016    2017    2018    2019    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е   

Экономика:      2016    2017    2018    2019    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е   

Общество:      2016    2017    2018    2019    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е   

Медицина:        2016    2017    2018    2019    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е   

 

С помощью поиска можно найти прогнозы по любым темам