Искусственный интеллект отнимет работу у переводчиков письменных текстов


1 000
Примерно
14 сентября 2037
прогноз сбудется
Качество машинного перевода, сделанного с помощью нейросетей, постоянно растет и приближается к уровню человека. Профессия переводчика под угрозой
(+4)
(+7)

Сводная информация по прогнозу Редактировать сводную информацию

Сможет ли искусственный интеллект заменить переводчиков? Сообщения СМИ, аргументы в пользу и против прогноза.

16 сентября 2018 - Гендиректор ЦРТ (Центра речевых технологий) Дмитрий Дырмовский: "Акустическое моделирование — одна из самых сложных вещей в распознавании речи. То, как звучит тот или иной звук, зависит не только от говорящего, но и от канала — говорите вы по телефону или записываетесь на диктофон — и акустические модели тут применяются разные. Языковая модель статистически предсказывает, какое слово прозвучало исходя из контекста, частотности и сочетаемости слов. Она зависит от того, на каком языке говорят, какой словарь используется: общий, юридический, медицинский и т. д. Например, формат интервью намного проще для распознавания, чем обычный разговор по телефону между друзьями. В разговоре очень много контекста: сокращений, «своих» слов, которые мы не понимаем, но знают оба собеседника, так как они находятся внутри одного контекста. Система распознавания (и автоматизированный переводчик) не знает этого контекста. Используя семантику, нейронная сеть строит гипотезы, чтобы точнее определить, что за слово было произнесено, какое применить окончание. Ведь даже при обычном разговоре вы улавливаете только 95% произнесенных слов — остальное домысливаете исходя из контекста, так устроен человеческий мозг. Машине важно находиться в контексте, если его нет, остальное будет распознано неправильно. К тому же не стоит забывать про учет контекста для понимания сказанного. Тем же голосовым помощникам на основе искусственного интеллекта нужно понимать юмор, иронию, сарказм для того, чтобы точно и продуктивно вести диалог с живым человеком. В этом плане распознавать речь сложнее, чем изображения.

15 марта 2018 - Идеальный сценарий для машинного обучения и искусственного интеллекта будет заключаться в фиксированных правилах и четких критериях успеха или неудачи. Шахматы — очевидный пример. В переводе не существует четких и выверенных правил. Непонятно, как говорить машине, что она делает правильно, а что нет. Обозначить в языке информационные ярлыки принципиально сложно, иногда два переводчика не могут договориться о правильности перевода. Также, значение отдельного слова зависит от остальной части предложения, значение предложения зависит от остальной части параграфа и текста в целом, а значение текста зависит от культуры, намерений говорящего и прочего. Сарказм и ирония, например, имеют смысл только в широком контексте. Идиомы также могут быть проблемными для автоматизированного перевода. Переводить — это по сути интерпретировать, не просто идею, но и чувство. Человеческие чувства и идеи, которые могут понять только люди — а иногда даже мы, люди, не можем понять других людей. Самая большая проблема машинного перевода на сегодня состоит в том, что мы склонны переходить от синтаксической формы предложения на языке ввода к синтаксической форме этого предложения на целевом языке. Мы, люди, так не делаем. Мы сперва расшифровываем значение предложения на входном языке, а затем кодируем это значение на целевом языке.  https://hi-news.ru/computers/pochemu-ii-do-six-por-ne-ovladel-perevodom-...

17 января 2018 - Искусственный интеллект-переводчик может появиться на рынке через десять лет, что решит проблему доступности учебных материалов на других языках, считает ректор НИУ ВШЭ Ярослав Кузьминов.

14 сентября 2017 - Специалисты "Яндекса" создали новую систему онлайн-перевода, которая одновременно использует и старые статистические алгоритмы, и искусственный интеллект, сообщает пресс-служба компании. Пока новая система поддерживает только перевод с английского на русский язык. При использовании искусственного разума для перевода с одного языка на другой, нейросеть "читает" переводимый текст, то она не пытается перевести его по фразам или отдельным словам, а ищет ответ целиком, используя данные, накопленные при анализе текстов, переведенных человеком. У подобного подхода, как отмечают специалисты "Яндекса", есть как плюсы, так и минусы: в таком виде текст становится более читаемым и похожим на то, как его перевел бы человек, но, с другой стороны, машина периодически начинает "фантазировать", если ей встречаются редкие слова и фразы. Эту проблему "Яндекс" решил, объединив искусственный разум со старой системой перевода, хорошо справлявшейся с редкими словами, но сталкивавшейся с большими проблемами при их объединении в предложения. Когда пользователь вводит текст, его одновременно переводит и нейросеть, и статистический алгоритм, после чего система машинного обучения CatBoost, недавно созданная "Яндексом", сопоставляет результаты и собирает из них более читаемый и грамотный вариант. В марте компания Google запустила в Google Translate технологию машинного перевода на базе нейросетей для русского языка. Нейросети переводят целые предложения. Раньше переводчик Google переводил предложения по частям, что ухудшало качества перевода.

Результаты поиска прогнозов по запросам: "Перевод""Язык"

О проекте "википедии будущего"

Пополняйте "википедию будущего": добавляйте сообщения СМИ по теме прогноза! Не забудьте ссылку на источник.

16 сентября 2018
User Image4teller(85)%
Обо всем этом в интервью Хайтек+ рассказал гендиректор ЦРТ (Центра речевых технологий) Дмитрий Дырмовский. ЦРТ занимается разработкой систем мультимодальной биометрии, в том числе распознаванием лиц, распознаванием и синтезом речи. Среди продуктов — решения по записи и обработке телефонных разговоров с целью отслеживания качества обслуживания, программы преобразования речи в текст, системы распознавания лиц, которые работают в аэропортах и на стадионах. Клиенты компании — ВТБ, «Северсталь», МЧС России, Ростелеком, администрация президента России, МВД Мексики, Народный банк Казахстана. Контролируется Газпромбанком. Офисы находятся в Санкт-Петербурге, Москве и Нью-Йорке. — В чем сложности работы с речевыми технологиями? — Есть акустическая модель и лингвистическая (языковая). Акустическая модель применяется для сопоставления звучащих звуков с произносимыми фонемами. Акустическое моделирование — одна из самых сложных вещей в распознавании речи. То, как звучит тот или иной звук, зависит не только от говорящего, но и от канала — говорите вы по телефону или записываетесь на диктофон — и акустические модели тут применяются разные. Языковая модель статистически предсказывает, какое слово прозвучало исходя из контекста, частотности и сочетаемости слов. Она зависит от того, на каком языке говорят, какой словарь используется: общий, юридический, медицинский и т. д. Например, формат интервью намного проще для распознавания, чем обычный разговор по телефону между друзьями. В бытовом разговоре очень много контекста: сокращений, «своих» слов, которые мы не понимаем, но знают оба собеседника, так как они находятся внутри одного контекста. Система распознавания же не знает этого контекста. Используя семантику, нейронная сеть строит гипотезы, чтобы точнее определить, что за слово было произнесено, какое применить окончание. Ведь даже при обычном разговоре вы улавливаете только 95% произнесенных слов — остальное домысливаете исходя из контекста, так устроен человеческий мозг. Машине важно находиться в контексте, если его нет, остальное будет распознано неправильно. К тому же не стоит забывать про учет контекста для понимания сказанного. Тем же голосовым помощникам на основе искусственного интеллекта нужно понимать юмор, иронию, сарказм для того, чтобы точно и продуктивно вести диалог с живым человеком. В этом плане распознавать речь сложнее, чем изображения. — Почему? — Во-первых, в лицевой биометрии меньше вариативности. В голосе много внешних шумов — от музыки до сторонней речи. В фотографиях же меньше помех, которые мешают выделить лицо. Какие могут быть препятствия при распознавании лица? Тени, плохое качество фотографии, ракурс — наберется от силы 5-10 разновидностей. Во-вторых, видеоматериалов и фото, на которых нейросети могут обучаться, в миллионы раз больше, чем хороших речевых баз. В-третьих, речь зависит от языка. Для машинного зрения не важно, на каком языке вы говорите. Может, сейчас не все движки очень хорошо работают с расами, но видеоинформации больше, ее легче обрабатывать, и разработчики из разных стран легко могут использовать достижения зарубежных коллег. Как я уже сказал, доступной речевой информации намного меньше, ее сложнее разметить для обучения нейросетей. Особенно проблемно работать с редкими языками. С английским, китайским, испанским нет никаких проблем, а с каким-нибудь диалектом португальского, аварского — уже есть. Хотя и в распознавании лиц еще есть куда развиваться, что изучать. Например, поиск в базе по скетчу или эскизу лица, распознавание в макияже и даже в парандже — над всеми этими задачами сейчас бьются лучшие ученые в разных странах. — А как обстоят дела с акцентами? Есть много видео, где та же Alexa не всегда понимает, например, шотландцев. — Зависит от того, на чем обучался движок. Например, наш движок силен в акцентах народов России — от вологодского до кавказского. Для его обучения мы ездили по всей стране, общались с людьми, записывали речь, собирали различные диалекты, произношения. Странно, что у Alexa есть такие проблемы, баз с разными акцентами на английском довольно много, их можно купить, хоть это и дорого. — А есть ли проблемы с точки зрения лингвистики? Ведь любой современный язык живой, постоянно обновляется. — Когда уже собран акустический уровень, меняется лишь языковая модель: просто загружаете текстовки со сленгом, новыми словами, сокращениями — и все. Концептуально, тонально язык же не меняется. Русский никогда не станет китайским. Новые слова с новыми смыслами — это семантика. У нас есть решение, которое, например, может быть обучено под вашу речь, вашу лексику: вы скармливаете системе свою почту, тексты, и она начнет понимать вашу манеру письма и общения, будет заточена под ваш контекст. Врач, физик-ядерщик и журналист — это ведь совсем разная лексика. — Есть много компаний по визуальному распознаванию, машинному зрению, но с речью работают немногие. Из крупных можно вспомнить только «Яндекс». Почему в России так мало компаний, занимающихся распознаванием речи? — Все дело в сложности входа на рынок из-за технологических проблем, о которых я уже говорил. Кроме того, этот рынок уже, сфер применения меньше, чем у машинного зрения. Из-за этого и денег меньше. Третья причина — довольно сложно конкурировать. Очень дорого построить большую команду с нуля, нужно вкладываться в процессорные мощности. И надо понимать, для чего ты это делаешь. Даже если у тебя есть технология, одной ее мало, нужно иметь конечный продукт, который решал бы конкретную задачу. — Недавно вы вошли в Единую биометрическую систему. Хватает ли сейчас двух опций — лицо и голос — для безопасной удаленной идентификации? — Да, достаточно. Это же не просто голос и лицо, там целый механизм. Несколько видов биометрии — динамическая, статистическая. Стоят несколько детекторов, которые определяют, что, например, это живое лицо, что это не склейка из голосов, не монтаж. Нынешний способ аутентификации в две модальности — лицо и голос — уже очень точен. Конечно, есть планы добавлять и другие модальности, такие как распознавание радужной оболочки глаза. Она, кстати, считается самой надежной в биометрии. — Но при этом ее распространения не случилось? Можно вспомнить, как тот же Samsung внедрял в свои смартфоны подобный способ разблокировки несколько лет назад. — Не зашло потому, что технологии пока не совершенны. Для распознавания оболочки глаза нужна камера с огромным разрешением, это накладывает ограничения. А такие вещи, как Единая биометрическая система, все-таки должны быть массовыми — смартфон с камерой и микрофоном сейчас есть у всех. Сканирование отпечатка пальца или радужки увеличивает безопасность, но ограничиват круг пользователей. — Какие есть способы подделать голос? — Во-первых, ваш голос могут сымитировать пародисты. Хотя на слух вы и не почувствуете разницу, система безошибочно определяет фальшивку. Она анализирует параметры, зависящие от уникального строения вашего голосового тракта — тональности и других производных, а это подделать очень сложно. Второе — это склейка, монтаж чужого голоса. Но современные системы способны засечь попытку перезаписи, места склеек. Плюс динамическая верификация, когда надо что-то произнести. Другой способ — синтез речи, когда искусственно создается имитация чужой речи. Четвертый, самый неприятный — изменение речи, когда с помощью ПО меняются акустические параметры, чтобы подтянуть звук под голос искомого диктора. Понятное дело, что если применить комбинацию вышеперечисленных способов сразу, то машину можно будет обмануть. Но тут стоит вопрос времени и денег. Стоит ли это того? — Который год не утихают дискуссии насчет того, что Facebook тайно прослушивает разговоры через микрофон смартфона, чтобы потом таргетировать рекламу в ленте. При этом компания неоднократно это опровергала. Прослушка Facebook может быть правдой? Современные речевые технологии настолько развиты, что способны на это? — Технически не вижу проблем для реализации. Дело в том, что для такой задачи не нужна стопроцентная точность, из всего разговора можно распознать несколько слов и таргетировать рекламу исходя из них: попали — хорошо, не попали — ничего страшного. Тут не так страшно ошибиться. После того, как решена задача получения звука, дальше перевести его в текстовую версию и анализировать — не проблема, Facebook это уже умеет делать. Знаю, что у них есть лаборатория по распознаванию речи, есть ресурсы, это большая корпорация. Проблема может быть в том, что они еще не настолько сильны в русском языке, но это вопрос времени. — Я заметила, что функция распознавания речи в Google Docs не понимает диктофонные записи, хотя если диктовать голосом, то все работает. Почему? В чем разница между распознаванием живого голоса и проигранной аудиозаписи с речью? — Как я уже говорил, в распознавании речи есть акустическая и лингвистическая модели. Последняя отвечает за словарь, который знает робот, то, что он прочитал, выучил. Чем шире модель, тем больше требуется ресурсов. Акустическая зависит от разных каналов. Есть модель дистанционного микрофона — это, например, запись беседы двух людей на диктофон. Есть телефонный канал. Есть модель диктовки, когда вы диктуете прямо в микрофон. Очевидно, у Google подключена последняя модель. Если использовать другую модель, то в таком случае распознавание просто не работает. Это компания делает для того, чтобы себя не подставлять, ведь диктофонная запись очень вариативна, много шумов, полоса звука огромная, полезет много ошибок. По той же причине «Яндекс» убрал распознавание речи с «облака». Оно осталось лишь в «Яндекс.Картах», «Навигаторе», где узкий словарь и довольно специфичная лексика. Чем уже словарь, тем проще его распознавать. — Умные колонки с голосовыми помощниками в России сейчас — нишевый рынок, в то время как в США у каждого стоит та же Alexa или Google Home. Когда, на ваш взгляд, в России станут популярны умные системы и голосовые помощники? И, вообще, выстрелит ли эта история у нас в стране? — Точно выстрелит. Будет ли это колонка или «облачный» помощник, может, даже телефон или холодильник — это вопрос дискуссионный. Точно будет популярен некий цифровой помощник с речевым интерфейсом, ведь речь — это самый естественный и привычный человеческий способ общения, это быстро, удобно. И распознавание голоса может быть внедрено везде, где есть человеко-машинные интерфейсы — беспилотники, интернет вещей. А в более далеком будущем мы сможем уже даже не общаться, а меняться мыслями. — Когда это станет возможным? — Нейроинтерфейсы уже сейчас существуют и позволяют выполнять какие-то простые команды, и все это развивается с большой скоростью. Все идет к тому, что будет происходить смещение из речевого канала к нейроинтерфейсам. Причем это будет происходить постепенно, одни интерфейсы будут замещаться другими, и мы сможем обмениваться мыслями, образами. В ближайшие шесть-десять лет, я думаю, мы увидим подобные продукты. Сначала они будут популярны среди гиков, но позже появятся и массовые решения.
15 марта 2018
User Image4teller(85)%
Глобальные рынки ждут, но языковой перевод силами искусственного интеллекта еще не готов, несмотря на недавние достижения в области обработки естественного языка и анализа настроений. У ИИ по-прежнему возникают трудности с обработкой запросов даже на одном языке, не говоря уж про перевод. В ноябре 2016 года Google добавила нейронную сеть в свой переводчик. Но некоторые ее переводы по-прежнему социально и грамматически странные. Почему? «К чести Google, компания ввела довольно много улучшений, которые появились почти за одну ночь. Но я не особо их использую. Язык — это трудно», говорит Майкл Хаусман, главный научный сотрудник по научным исследованиям в RapportBoost.AI и преподаватель Singularity University. Он объясняет, что идеальный сценарий для машинного обучения и искусственного интеллекта будет заключаться в фиксированных правилах и четких критериях успеха или неудачи. Шахматы — очевидный пример, а вместе с ними и го. Компьютер очень быстро овладел этими играми, потому что правила их ясные и четкие, а набор ходов ограничен. «Язык же — почти прямо противоположный. Не существует четких и выверенных правил. Разговор может идти в бесконечном числе разных направлений. И вам, конечно, нужны также помеченные данные. Вам нужно говорить машине, что она делает правильно, а что нет». Хаусман отметил, что обозначить в языке информационные ярлыки принципиально сложно. «Два переводчика не могут договориться о правильности перевода», говорит он. «Язык — это Дикий Запад с точки зрения данных». Технологии Google сейчас способны понимать предложения целиком, не пытаясь переводить отдельные слова. Но глюки все равно случаются. Йорг Майфуд, доцент кафедры испанского языка, специалист по латинской литературе в Университете Джексонвилль объясняет, почему точные переводы пока не даются искусственному интеллекту: «Проблема в том, что понимать предложение целиком пока недостаточно. Так же, как значение отдельного слова зависит от остальной части предложения (по большей части в английском языке), значение предложения зависит от остальной части параграфа и текста в целом, а значение текста зависит от культуры, намерений говорящего и прочего. Сарказм и ирония, например, имеют смысл только в широком контексте. Идиомы также могут быть проблемными для автоматизированного перевода». «Перевод Google — отличный инструмент, если вы используете его как инструмент, то есть не пытаясь заменить человеческое обучение или понимание», говорит он. «Несколько месяцев назад я пошел покупать дрель в Home Depot и прочитал надпись под машиной: «Saw machine». (Машинная пила). Ниже был испанский перевод ‘La máquina vió,’ что означает “Машина это видела”. “Saw” перевели не как существительное, а как глагол прошедшего времени». Доктор Майфуд предостерегает: «Мы должны знать о хрупкости такой интерпретации. Потому что переводить — это по сути интерпретировать, не просто идею, но и чувство. Человеческие чувства и идеи, которые могут понять только люди — а иногда даже мы, люди, не можем понять других людей». Он отметил, что культура, пол и даже возраст могут создавать препятствия для этого понимания, а чрезмерная зависимость от технологий ведет к нашему культурному и политическому упадку. Доктор Майфуд упомянул, что аргентинский писатель Хулио Кортасар называл словари “кладбищами”. Автоматические переводчики можно было бы назвать “зомби”. Эрик Камбриа, академик, исследующий ИИ, и профессор Технологического университета Наньянга в Сингапуре, занимается по большей части обработкой естественного языка, которая лежит в основе переводчиков на основе ИИ. Как и доктор Майфуд, он видит сложность и сопряженные риски в этом направлении. «Существует очень много вещей, которые мы делаем несознательно, когда читаем текст». Чтение требует выполнения множества несвязанных задач, которые не под силу автоматическим переводчикам. «Самая большая проблема машинного перевода на сегодня состоит в том, что мы склонны переходить от синтаксической формы предложения на языке ввода к синтаксической форме этого предложения на целевом языке. Мы, люди, так не делаем. Мы сперва расшифровываем значение предложения на входном языке, а затем кодируем это значение на целевом языке». Кроме того, существуют культурные риски, связанные с этими переводами. Доктор Рамеш Шринивасан, директор Лаборатории цифровых культур в Калифорнийском университете  в Лос-Анджелесе, говорит, что новые технологические инструменты иногда отражают лежащие в основе предубеждения. «Должно быть два параметра, которые определяют, как мы проектируем “интеллектуальные системы”. Один — это ценности и, можно так сказать, предубеждения того, кто создает системы. Второе — это мир, в котором система будет учиться. Если вы создаете системы ИИ, которые отражают предубеждения своего создателя и широкого мира, иногда бывают весьма впечатляющие провалы». Доктор Шриванисан говорит, что инструменты перевода должны быть прозрачными в отношении возможностей и ограничений. «Видите ли, идея того, что одна система может взять языки (которые очень разнообразны семантически и синтаксически) и объединить их или в какой-то мере обобщить, либо вообще сделать одним целым, это нелепо».
Существующие похожие прогнозы
Примерно
31 мая 2019
прогноз сбудется
Общество
MasterCard может уже осенью начать тестировать selfie pay, технологию оплаты покупок с помощью моргания в видеокамеру любого мобильного устройства
Примерно
24 мая 2021
прогноз сбудется
Общество
Пилотный проект по выявлению водителей с просроченным ОСАГО заработает в Москве после объединения баз Российского союза автостраховщиков (РСА) и ГИБДД
Примерно
17 апреля 2038
прогноз сбудется
Общество
Автокресло, которое подходит для детей ростом от 61 до 105 сантиметров, создала компания Maxi-Cosi. В устройство встроены две подушки безопасности
(+4)
(+2)
Примерно
26 февраля 2023
прогноз сбудется
Общество
Если автомобиль попадет в легкую аварию, водителю достаточно будет отправить информацию об этом в страховую компанию. Фиксация автоаварий уже заложена в возможности ГЛОНАСС
(+2)
(+2)
Примерно
27 февраля 2020
прогноз сбудется
Общество
Проект "Электронный дом", реализованный на площадке "Активный гражданин", позволяет проводить в электронном виде голосование собственников недвижимости
(+1)
(+2)
Примерно
4 июня 2024
прогноз сбудется
Общество
Горожане сами смогут решать, куда направлять ресурсы: финансы, транспорт, воду
(+2)
(+7)
Не позднее
31 декабря 2018
прогноз сбудется
Общество
На строительных площадках ЛАЭС планируется открыть несколько фармакологических и медицинских центров
Когда-нибудь
прогноз сбудется
Общество
Комитет Госдумы по безопасности рассмотрит вопрос о лишении специального права вплоть до пожизненного, сообщил глава комитета Василий Пискарев.
(+2)
(+3)
Не позднее
30 сентября 2018
прогноз сбудется
Общество
Это планировал в 1993 году Джордж Мартин, автор всемирно известного книжного цикла "Песнь Льда и Огня", В распоряжении издания Tech Insider оказалось письмо писателя:
(+4)
(+3)
Когда-нибудь
прогноз сбудется
Общество
Об этом сообщает «Парламентская газета».
(+1)
(+2)

Политика:    2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Технологии:    2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Экономика:      2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Общество:      2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Медицина:        2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

 

С помощью поиска можно найти прогнозы по любым темам