Цифровые копии будут массово использоваться при съемках в художественных фильмах взамен настоящих актеров


1 000
Когда-нибудь
прогноз сбудется
Известно, что актеров в кино планируется "усовершенствовать" - создать цифровые копии, что в итоге может сказаться на главном бизнесе Голливуда и жизни многих известных людей
57%
43%
(+5)

Сводная информация по прогнозу Редактировать сводную информацию

Вместо живых актеров в кино будут "сниматься" их цифровые копии? Сообщения СМИ, аргументы в пользу и против прогноза

18 октября 2018 - Популярные кинофраншизы, выходящие на экраны на протяжении десятилетий, столкнулись с объективной проблемой. Исполнители главных ролей, как и все люди, смертны, а зрители не воспримут нового актера в роли того или иного культового киногероя. Исполнителя главной роли потерял «Форсаж». Умерла Кэрри Фишер — принцесса Лея из «Звездных войн». В обоих случаях снять продолжение помогала компьютерная графика.  (1)

18 октября 2018 - В американской компании Digital Domain — создателе спецэффектов для множества голливудских блокбастеров — рассказывают, что цифровое клонирование актеров стремительно набирает популярность. При этом на проведении процедуры часто настаивают не продюсеры, стремящиеся к получению прибыли даже после смерти исполнителя главной роли, а сами актеры. Несмотря на то, что компания нигде не рекламировала опцию оцифровки, информация распространяется среди звезд, и те стремятся обзавестись хотя бы цифровым подобием бессмертия, пишет Technology Review. (1)

18 октября 2018 - Современные технологии достигли того уровня, когда цифровая копия на экране стала практически неотличима от оригинала. Лицо актера можно вплоть до мельчайших пор на коже заснять в высоком разрешении под самыми разными углами. За это отвечает не только оптика, но и специально созданная и настроенная LED-система. Она освещает объект светом разной длины волны, чтобы сымитировать большинство возможных вариантов освещения в ходе реальных киносъемок. В итоге получается набор сканов, цифровая копия человека, которая методами компьютерного моделирования способна сыграть роль вместо своего оригинала. Процесс цифрового клонирования очень трудоемкий и дорогой. Создание одного цифрового клона обходится в миллионы долларов. Все зависит от детализации. Если обращать внимание на все морщинки, мельчайшие отметины на коже и прочие особенности внешности, то размер цифровой модели вырастает до 10 терабайт. Зато зритель не заметит подмены живого актера такой совершенной копией. Вероятно, как и другие технологии, эту ждет удешевление и масштабирование. (1) https://m.hightech.plus/2018/10/18/cifrovie-kopii-akterov-pozvolyayut-im...

17 сентября 2018 - Политики из США все больше беспокоятся о технологии deepfake — новом типе искусственного интеллекта для редактирования видео, который подменяет одно лицо другим минимальными усилиями. Инициативная группа из трех законодателей уже направила письмо директору Национальной разведки Дэну Коутсу с просьбой оценить угрозу, которую представляет новая форма фальсификации. В письме говорится, что «очень реалистичные цифровые подделки», которые показывают «убедительные изображения людей, делающих или говорящих то, что они никогда не делали», могут быть использованы для шантажа и дезинформации. «Поскольку эта технология становится более передовой и более доступной, она может представлять угрозу для публичного дискурса и национальной безопасности Соединенных Штатов», — отмечают авторы письма из Палаты представителей.   https://hightech.fm/2018/09/15/deepfake-video

09 февраля 2018 - В декабре прошлого года разработчик под ником deepfakes использовал возможности искусственного интеллекта, чтобы "снять" израильскую актрису Галь Гадот в порноролике. Через какое-то время на портале появилось порно с участием Скарлетт Йохансон, Мэйси Уильямс, Тейлор Свифт и Обри Плаза. Разработчик не договаривался с голливудскими звездами, чтобы те «снялись» для него в короткометражке. Он просто взял их фотографии и при помощи специализированных программ «наклеил» на лица настоящих порноактрис. Deepfakes рассказал журналистам, что он — обычный программист, который увлекается машинным обучением. По его словам, созданием таких роликов может заниматься каждый, кто хоть немного понимает суть работы нейросетей. В январе 2018 года один из пользователей Reddit под ником deepfakeapp выложил в открытый доступ простую бесплатную программу для создания фейков, сопроводив ее подробной инструкцией. Появление простого инструмента привело к тому, что на Reddit устроили целый рынок с продажей роликов, а производство превратилось в конвейер. В начале февраля крупные ресурсы начали блокировать «голливудскую» эротику. Правда, приложение пользователя deepfakeapp до сих пор доступно на Reddit. Это значит, что любой желающий сможет скачать его и поэкспериментировать с возможностями нейросетей. Если отбросить всю неэтичность ситуации, авторы фейковых роликов серьезно популяризовали технологию машинного обучения. В будущем этот алгоритм на заметку смогут взять кинокомпании.  https://lenta.ru/articles/2018/02/09/deepfake/

19 декабря 2016 - В спин-оффе «Звёздных войн» под названием «Изгой-один» была использована цифровая копия злодея Уилхаффа Таркина из четвёртого эпизода, на что обратил свое внимание Джозеф Уолш. Он считает, что совсем скоро цифровые копии будут использоваться в Голливуде в качестве аналога уже погибшим актерам и живущим, что позволит в значительной степени снизить стоимость картин.  

Прогнозы по теме "Кино"

О проекте "википедии будущего"

18 октября 2018
User Image4teller(85)%
Развитие вычислительных технологий и компьютерной графики ведет к тому, что конец жизни не становится концом карьеры для популярного исполнителя, считают в компании Digital Domain. Уже сейчас созданные ее специалистами цифровые копии актеров продолжают "сниматься" после смерти оригиналов. Популярные кинофраншизы, выходящие на экраны на протяжении десятилетий, столкнулись с объективной проблемой. Исполнители главных ролей, как и все люди, смертны, а зрители не воспримут нового актера в роли того или иного культового киногероя. Исполнителя главной роли потерял «Форсаж». Умерла Кэрри Фишер — принцесса Лея из «Звездных войн». В обоих случаях снять продолжение помогала компьютерная графика. Раньше технологии вмешивались в кинопроцесс от случая к случаю. Но теперь создание цифровых копий актеров решено поставить на поток. Главный по спецэффектам в съемочной группе «Звездных войн» Бен Моррис заявил, что все ведущие актеры франшизы пройдут процедуру цифрового сканирования внешности, манеры двигаться и говорить. В американской компании Digital Domain — создателе спецэффектов для множества голливудских блокбастеров — рассказывают, что цифровое клонирование актеров стремительно набирает популярность. При этом на проведении процедуры часто настаивают не продюсеры, стремящиеся к получению прибыли даже после смерти исполнителя главной роли, а сами актеры. Несмотря на то, что компания нигде не рекламировала опцию оцифровки, информация распространяется среди звезд, и те стремятся обзавестись хотя бы цифровым подобием бессмертия, пишет Technology Review. Современные технологии достигли того уровня, когда цифровая копия на экране стала практически неотличима от оригинала. Лицо актера можно вплоть до мельчайших пор на коже заснять в высоком разрешении под самыми разными углами. За это отвечает не только оптика, но и специально созданная и настроенная LED-система. Она освещает объект светом разной длины волны, чтобы сымитировать большинство возможных вариантов освещения в ходе реальных киносъемок. В итоге получается набор сканов, цифровая копия человека, которая методами компьютерного моделирования способна сыграть роль вместо своего оригинала. Процесс цифрового клонирования очень трудоемкий и дорогой. Создание одного цифрового клона обходится в миллионы долларов. Все зависит от детализации. Если обращать внимание на все морщинки, мельчайшие отметины на коже и прочие особенности внешности, то размер цифровой модели вырастает до 10 терабайт. Зато зритель не заметит подмены живого актера такой совершенной копией. Вероятно, как и другие технологии, эту ждет удешевление и масштабирование. Есть шанс, что кто-то захочет использовать цифровое клонирование для сохранения «живого» образа близкого человека после его смерти. Вместе с развитием ИИ цифровые копии выйдут за пределы киностудий. Другая сторона этой технологии — качественные подделки. Дипфейки уже заставили переживать многих экспертов по безопасности, недавно даже американские политики заинтересовались этой темой. Если создать копию любой известной персоны по голливудскому стандарту, то качество, например, поддельного видео станет на порядок выше.
17 сентября 2018
User Image4teller(85)%
Политики из США все больше беспокоятся о технологии deepfake — новом типе искусственного интеллекта для редактирования видео, который подменяет одно лицо другим минимальными усилиями. Инициативная группа из трех законодателей уже направила письмо директору Национальной разведки Дэну Коутсу с просьбой оценить угрозу, которую представляет новая форма фальсификации. В письме говорится, что «очень реалистичные цифровые подделки», которые показывают «убедительные изображения людей, делающих или говорящих то, что они никогда не делали», могут быть использованы для шантажа и дезинформации. «Поскольку эта технология становится более передовой и более доступной, она может представлять угрозу для публичного дискурса и национальной безопасности Соединенных Штатов», — отмечают авторы письма из Палаты представителей Адам Шифф, Стефани Мерфи и Карлос Курбело. В заявлении для прессы Курбело также отметил, что «такого рода подделки имеют потенциал, чтобы нарушить все аспекты нашего общества и вызвать опасные международные и внутренние последствия. Как и в случае с любой угрозой, наше разведывательное сообщество должно быть готово бороться с ними». Deepfake впервые появились в 2016 году, когда пользователи Reddit начали использовать передовые исследования ИИ, чтобы вставлять лица знаменитостей в порно. Новое слово сочетает в себе два других — «глубокое обучение» и «подделки». Эта фразу впервые использовали на форуме, но постепенно она стала синонимом широкого спектра технологий редактирования ИИ. Такие инструменты могут превращать людей в виртуальных марионеток, синхронизируя их рты с чужой речью или просто заставляя их танцевать.
23 марта 2018
User Image4teller(85)%
Повальное увлечение подставным порно со звездами началось в декабре прошлого года. Тогда разработчик под ником deepfakes использовал возможности искусственного интеллекта, чтобы увидеть израильскую актрису Галь Гадот без одежды. По воле анонима главная героиня фильма «Чудо-женщина» даже занялась сексом со своим «сводным братом» (по крайней мере, об инцесте говорит название оригинального ролика).   Автор был настолько удовлетворен результатом, что выложил получившуюся запись в открытый доступ на популярном имиджборде Reddit. Через какое-то время на портале появились порноролики с участием Скарлетт Йохансон, Мэйси Уильямс, Тейлор Свифт и Обри Плаза. Список рос с каждым днем.   Естественно, разработчик не договаривался с голливудскими звездами, чтобы те «снялись» для него в короткометражке: скорее всего, автор скандальных роликов никогда не видел этих людей вживую. Он просто взял их фотографии и при помощи специализированных программ «наклеил» на лица настоящих порноактрис.     Deepfakes рассказал журналистам, что он — обычный программист, который увлекается машинным обучением. По его словам, созданием таких роликов может заниматься каждый, кто хоть немного понимает суть работы нейросетей. Пользователям достаточно установить бесплатный инструмент для работы с машинным обучением TensorFlow и открытую нейросетевую библиотеку Keras.   Лица звезд разработчик находил через Google-поиск или на YouTube. Мужчина обучил нейросеть на примере фейкового ролика с Гадот, а затем использовал готовый шаблон для создания других видео.   За основу своей нейросети «порнорежиссер» взял алгоритм, схожий с разработкой NVIDIA. В конце прошлого года сотрудники компании рассказали, что научились полностью видоизменять видео при помощи машинного обучения: например, превращать зимние пейзажи в летние, и наоборот. Однако представители NVIDIA отказались комментировать их потенциальную связь с создателем фейковых порнороликов.   После публикации первых поддельных видео с участием голливудских красоток формат фейкового порно тут же оброс огромным количеством фанатов: всего за пару месяцев на подраздел Reddit подписались более 90 тысяч человек. В связи с такой популярностью модераторы сайта составили список правил, среди которых встречаются довольно занимательные пункты. Например, запрещалось выкладывать ролики с лицами несовершеннолетних звезд: несмотря на всю аморальность ситуации, администрация сайта явно опасалась реакции надзорных органов. По той же причине пользователям не разрешили публиковать видеозаписи с неизвестными людьми (скорее всего, потому что те могут подать в суд).   В январе 2018 года один из пользователей Reddit под ником deepfakeapp выложил в открытый доступ простую бесплатную программу для создания фейков, сопроводив ее подробной инструкцией.   «Думаю, текущая версия приложения вполне хороша, но я надеюсь ее оптимизировать. В конце концов, я хочу улучшить его до такой степени, чтобы пользователи могли просто выбрать видео на компьютере, загрузить нейронную сеть, коррелированную с определенным лицом из общедоступной библиотеки, и поменять на ролик с другим лицом нажатием одной кнопки», — поделился deepfakeapp с журналистами The Motherboard.   Появление простого инструмента привело к тому, что на Reddit устроили целый рынок с продажей роликов, а производство превратилось в конвейер. Созданные при помощи искусственного интеллекта ролики начали делать на заказ. Одни посетители имиджборда оставляли свои заявки с условиями и описанием работы, вторые их выполняли. Оплату «порнорежиссеры» принимали в криптовалюте. Однако даже примерные цены за создание ролика в треде они не раскрывали: все переговоры проходили в личных сообщениях.   «Делаю как минимум двухминутные ролики. Порноактрис и актеров предлагайте, либо я выберу сам. Модели должны быть старше 18 лет. Оплата только биткоинами», — оставил заявку один из подписчиков треда.   При всей популярности нового формата порно о его фальшивости узнали далеко не все. К примеру, известная хакерская группировка Celeb Jihad принялась распространять скриншоты из видео под видом реальных, «эксклюзивных» кадров.   Несмотря на всю абсурдность ситуации, опороченные голливудские звезды так и не прокомментировали происходящее. Возможно, они предпочли не привлекать лишнее внимание к этой проблеме: их реакция могла лишь усугубить ситуацию.   Зато изобретение нового жанра охотно обсудили знаменитые актрисы из фильмов для взрослых. В интервью изданию Motherboard порноактриса Грейс Эванджелин заявила, что привыкла к бесплатному распространению роликов, но поддельное порно — это что-то абсолютно новое в индустрии.   «В подобных случаях всегда важно помнить о согласии. Создание фальшивых сексуальных сцен с участием звезд не требует их согласия. Это неправильно», — объяснила свою точку зрения Эванджелин.   Подобного мнения придерживается и бывшая порноактриса Алии Джанин, которая проработала в индустрии более 15 лет. Экс-исполнительница рассказала, что появление фейковых видео — очень тревожный знак, потому что подобные ролики выражают полное неуважение к порноактрисам и голливудским звездам, а также к женщинам в целом.   Юристы уверены, что накладывать лица звезд на настоящих порноактрис, а затем выкладывать результат в сеть — мягко говоря, плохая идея. Все участники фейковых сексуальных сцен имеют право подать на распространителя в суд за нарушение закона «О защите данных». Причем они выиграют дело, если докажут, что ролики нанесли вред их репутации. Также прокуроры могут признать фальшивые видео формой харассмента.   «Такое деяние, вероятно, будет равносильно незаконному вторжению в частную жизнь конкретной знаменитости, так как подобные видео вызывают серьезное беспокойство жертв», — прокомментировал проблему юрист Саймон Майлз. Специалист добавил, что создание фейковых эротических роликов также может быть квалифицировано как незаконная обработка персональных данных знаменитостей.   К слову, похожие истории уже случались. В сентябре 2016 года британская актриса Эмма Уотсон при помощи адвокатов добилась удаления слитых в сеть интимных снимков с порносайта Celeb Jihad. Несмотря на то что хакеры просчитались с публикацией реальных фото обнаженной девушки, суд также может встать на сторону тех знаменитостей, которые стали жертвами искусственного интеллекта, уверены эксперты.   Пока о готовящихся исках публике неизвестно, некоторые распространители поддельной порнографии прислушались к словам юристов. В начале февраля в СМИ появилось сразу несколько сообщений о том, что крупные ресурсы начали блокировать «голливудскую» эротику.   Первым избавиться от спорного контента решили руководители крупного гиф-сервиса Gfycat. Они единовременно удалили все фото и видео с невольными участницами, а также назвали подобный контент «нежелательным».   Затем к ним присоединились представители Pornhub. Они объяснили, что фейковое порно больше не появится на ресурсе, потому что звезды не давали согласие на такие «эксперименты» с их лицами. Twitter просто заблокировал все аккаунты, где публиковались видео, изображения или ссылки на порноролики.   После того как крупнейшие сайты объявили бойкот роликам, прервать молчание пришлось и руководству сайта Reddit, на страницах которого и процветал разврат с голливудскими актрисами. Площадка изменила правила и заблокировала как оригинальный подраздел Deepfakes, так и его многочисленные клоны.   «Мы обновили политику нашего сайта в отношении недобровольной порнографии и неприемлемого контента с участием несовершеннолетних. Сообщества, ориентированные на этот контент, и пользователи, которые публикуют такой контент, будут заблокированы на сайте», — заявили представители имиджборда.   Правда, приложение пользователя deepfakeapp до сих пор доступно на Reddit. Это значит, что любой желающий сможет скачать его и поэкспериментировать с возможностями нейросетей.   Если отбросить всю неэтичность ситуации с огромным количеством поддельного порно, авторы фейковых роликов серьезно популяризовали технологию машинного обучения. О принципах работы нейросети узнало огромное количество людей, которые уже начали экспериментировать с бесплатными инструментами от Google.   Некий разработчик показал, как с помощью простого алгоритма можно убрать усы с лица человека на видео. В качестве примера программист использовал кадры со съемок фильма «Лига справедливости», где одному из героев в исполнении Генри Кавилла при помощи спецэффектов замазывали растительность на лице.     Домашний компьютер за несколько часов справился с задачей лучше, чем режиссеры монтажа из Warner Brothers за несколько месяцев. В будущем кинокомпании смогут взять этот алгоритм на заметку: например, чтобы использовать образы умерших актеров в новых картинах. (Создатели фильма «Изгой-один» задействовали слегка устаревшую технологию CGI, чтобы «оживить» на экране скончавшуюся актрису Кэрри Фишер. Многие фанаты саги остались недовольны результатом.)   Кроме того, люди используют эту технологию просто для веселья. В конце января в сети начался флешмоб: пользователи вставляли лицо Николаса Кейджа буквально во все легендарные фильмы, которые только могли вспомнить. Вероятно, выбор пал именно на Кейджа, поскольку он давно стал любимчиком интернет-публики.   Стоит отметить, что созданная пользователем Reddit программа может стать серьезным оружием в информационных войнах. Уже сегодня у людей есть возможность умело подтасовывать данные при помощи нейросетей. Это доказал ролик, на котором лицо Гитлера «наклеили» на президента Аргентины Маурисио Макри.   Однако deepfakes никакой проблемы в этом не видит. По его словам, популяризация инструментов машинного обучения так или иначе помогает технологии эволюционировать.   «Любая технология может использоваться с плохими намерениями, и это невозможно остановить. Я не думаю, что участие обычных людей в исследовании машинного обучения является чем-то плохим», — считает разработчик.
Существующие похожие прогнозы
Примерно
31 мая 2019
прогноз сбудется
Техника и наука
Испытания автомобилей, оснащенных элементами беспилотных технологий, на участке трассы М-11 в обход Вышнего Волочка начнутся весной 2019 года
33%
67%
Когда-нибудь
прогноз сбудется
Техника и наука
Microsoft анонсировала свой собственный умный термостат GLAS под управлением виртуального ассистента Cortana
38%
62%
(+1)
Когда-нибудь
прогноз сбудется
Техника и наука
Команда исследователей из Индии и США создала нейронную сеть, которая позволит навсегда лишить какой-либо анонимности участников разного рода восстаний, митингов и прочих проблем...
56%
44%
(+4)
Примерно
25 декабря 2018
прогноз сбудется
Техника и наука
Цены снизятся за счет использования общей платформы с Renault и Mitsubishi Motors. Цена электрокаров сравняется с ценой обычных автомобилей - это одно из условий роста их популярности
47%
53%
(+3)
(+6)
Когда-нибудь
прогноз сбудется
Техника и наука
Такая технология рассматривалась еще в 60-х годах, но постепенно становится все более и более реальной...
57%
43%
(+3)
(+4)
Примерно
29 ноября 2022
прогноз сбудется
Техника и наука
Скорости 5G сделают возможными голографические звонки, сервисы удаленного присутствия и так называемый тактильный интернет. Также это способствует развитию "интернета вещей"
64%
36%
(+4)
(+2)
Не позднее
11 августа 2020
прогноз сбудется
Техника и наука
Прототипы автомобилей компания представила в июле 2016г. в Пекине. Находясь на солнце 5-6 часов в день, автомобили смогут проезжать до 80 км в сутки без дополнительной подзарядки
62%
38%
(+3)
Примерно
17 апреля 2060
прогноз сбудется
Техника и наука
Солнечная, ветровая и космическая возобновляемая энергетика - светлое будущее человечества
58%
42%
(+1)
(+2)
Примерно
31 декабря 2031
прогноз сбудется
Техника и наука
Американский стартап Netcome заявил о разработке технологии, которая позволяет загрузить память клиента в облако. Однако, по словам сотрудников компании, этот процесс «на 100%...
48%
52%
(+3)
(+1)

Политика:    2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Технологии:    2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Экономика:      2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Общество:      2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Медицина:        2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

 

С помощью поиска можно найти прогнозы по любым темам