Цифровые копии будут массово использоваться при съемках в художественных фильмах взамен настоящих актеров


1 000
Когда-нибудь
прогноз сбудется
Известно, что актеров в кино планируется "усовершенствовать" - создать цифровые копии, что в итоге может сказаться на главном бизнесе Голливуда и жизни многих известных людей
+ 1 обоснований
(+1)
(+1)

Сводная информация по прогнозу Редактировать сводную информацию

Вместо живых актеров в кино будут "сниматься" их цифровые копии? Сообщения СМИ, аргументы в пользу и против прогноза

17 сентября 2018 - Политики из США все больше беспокоятся о технологии deepfake — новом типе искусственного интеллекта для редактирования видео, который подменяет одно лицо другим минимальными усилиями. Инициативная группа из трех законодателей уже направила письмо директору Национальной разведки Дэну Коутсу с просьбой оценить угрозу, которую представляет новая форма фальсификации. В письме говорится, что «очень реалистичные цифровые подделки», которые показывают «убедительные изображения людей, делающих или говорящих то, что они никогда не делали», могут быть использованы для шантажа и дезинформации. «Поскольку эта технология становится более передовой и более доступной, она может представлять угрозу для публичного дискурса и национальной безопасности Соединенных Штатов», — отмечают авторы письма из Палаты представителей.   https://hightech.fm/2018/09/15/deepfake-video

09 февраля 2018 - В декабре прошлого года разработчик под ником deepfakes использовал возможности искусственного интеллекта, чтобы "снять" израильскую актрису Галь Гадот в порноролике. Через какое-то время на портале появилось порно с участием Скарлетт Йохансон, Мэйси Уильямс, Тейлор Свифт и Обри Плаза. Разработчик не договаривался с голливудскими звездами, чтобы те «снялись» для него в короткометражке. Он просто взял их фотографии и при помощи специализированных программ «наклеил» на лица настоящих порноактрис. Deepfakes рассказал журналистам, что он — обычный программист, который увлекается машинным обучением. По его словам, созданием таких роликов может заниматься каждый, кто хоть немного понимает суть работы нейросетей. В январе 2018 года один из пользователей Reddit под ником deepfakeapp выложил в открытый доступ простую бесплатную программу для создания фейков, сопроводив ее подробной инструкцией. Появление простого инструмента привело к тому, что на Reddit устроили целый рынок с продажей роликов, а производство превратилось в конвейер. В начале февраля крупные ресурсы начали блокировать «голливудскую» эротику. Правда, приложение пользователя deepfakeapp до сих пор доступно на Reddit. Это значит, что любой желающий сможет скачать его и поэкспериментировать с возможностями нейросетей. Если отбросить всю неэтичность ситуации, авторы фейковых роликов серьезно популяризовали технологию машинного обучения. В будущем этот алгоритм на заметку смогут взять кинокомпании.  https://lenta.ru/articles/2018/02/09/deepfake/

19 декабря 2016 - В спин-оффе «Звёздных войн» под названием «Изгой-один» была использована цифровая копия злодея Уилхаффа Таркина из четвёртого эпизода, на что обратил свое внимание Джозеф Уолш. Он считает, что совсем скоро цифровые копии будут использоваться в Голливуде в качестве аналога уже погибшим актерам и живущим, что позволит в значительной степени снизить стоимость картин.

Прогнозы по теме "Кино"

О проекте "википедии будущего"

17 сентября 2018
User Image4teller(85)%
Политики из США все больше беспокоятся о технологии deepfake — новом типе искусственного интеллекта для редактирования видео, который подменяет одно лицо другим минимальными усилиями. Инициативная группа из трех законодателей уже направила письмо директору Национальной разведки Дэну Коутсу с просьбой оценить угрозу, которую представляет новая форма фальсификации. В письме говорится, что «очень реалистичные цифровые подделки», которые показывают «убедительные изображения людей, делающих или говорящих то, что они никогда не делали», могут быть использованы для шантажа и дезинформации. «Поскольку эта технология становится более передовой и более доступной, она может представлять угрозу для публичного дискурса и национальной безопасности Соединенных Штатов», — отмечают авторы письма из Палаты представителей Адам Шифф, Стефани Мерфи и Карлос Курбело. В заявлении для прессы Курбело также отметил, что «такого рода подделки имеют потенциал, чтобы нарушить все аспекты нашего общества и вызвать опасные международные и внутренние последствия. Как и в случае с любой угрозой, наше разведывательное сообщество должно быть готово бороться с ними». Deepfake впервые появились в 2016 году, когда пользователи Reddit начали использовать передовые исследования ИИ, чтобы вставлять лица знаменитостей в порно. Новое слово сочетает в себе два других — «глубокое обучение» и «подделки». Эта фразу впервые использовали на форуме, но постепенно она стала синонимом широкого спектра технологий редактирования ИИ. Такие инструменты могут превращать людей в виртуальных марионеток, синхронизируя их рты с чужой речью или просто заставляя их танцевать.
23 марта 2018
User Image4teller(85)%
Повальное увлечение подставным порно со звездами началось в декабре прошлого года. Тогда разработчик под ником deepfakes использовал возможности искусственного интеллекта, чтобы увидеть израильскую актрису Галь Гадот без одежды. По воле анонима главная героиня фильма «Чудо-женщина» даже занялась сексом со своим «сводным братом» (по крайней мере, об инцесте говорит название оригинального ролика).   Автор был настолько удовлетворен результатом, что выложил получившуюся запись в открытый доступ на популярном имиджборде Reddit. Через какое-то время на портале появились порноролики с участием Скарлетт Йохансон, Мэйси Уильямс, Тейлор Свифт и Обри Плаза. Список рос с каждым днем.   Естественно, разработчик не договаривался с голливудскими звездами, чтобы те «снялись» для него в короткометражке: скорее всего, автор скандальных роликов никогда не видел этих людей вживую. Он просто взял их фотографии и при помощи специализированных программ «наклеил» на лица настоящих порноактрис.     Deepfakes рассказал журналистам, что он — обычный программист, который увлекается машинным обучением. По его словам, созданием таких роликов может заниматься каждый, кто хоть немного понимает суть работы нейросетей. Пользователям достаточно установить бесплатный инструмент для работы с машинным обучением TensorFlow и открытую нейросетевую библиотеку Keras.   Лица звезд разработчик находил через Google-поиск или на YouTube. Мужчина обучил нейросеть на примере фейкового ролика с Гадот, а затем использовал готовый шаблон для создания других видео.   За основу своей нейросети «порнорежиссер» взял алгоритм, схожий с разработкой NVIDIA. В конце прошлого года сотрудники компании рассказали, что научились полностью видоизменять видео при помощи машинного обучения: например, превращать зимние пейзажи в летние, и наоборот. Однако представители NVIDIA отказались комментировать их потенциальную связь с создателем фейковых порнороликов.   После публикации первых поддельных видео с участием голливудских красоток формат фейкового порно тут же оброс огромным количеством фанатов: всего за пару месяцев на подраздел Reddit подписались более 90 тысяч человек. В связи с такой популярностью модераторы сайта составили список правил, среди которых встречаются довольно занимательные пункты. Например, запрещалось выкладывать ролики с лицами несовершеннолетних звезд: несмотря на всю аморальность ситуации, администрация сайта явно опасалась реакции надзорных органов. По той же причине пользователям не разрешили публиковать видеозаписи с неизвестными людьми (скорее всего, потому что те могут подать в суд).   В январе 2018 года один из пользователей Reddit под ником deepfakeapp выложил в открытый доступ простую бесплатную программу для создания фейков, сопроводив ее подробной инструкцией.   «Думаю, текущая версия приложения вполне хороша, но я надеюсь ее оптимизировать. В конце концов, я хочу улучшить его до такой степени, чтобы пользователи могли просто выбрать видео на компьютере, загрузить нейронную сеть, коррелированную с определенным лицом из общедоступной библиотеки, и поменять на ролик с другим лицом нажатием одной кнопки», — поделился deepfakeapp с журналистами The Motherboard.   Появление простого инструмента привело к тому, что на Reddit устроили целый рынок с продажей роликов, а производство превратилось в конвейер. Созданные при помощи искусственного интеллекта ролики начали делать на заказ. Одни посетители имиджборда оставляли свои заявки с условиями и описанием работы, вторые их выполняли. Оплату «порнорежиссеры» принимали в криптовалюте. Однако даже примерные цены за создание ролика в треде они не раскрывали: все переговоры проходили в личных сообщениях.   «Делаю как минимум двухминутные ролики. Порноактрис и актеров предлагайте, либо я выберу сам. Модели должны быть старше 18 лет. Оплата только биткоинами», — оставил заявку один из подписчиков треда.   При всей популярности нового формата порно о его фальшивости узнали далеко не все. К примеру, известная хакерская группировка Celeb Jihad принялась распространять скриншоты из видео под видом реальных, «эксклюзивных» кадров.   Несмотря на всю абсурдность ситуации, опороченные голливудские звезды так и не прокомментировали происходящее. Возможно, они предпочли не привлекать лишнее внимание к этой проблеме: их реакция могла лишь усугубить ситуацию.   Зато изобретение нового жанра охотно обсудили знаменитые актрисы из фильмов для взрослых. В интервью изданию Motherboard порноактриса Грейс Эванджелин заявила, что привыкла к бесплатному распространению роликов, но поддельное порно — это что-то абсолютно новое в индустрии.   «В подобных случаях всегда важно помнить о согласии. Создание фальшивых сексуальных сцен с участием звезд не требует их согласия. Это неправильно», — объяснила свою точку зрения Эванджелин.   Подобного мнения придерживается и бывшая порноактриса Алии Джанин, которая проработала в индустрии более 15 лет. Экс-исполнительница рассказала, что появление фейковых видео — очень тревожный знак, потому что подобные ролики выражают полное неуважение к порноактрисам и голливудским звездам, а также к женщинам в целом.   Юристы уверены, что накладывать лица звезд на настоящих порноактрис, а затем выкладывать результат в сеть — мягко говоря, плохая идея. Все участники фейковых сексуальных сцен имеют право подать на распространителя в суд за нарушение закона «О защите данных». Причем они выиграют дело, если докажут, что ролики нанесли вред их репутации. Также прокуроры могут признать фальшивые видео формой харассмента.   «Такое деяние, вероятно, будет равносильно незаконному вторжению в частную жизнь конкретной знаменитости, так как подобные видео вызывают серьезное беспокойство жертв», — прокомментировал проблему юрист Саймон Майлз. Специалист добавил, что создание фейковых эротических роликов также может быть квалифицировано как незаконная обработка персональных данных знаменитостей.   К слову, похожие истории уже случались. В сентябре 2016 года британская актриса Эмма Уотсон при помощи адвокатов добилась удаления слитых в сеть интимных снимков с порносайта Celeb Jihad. Несмотря на то что хакеры просчитались с публикацией реальных фото обнаженной девушки, суд также может встать на сторону тех знаменитостей, которые стали жертвами искусственного интеллекта, уверены эксперты.   Пока о готовящихся исках публике неизвестно, некоторые распространители поддельной порнографии прислушались к словам юристов. В начале февраля в СМИ появилось сразу несколько сообщений о том, что крупные ресурсы начали блокировать «голливудскую» эротику.   Первым избавиться от спорного контента решили руководители крупного гиф-сервиса Gfycat. Они единовременно удалили все фото и видео с невольными участницами, а также назвали подобный контент «нежелательным».   Затем к ним присоединились представители Pornhub. Они объяснили, что фейковое порно больше не появится на ресурсе, потому что звезды не давали согласие на такие «эксперименты» с их лицами. Twitter просто заблокировал все аккаунты, где публиковались видео, изображения или ссылки на порноролики.   После того как крупнейшие сайты объявили бойкот роликам, прервать молчание пришлось и руководству сайта Reddit, на страницах которого и процветал разврат с голливудскими актрисами. Площадка изменила правила и заблокировала как оригинальный подраздел Deepfakes, так и его многочисленные клоны.   «Мы обновили политику нашего сайта в отношении недобровольной порнографии и неприемлемого контента с участием несовершеннолетних. Сообщества, ориентированные на этот контент, и пользователи, которые публикуют такой контент, будут заблокированы на сайте», — заявили представители имиджборда.   Правда, приложение пользователя deepfakeapp до сих пор доступно на Reddit. Это значит, что любой желающий сможет скачать его и поэкспериментировать с возможностями нейросетей.   Если отбросить всю неэтичность ситуации с огромным количеством поддельного порно, авторы фейковых роликов серьезно популяризовали технологию машинного обучения. О принципах работы нейросети узнало огромное количество людей, которые уже начали экспериментировать с бесплатными инструментами от Google.   Некий разработчик показал, как с помощью простого алгоритма можно убрать усы с лица человека на видео. В качестве примера программист использовал кадры со съемок фильма «Лига справедливости», где одному из героев в исполнении Генри Кавилла при помощи спецэффектов замазывали растительность на лице.     Домашний компьютер за несколько часов справился с задачей лучше, чем режиссеры монтажа из Warner Brothers за несколько месяцев. В будущем кинокомпании смогут взять этот алгоритм на заметку: например, чтобы использовать образы умерших актеров в новых картинах. (Создатели фильма «Изгой-один» задействовали слегка устаревшую технологию CGI, чтобы «оживить» на экране скончавшуюся актрису Кэрри Фишер. Многие фанаты саги остались недовольны результатом.)   Кроме того, люди используют эту технологию просто для веселья. В конце января в сети начался флешмоб: пользователи вставляли лицо Николаса Кейджа буквально во все легендарные фильмы, которые только могли вспомнить. Вероятно, выбор пал именно на Кейджа, поскольку он давно стал любимчиком интернет-публики.   Стоит отметить, что созданная пользователем Reddit программа может стать серьезным оружием в информационных войнах. Уже сегодня у людей есть возможность умело подтасовывать данные при помощи нейросетей. Это доказал ролик, на котором лицо Гитлера «наклеили» на президента Аргентины Маурисио Макри.   Однако deepfakes никакой проблемы в этом не видит. По его словам, популяризация инструментов машинного обучения так или иначе помогает технологии эволюционировать.   «Любая технология может использоваться с плохими намерениями, и это невозможно остановить. Я не думаю, что участие обычных людей в исследовании машинного обучения является чем-то плохим», — считает разработчик.
Существующие похожие прогнозы
Примерно
21 ноября 2030
прогноз сбудется
Техника и наука
Первая женщина-космонавт, депутат Госдумы РФ Валентина Терешкова считает, что Россия первой совершит экспедицию на Марс.
(+8)
(+2)
Примерно
19 декабря 2037
прогноз сбудется
Техника и наука
Перспективными направлениями использования графена являются производство полупроводников, суперконденсаторов и аккумуляторов, новых материалов на основе углеродных нанотрубок...
(+1)
(+1)
Примерно
1 сентября 2020
прогноз сбудется
Техника и наука
Разработчики модульных электромобилей отмечают, что главные особенности их машины — это модульная конструкция, простота сборки и мобильность
Примерно
31 декабря 2020
прогноз сбудется
Техника и наука
Крупнейшие компании Кремниевой долины серьезно инвестируют в альтернативную энергетику.
Примерно
31 декабря 2020
прогноз сбудется
Техника и наука
NASA объявило о запуске новой космической миссии по изучению высокоэнергетического излучения черных дыр, пульсаров и нейтронных звезд
(+1)
(+4)
Примерно
5 января 2020
прогноз сбудется
Техника и наука
В Балтийском море недавно успешно завершились испытания бесшумного беспилотного глайдера «Морская тень», обнаружить который практически невозможно
(+4)
(+8)
Когда-нибудь
прогноз сбудется
Техника и наука
Была показана удивительная технология, которая со временем может сделать цифровые устройства по-настоящему гибкими, поскольку эластичными станут сами микросхемы
(+3)
(+4)
Примерно
2 марта 2020
прогноз сбудется
Техника и наука
Специалисты NASA совместно с Lockheed Martin, разработали и уже успели испытать миниатюрный прототип их сверхзвукового самолета.
Примерно
14 июля 2022
прогноз сбудется
Техника и наука
Рабочий прототип летающего автомобиля-амфибии готов не только к демонстрации на выставках, но и к реальным испытаниям
(+6)
(+1)
Когда-нибудь
прогноз сбудется
Техника и наука
В Томске разрабатывают альтернативу Windows на базе Linux за 300 млн рублей
(+6)
(+4)

Политика:    2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Технологии:    2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Экономика:      2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Общество:      2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

Медицина:        2016    2017    2018    2019    2020    2021    2022    2023    2024    2025    2026    2027    2028    2029    2030-е    2040-е    2050-е    2060-е    Избранное 

 

С помощью поиска можно найти прогнозы по любым темам