Будут ли Deepfakes частью нашей жизни? | Хакер полдень

Аватар профиля автора

@paragismparagism

Blogger, энтузиаст технологий

Я получил определенный перенаправленный мем от известного голливудского актера через WhatsApp от многих моих контактов за последние несколько дней. Этот мог бы стать вирусным. Это накладывает лицо актера на тело Супергероя Халка и заставляет его делать некоторые неприятные вещи. Ой! Довольно смешно, но людям это нравится. Видео было сделано с предельным совершенством, и последний штрих был превосходным. Позже я узнал, что это сделал только пользователь интернета.

Это был фальшивый? Я узнал о deepfake несколько лет назад, когда проводил некоторые исследования, чтобы написать статью об искусственном интеллекте.

Deepfake — это метод замены изображения или видео человека другим.

В настоящее время мы видим множество мемов, фотошопов. Deepfake другого уровня. Deepfake генерирует визуальный контент с помощью машинного обучения и искусственного интеллекта. Deepfake — это в основном Deeplearning. Какого черта! Здесь так много жаргонов.

Deeplearning использует искусственную нейронную сеть в основном. Сеть создана для обучения и импровизации обучения. Сеть часто контролируется, частично контролируется или не контролируется. В конечном итоге он стремится к совершенству в обучении и формировании предсказательного результата.

Для Deepfake результат почти «идеальный».

(Код вставки) https://www.youtube.com/watch?v=P2uZF-5F1wI (/ код вставки)

Monalisa deepfake — Лаборатория Samsung из России в 2019 году показала, что возможно подделать видео с одной фотографии

Deepfake начал в качестве эксперимента AI и привлек к себе внимание общественности через обмениваемое лицо знаменитости в порно в начале 2017. пользователя Reddit под названием «Deepfake» бомбардировкой Интернет в 2017 году с подделкой знаменитостью порно видео. Он сделал это, используя инструменты машинного обучения с открытым исходным кодом.

Наложенная вещь не была новой. Но совершенство и простота процесса были поразительны. С тех пор Deepfaking приобрел большую популярность. В июле 17 года исследователи из Вашингтонского университета разработали алгоритм глубокого подделки и превратили аудиоклипы в реалистичное видео с синхронизацией по губам тогдашнего президента США Обамы. Это стало вирусным мгновенно.

Да, Deepfaking начал путешествие из лаборатории академика, но после этого стал доступным для конечного пользователя.

(Код вставки) https://www.youtube.com/watch?v=PiRi2_3MXFk (/ код вставки)

Виталик Бутерин поет «Деньги» Pink Floyd в фальшивом видео, сделанном Alethea AI (Если видео не воспроизводится, нажмите Вот смотреть
Deepfakes стали чрезвычайно фотореалистичными. ИИ может генерировать любые выражения лица. DeepNude было приложение, запущенное анонимным разработчиком. Он был в состоянии раздеваться на одетый женщина и создать порно видео с этого. Спорные приложение было снято после запуска в 2019 году не только знаменитости, но и общий парень может стать жертвой deepfaking. Как это звучит?

(Код вставки) https://www.youtube.com/watch?v=GUvkyW-FAwE (/ код вставки)

CZ Binance в роли Джета Ли в фальшивом видео от Althea AI

Технология — и благо, и проклятие. Deepfaking может иметь катастрофические последствия для человека. Это может сыграть ключевую роль и в международной дипломатии. Представьте себе эффект от фальшивого видео, на котором изображен президент Китая Си Цзиньпин, объявляющий, что COVID19 был изготовлен в китайской лаборатории. До того, как появится реальная реальность, видео будет пересылаться в социальных сетях миллион раз и будет иметь волновые эффекты.

Технология развивается быстрыми темпами, и зачастую трудно понять разницу между оригиналом и Deepfake. Какой выход?
Alethea AI, вирусный создатель Deepfake, строит инструменты ИИ для идентификации Deepfake. Они хотят записать глубокие хлопья в блокчейне и сделать его неизменным. ИИ будет использоваться для получения данных из блокчейна и предоставления точных результатов о фальшивом запросе. Это интересно.

Нам нужен ИИ, чтобы бороться с ИИ! Традиционная база данных может быть подделана в любое время. Только блокчейн может предоставить необходимый набор данных для обучения алгоритму ИИ.

Янтарное видео это одна компания, которая борется с Deepfakes с помощью своей передовой платформы для криминалистической экспертизы. Их платформа работает на блокчейне Ethereum. Они делают видео снятие отпечатков пальцев у источника. Это означает, что они криптографически хешируют видео в источнике, прежде чем войти в блокчейн, чтобы определить, было ли видео подделано или нет.

Технология должна развиваться. Это неоправданно и невозможно запретить технологию. Когда-то президент Кубы Фидель Кастро запретил использование мобильных телефонов на Кубе из-за подозрения, что эта технология будет использоваться США для слежки. В конце концов, им пришлось снять запрет в 2008 году. Мы не можем отступить. Нам нужно принять глубокое подделывание.

Deepfaking создаст новое поле для развлечений. Он уже используется в некоторых цифровых играх. Представьте себе создание идеального аватара с точными выражениями и участие в многопользовательской боевой игре с VR. Это может быть так реально! Синтетическое содержание войдет в вашу жизнь очень скоро, чтобы развлекать вас различными способами. Но да, нам нужно тщательно проверять, чтобы не злоупотреблять. Deepfakes здесь, чтобы остаться. Прими это!

Ранее опубликовано на

Теги

Баннер Noonification

Подпишитесь, чтобы получать ежедневные обзоры лучших технических историй!





Источник: Будут ли Deepfakes частью нашей жизни? | Хакер полдень


Обратная ссылка при копировании статьи: Будут ли Deepfakes частью нашей жизни? | Хакер полдень

Leave a comment