Шокирующее видео — как проверить, что оно настоящее | События в мире — оценки и прогнозы из Германии и Европы | DW
Если опубликованное в соцсетях видео вызывает сомнения, первым делом стоит проверить аккаунт, с которого его запостили. Если пользователь зарегистрирован недавно и выложил только одну запись или несколько таких же подозрительных, надежным источником его точно не назовешь.
Размещенные на YouTube поддельные видео часто выдает статистика. Количество просмотров подозрительно высокое, при этом очень мало подписчиков? Скорее всего, просмотры накрутили. Обязательно почитайте комментарии к видео: возможно, другие пользователи уже поняли, что это фейк, и написали об этом.
Старые видео в новом контексте
Часто юзеров обманывают, даже не подделывая видео. Один из самых распространенных приемов — выдать старые съемки за новые или вырезать из них отдельные сцены и показать их в другом контексте. Таких примеров было много в начале российско-украинского конфликта, когда за кадры военных действий в Украине выдавали записи из Чечни.
Поэтому важно убедиться, что вы смотрите оригинал. Проверить это можно при помощи скриншотов — их нужно прогнать через обратный поиск по картинкам в поисковике, воспользоваться сервисом YouTube Data Viewer от Amnesty International или плагином InVid. В результатах поиска появятся все похожие видео, среди которых будет и исходник.
Посмотрите на дату первой публикации, могло ли произойти событие именно в это время? По вывескам, номерам машин, названиям улиц и одежде героев нередко можно понять, где на самом деле сняли это видео.
Фейковое видео выдают детали
Детали в подозрительных видео тоже стоит проверять. Если тени отсутствуют или не совпадают, то, вероятно, в видео были вставлены объекты из другого ролика.
Обратите внимание на зернистость, шумы и резкость. Предметы и фигуры по качеству изображения отличаются от фона? Вероятно, видео поддельное. Если ролик размещен в низком качестве и картинка размытая, доверять ему не стоит.
Даже если саму картинку не подделывали, а видео можно посмотреть только на иностранном языке, субтитры могут содержать ложные сообщения. Тексту стоит доверять только в том случае, если есть возможность перепроверить перевод.
Профессиональные подделки в интернете
В Сети существует много профессионально смонтированных роликов, на которые повелись даже опытные журналисты. Летом 2016 года выяснилось, что одна австралийская компания в течение нескольких лет выкладывала на YouTube поддельные видео, которые становились вирусными и собирали миллионы просмотров.
Сомнения вызывал только один момент — сюжеты были не очень реалистичными: сноубордистку на склоне преследовал медведь, парень делал селфи на фоне торнадо, нападение акулы было зафиксировано на GoPro. Так что всегда нужно задаваться вопросом, могли ли события в кадре произойти на самом деле.
Новейшие технологии позволяют записать видео с любым героем — его мимику, жесты и тембр голоса воссоздает специальная программа. Изменить можно даже погоду в кадре. Такие фейки отличить сложнее всего.
Так что самое важное — критически оценивать видео и не верить всему, что на экране.
Другие выпуски проекта DW «Как выжить в соцсетях» смотрите здесь.
Смотрите также:
Технологии подделки видео и голоса стали общедоступными
Опубликован видеоролик, который показывает, что американцы не были на Луне, а разбились при посадке. В ролике президент США официально скорбит о гибели астронавтов космического корабля Аполлон-11 на Луне. Теперь ролик с речью президента США Никсона о лунной катастрофе In Event of Moon Disaster можно увидеть в YouTube (фильм с видео речи президента США Никсона, которой никогда не было в действительности). Его записали специалисты Центра передовой виртуальности (Center for Advanced Virtuality) Массачусетского технологического института. Ролик создан с помощью технологии DeepFake, которая позволяет на основе нескольких образцов голоса и видео с человеком создать искусную подделку, на глаз неотличимую от оригинала.
Другая разработка под названием DeepVoice позволяет синтезировать речь со всеми нюансами, характерными для конкретного человека, включая произношение. Системе достаточно 10 образцов голоса человека по 5 секунд, чтобы создать звукозапись, которую не отличит система распознавания по голосу. Существует также аналогичный канадский проект Lyrebird. Специалисты университетов Принстона, Макса Планка и Стэнфорда также создали приложение Neural Rendering, которое имитирует произнесение текста человеком на видео. Язык говорящего не имеет значения.
Конечно, в противовес началось развитие технологий, позволяющих выявлять подделку изображений, видео или звуковых роликов, но они выявляют далеко не все подделки и нуждаются в существенной доработке.
Компании Facebook и Microsoft провели в 2020 году DeepFake Detection Challenge — конкурс лучшего решения для выявления подмены лиц на видео. Приз составлял $1 млн, но лучшее решение только в 68% случаев выявляет подделку. Причем речь идет о видео DeepFake, в которые не вносились специальные шумы, затрудняющие распознавание подделок. По непроверенным данным, уже разработано специальное программное обеспечение на основе искусственного интеллекта, противодействующее распознаванию подделок.
Самым известным примером незаконного использования DeepFake является случай с энергетической компанией, которая потеряла около 220 тысяч евро. Злоумышленники позвонили по телефону бухгалтеру и голосом руководителя передали распоряжение на оплату. Была правдоподобно сымитирована манера разговора и немецкий акцент.
Сегодня технология DeepFake стала доступна для всех желающих. Помимо инструментов для фото и видео DeepFaceLab, FaceSwap, Faceswapweb.com и других, сразу несколько русскоязычных Telegram-каналов предложили сервис подмены номера телефона и голоса. Сервис позволяет подменить ваш номер на любой другой, а также поменять ваш голос на один из нескольких вариантов. Это предоставляет всем желающим возможности как для невинных розыгрышей, так и для крупного мошенничества. Становятся бесполезными приложения, которые с помощью определителя номера выявляют навязчивую рекламу или мошенников. Теперь имеет смысл просить собеседника сообщать наиболее важную информацию через мессенджеры, поскольку там пока, по крайней мере в широком доступе, нет средств для подмены номера.
Технологии синтеза реалистичной речи и видео вызывают обоснованное беспокойство специалистов, поскольку позволяют мошенникам записывать голосовые сообщения голосом знакомых вам людей или подделывать видео, в том числе обманывать системы банковской идентификации, а также подделывать доказательства для суда. Развитие технологии может привести к тому, что видеозаписи и аудиозаписи будет невозможно использовать в суде. DeepFake отрывает широкие возможности для краж с банковских счетов, политической дискредитации, а также запугивания, шантажа и мошенничества, целью которых может стать любой, включая детей. Уже сейчас в интернете распространены поддельные порноролики, где внешность порноактера заменена на внешность знаменитости.
С октября 2019 года в Калифорнии запрещено выкладывать в сеть ролики с политическими кандидатами за 60 дней до выборов. С января 2020 года в Китае запрещено публиковать фото и видео, созданные с помощью технологии DeepFake без специальной пометки.
Учитывая, что отличить подделку даже с помощью специализированного программного обеспечения не всегда возможно, впору повторить слова известного персонажа: «Не верь глазам своим!»
Тут есть о чем задуматься: как всем нам, так и законодателям, судьям, а также специалистам по криминалистической экспертизе.
Подписывайтесь на канал «Инвест-Форсайта» в «Яндекс.Дзене»
Видеолекция: подделывать теперь можно не только фото, но и видео. Как отличить т.н. дипфейк? | Медиаграмотность
«Ложь успевает обойти полмира, пока правда надевает штаны». Эта меткая цитата в последние годы часто используется, когда речь идет о распространении неправды. Ложная информация принимает множество форм, и важно понимать, что ложь в виде текста — только одна из них.
В последнее время ложная информация все чаще приобретает форму аудио-, фото- или видеоподделок. Поэтому становится важным уметь проверять и критически анализировать сообщения сомнительной ценности, которые доходят до нас в виде картинок или видео.
В конце 2017 года начало быстро распространяться новое понятие: глубокая подделка, или дипфейк (англ. deepfake). Это понятие означает, что искусственный интеллект при помощи технологии глубинного обучения может изучить человеческие движения (например, мимика при разговоре) и на этой основе сгенерировать поддельные видео. Чем больше фотографий и видео конкретной личности есть в интернете, тем больше личность подходит для создания дипфейка.
Посмотрите на дату первой публикации, могло ли произойти событие именно в это время? По вывескам, номерам машин, названиям улиц и одежде героев нередко можно понять, где на самом деле сняли это видео.
Фейковое видео выдают детали
Детали в подозрительных видео тоже стоит проверять. Если тени отсутствуют или не совпадают, то, вероятно, в видео были вставлены объекты из другого ролика.
Обратите внимание на зернистость, шумы и резкость. Предметы и фигуры по качеству изображения отличаются от фона? Вероятно, видео поддельное. Если ролик размещен в низком качестве и картинка размытая, доверять ему не стоит.
Даже если саму картинку не подделывали, а видео можно посмотреть только на иностранном языке, субтитры могут содержать ложные сообщения. Тексту стоит доверять только в том случае, если есть возможность перепроверить перевод.
Профессиональные подделки в интернете
В Сети существует много профессионально смонтированных роликов, на которые повелись даже опытные журналисты. Летом 2016 года выяснилось, что одна австралийская компания в течение нескольких лет выкладывала на YouTube поддельные видео, которые становились вирусными и собирали миллионы просмотров.
Сомнения вызывал только один момент — сюжеты были не очень реалистичными: сноубордистку на склоне преследовал медведь, парень делал селфи на фоне торнадо, нападение акулы было зафиксировано на GoPro. Так что всегда нужно задаваться вопросом, могли ли события в кадре произойти на самом деле.
Новейшие технологии позволяют записать видео с любым героем — его мимику, жесты и тембр голоса воссоздает специальная программа. Изменить можно даже погоду в кадре. Такие фейки отличить сложнее всего.
Так что самое важное — критически оценивать видео и не верить всему, что на экране.
Другие выпуски проекта DW «Как выжить в соцсетях» смотрите здесь.
Смотрите также:
Технологии подделки видео и голоса стали общедоступными
Опубликован видеоролик, который показывает, что американцы не были на Луне, а разбились при посадке. В ролике президент США официально скорбит о гибели астронавтов космического корабля Аполлон-11 на Луне. Теперь ролик с речью президента США Никсона о лунной катастрофе In Event of Moon Disaster можно увидеть в YouTube (фильм с видео речи президента США Никсона, которой никогда не было в действительности). Его записали специалисты Центра передовой виртуальности (Center for Advanced Virtuality) Массачусетского технологического института. Ролик создан с помощью технологии DeepFake, которая позволяет на основе нескольких образцов голоса и видео с человеком создать искусную подделку, на глаз неотличимую от оригинала.
Другая разработка под названием DeepVoice позволяет синтезировать речь со всеми нюансами, характерными для конкретного человека, включая произношение. Системе достаточно 10 образцов голоса человека по 5 секунд, чтобы создать звукозапись, которую не отличит система распознавания по голосу. Существует также аналогичный канадский проект Lyrebird. Специалисты университетов Принстона, Макса Планка и Стэнфорда также создали приложение Neural Rendering, которое имитирует произнесение текста человеком на видео. Язык говорящего не имеет значения.
Конечно, в противовес началось развитие технологий, позволяющих выявлять подделку изображений, видео или звуковых роликов, но они выявляют далеко не все подделки и нуждаются в существенной доработке.
Компании Facebook и Microsoft провели в 2020 году DeepFake Detection Challenge — конкурс лучшего решения для выявления подмены лиц на видео. Приз составлял $1 млн, но лучшее решение только в 68% случаев выявляет подделку. Причем речь идет о видео DeepFake, в которые не вносились специальные шумы, затрудняющие распознавание подделок. По непроверенным данным, уже разработано специальное программное обеспечение на основе искусственного интеллекта, противодействующее распознаванию подделок.
Самым известным примером незаконного использования DeepFake является случай с энергетической компанией, которая потеряла около 220 тысяч евро. Злоумышленники позвонили по телефону бухгалтеру и голосом руководителя передали распоряжение на оплату. Была правдоподобно сымитирована манера разговора и немецкий акцент.
Сегодня технология DeepFake стала доступна для всех желающих. Помимо инструментов для фото и видео DeepFaceLab, FaceSwap, Faceswapweb.com и других, сразу несколько русскоязычных Telegram-каналов предложили сервис подмены номера телефона и голоса. Сервис позволяет подменить ваш номер на любой другой, а также поменять ваш голос на один из нескольких вариантов. Это предоставляет всем желающим возможности как для невинных розыгрышей, так и для крупного мошенничества. Становятся бесполезными приложения, которые с помощью определителя номера выявляют навязчивую рекламу или мошенников. Теперь имеет смысл просить собеседника сообщать наиболее важную информацию через мессенджеры, поскольку там пока, по крайней мере в широком доступе, нет средств для подмены номера.
Технологии синтеза реалистичной речи и видео вызывают обоснованное беспокойство специалистов, поскольку позволяют мошенникам записывать голосовые сообщения голосом знакомых вам людей или подделывать видео, в том числе обманывать системы банковской идентификации, а также подделывать доказательства для суда. Развитие технологии может привести к тому, что видеозаписи и аудиозаписи будет невозможно использовать в суде. DeepFake отрывает широкие возможности для краж с банковских счетов, политической дискредитации, а также запугивания, шантажа и мошенничества, целью которых может стать любой, включая детей. Уже сейчас в интернете распространены поддельные порноролики, где внешность порноактера заменена на внешность знаменитости.
С октября 2019 года в Калифорнии запрещено выкладывать в сеть ролики с политическими кандидатами за 60 дней до выборов. С января 2020 года в Китае запрещено публиковать фото и видео, созданные с помощью технологии DeepFake без специальной пометки.
Учитывая, что отличить подделку даже с помощью специализированного программного обеспечения не всегда возможно, впору повторить слова известного персонажа: «Не верь глазам своим!»
Тут есть о чем задуматься: как всем нам, так и законодателям, судьям, а также специалистам по криминалистической экспертизе.
Подписывайтесь на канал «Инвест-Форсайта» в «Яндекс.Дзене»
Видеолекция: подделывать теперь можно не только фото, но и видео. Как отличить т.н. дипфейк? | Медиаграмотность
«Ложь успевает обойти полмира, пока правда надевает штаны». Эта меткая цитата в последние годы часто используется, когда речь идет о распространении неправды. Ложная информация принимает множество форм, и важно понимать, что ложь в виде текста — только одна из них.
В последнее время ложная информация все чаще приобретает форму аудио-, фото- или видеоподделок. Поэтому становится важным уметь проверять и критически анализировать сообщения сомнительной ценности, которые доходят до нас в виде картинок или видео.
В конце 2017 года начало быстро распространяться новое понятие: глубокая подделка, или дипфейк (англ. deepfake). Это понятие означает, что искусственный интеллект при помощи технологии глубинного обучения может изучить человеческие движения (например, мимика при разговоре) и на этой основе сгенерировать поддельные видео. Чем больше фотографий и видео конкретной личности есть в интернете, тем больше личность подходит для создания дипфейка.
В дипфейковых видео можно заставить человека делать и говорить то, чего желает их создатель. Следует учитывать, что чем дальше развивается эта технология, тем сложнее людям отличить подделку невооруженным глазом, и тем правдоподобнее она выглядит. Представьте, какой вред могут нанести такие подделки — как фигурирующим в них людям, так и обществу в целом.
Может произойти так, что вредоносная информация будет звучать якобы из уст влиятельных личностей и заставит других людей вести себя опасно по отношению как к себе, так и к другим людям. Ложная информация, распространенная посредством дипфейк, может обрушить биржи и повлиять на экономику. Она также может повлиять на межгосударственные отношения и даже довести до политических конфликтов. Например, мир уже облетели дипфейковые видео, где политики якобы говорят вещи, которые они никогда не говорили, или где они выглядят больными или одурманенными.
К счастью, распространение таких подделок пока не привело к всемирному политическому хаосу. Но имидж некоторых известных политиков, общественных деятелей и звезд кинематографа пострадал.
Самый большой вред был нанесен людям, которых изобразили в дипфейковых видео порнографического толка. В подобных видеороликах лицо порноактера подменяется лицом желаемого человека. Около 96% дипфейков, распространяемых онлайн, именно порнографические. Тема дипфейковых видео всплыла в общественности в первую очередь потому, что их жертвой стали известные актрисы — их и изобразили в порнографических роликах.
Но знаменитости — не единственные, чью жизнь подпортили поддельные видео. Порнографические дипфейки создаются и с «участием» обычных людей. В подобных случаях создателями видео часто являются бывшие партнеры, желающие выразить свою горечь по поводу разрушенных отношений, а то и отомстить.
Так что же нужно сделать для того, чтобы ненароком не навредить другим распространением дипфейка? И как самому избежать участи жертвы ложной информации? Простое решение существует! Всегда добавляйте к публикации указание на источник, чтобы не создавать или не распространять ложную информацию. Если вы хотите пошутить и поделиться заведомой неправдой, то упомяните, что это шутка. В случае каждой публикации следует подумать, как люди, видящие ее, могут ее воспринять. То, что для вас может показаться удачной шуткой, для другого человека может быть оскорбительным, а то и вообще сеющим страх и панику, подрывающим дух. Так что не стоит забывать о золотом правиле ежедневного общения: то, что является для другого человека личным и интимным, не должно становиться поводом для шуток.
Если вы видите публикацию, которая кажется вызывающей негативные эмоции, необычной, конфликтной или пугающей, то следует проявить медиаграмотность и задать вопрос: откуда эта информация и какую цель может преследовать ее распространитель? Если в случае пугающего видео или фото невозможно узнать, когда, где и кем оно сделано, то следует подумать — а вдруг это ложная информация или дипфейк? Имитация лица человека в дипфейковых видео не полностью точна и аккуратна. В них можно заметить странные или резкие движения в области рта, а текст может казаться странным и даже шокирующим. Также проследите, не кажутся ли какие-то черты лица изображенного человека слишком «плавными», нет ли несоответствий в цвете лица.
Давайте вспомним цитату, с которой начался этот разговор: «ложь успевает обойти полмира, пока правда надевает штаны». Кому она принадлежит? Она такая меткая, что ее авторство приписывали множеству известных личностей — от писателя Марка Твена до политика Уинстона Черчилля. У каждого из них была своя версия этой цитаты — где-то фигурировали штаны, где-то сапоги, а где-то ложь облетала полмира, а не обходила. Так что истинное авторство установить сложно, но смысл цитаты довольно глубокий, не правда ли? Ложь распространяется быстрее правды, но ее можно остановить критическим анализом сообщения, фотографии или видео. Если вы сомневаетесь в правдоподобности фото или видео, обратите пристальное внимание на контекст и ситуацию, в рамках которой они представлены публике. Часто ответ на вопрос «ложь или правда» кроется именно в тематике фото или видео, или во времени его размещения.
В качестве завершения темы распространения ложной информации предлагаю вам выполнить простое задание. Ваш друг попробовал свои силы в создании дипфейка, в котором его одноклассница рассказывает о том, как ворует в магазинах. Друг делится видео в секретной группе в Facebook. Какие последствия могут быть у его действий, и как вы поведете себя в такой ситуации?
ERR публикует информационные материалы о том, как лучше ориентироваться в современном перенасыщенном информационном пространстве и быстрее отличать проверенные факты от фейковых новостей, в рамках очередной недели медиаграмотности, которая проводится в Эстонии 26-30 октября.
Дипфейки и другие поддельные видео – как оставаться в безопасности | Лаборатория Касперского
Дипфейки: новые технологии обмана
Слово дипфейк (Deepfake) является составным и происходит от deep learning (глубинное обучение) и fake (фейк, подделка). Глубинное обучение – это сложный метод на базе искусственного интеллекта, который использует многоуровневые алгоритмы машинного обучения для извлечения все более сложных характеристик из необработанных входных данных. При этом ИИ способен обучаться на неструктурированных данных – таких как изображения лиц. Например, ИИ может собрать данные о движениях вашего тела.
Затем эти данные могут быть обработаны для создания дипфейк-видео при помощи так называемой генеративно-состязательной сети (Generative Adversarial Network, или GAN). Это еще одна специализированная система машинного обучения. В ней задействовано две нейросети, которые состязаются друг с другом, изучая характеристики учебных наборов данных (например, фотографий лиц) и создавая новые данные на базе этих характеристик (то есть новые «фотографии»).
Поскольку такая сеть постоянно сверяет создаваемые образцы с исходным учебным набором, поддельные изображения выглядят все более и более правдоподобно. Именно поэтому угроза, которую представляют дипфейки, постоянно растет. Кроме того, сети GAN могут создавать и другие поддельные данные помимо фотографий и видео. Например, дипфейк-технологии могут использоваться для имитации голоса.
Примеры дипфейков
Качественные дипфейки с участием знаменитостей найти несложно. Один из примеров – фейковое видео, выложенное актером Джорданом Пилом. Он записал небольшую речь голосом Барака Обамы, которая затем была совмещена с видеосъемкой реального выступления этого политика. Затем Пил продемонстрировал, как выглядят обе составляющие этого видео, и призвал своих зрителей критически относиться ко всему, что они видят.
Видео с руководителем Facebook Марком Цукербергом, в котором тот якобы говорит о том, как Facebook «управляет будущим» с помощью украденных данных пользователей, появилось в Instagram. На оригинальном видео запечатлена его речь в связи со скандалом о «русском следе» в выборах президента США – для создания фейка оказалось достаточно фрагмента длиной всего в 21 секунду. Однако голос Цукерберга был сымитирован не так хорошо, как в пародии Джордана Пила на Обаму, и фальшивку было легко распознать.
Впрочем, даже менее качественные подделки могут вызвать живой отклик. Видео с «пьяной» Нэнси Пелоси, спикером Палаты представителей США, набрало миллионы просмотров на YouTube – а это был всего лишь фейк, сделанный с помощью замедления реального видео, чтобы создать видимость невнятной речи. Кроме того, немало известных женщин внезапно обнаружили себя в роли порнозвезд – их лица были вмонтированы в порнографические ролики и изображения.
Мошенничество и шантаж с использованием дипфейков
Дипфейк-видео неоднократно использовались в политических целях, а также как способ мести. Однако сейчас к этим технологиям все чаще стали прибегать для шантажа и проворачивания крупных афер.
У генерального директора британской энергетической компании мошенники смогли выманить 220 000 евро с помощью дипфейковой имитации голоса руководителя головной компании, якобы запросившего срочно перевести указанную сумму. Подмена была настолько натуралистичной, что обманутый директор не стал перепроверять информацию, хотя средства переводились не в головной офис, а на сторонний счет. Только когда «босс» запросил еще один трансфер, его собеседник заподозрил неладное, но переведенные деньги уже бесследно исчезли.
Авторы дипфейков могут шантажировать руководителей крупных компаний, угрожая опубликовать фейковое видео, способное подорвать их репутацию, если те не заплатят отступные. Также мошенники могут, например, проникнуть в вашу сеть, сымитировав звонок от IT-директора и обманом заставив сотрудников предоставить пароли и привилегии доступа, после чего ваши конфиденциальные данные окажутся в полном распоряжении хакеров.
Фейковые порноролики уже использовались с целью шантажа женщин-репортеров и журналисток, как, например, произошло в Индии с Раной Айюб, которая занималась разоблачением злоупотреблений властью. Технологии производства дипфейков дешевеют, так что можно прогнозировать рост их использования в целях шантажа и мошенничества.
h3>Как защититься от дипфейков?Проблему дипфейков уже пытаются начать решать на законодательном уровне. Так, в штате Калифорния в прошлом году было принято два закона, ограничивающих использование дипфейков: законопроект AB-602 запретил использование технологий синтеза изображений человека для изготовления порнографического контента без согласия изображаемых, а AB-730 – подделку изображений кандидатов на государственные посты в течение 60 дней перед выборами.
Но окажутся ли эти меры достаточными? К счастью, компании в сфере безопасности постоянно разрабатывают все более совершенные алгоритмы распознавания. Они анализируют видеоизображения и замечают незначительные искажения, возникающие в процессе создания фальшивки. Например, современные генераторы дипфейков моделируют двумерное лицо, а затем искажают его для встраивания в трехмерную перспективу видеоролика. По тому, куда направлен нос, легко распознать подделку.
Пока что технологии создания дипфейков еще недостаточно совершенны, и признаки подделки зачастую видны невооруженным глазом. Обращайте внимание на следующие характерные признаки:
- неровное движение;
- перемены освещения в соседних кадрах;
- различия в оттенках кожи;
- человек на видео моргает как-то странно или не моргает вообще;
- плохая синхронизация движения губ с речью;
- цифровые артефакты в изображении.
Однако по мере совершенствования технологий ваши глаза все реже будут распознавать обман – а вот хорошее защитное решение обмануть будет куда сложнее.
Уникальные антифейковые технологии
Некоторые развивающиеся технологии уже помогают создателям видеоконтента защищать его аутентичность. С помощью специального шифровального алгоритма в видеопоток с определенными интервалами встраиваются хеши; если видео будет изменено, хеши также изменятся. Создавать цифровые сигнатуры для видео также можно, используя ИИ и блокчейн. Это похоже на защиту документов водяными знаками; в случае с видео, правда, трудности заключаются в том, что хеши должны оставаться неизменными при сжатии видеопотока различными кодеками.
Еще один способ борьбы с дипфейками – использовать программу, вставляющую в видеоконтент специальные цифровые артефакты, маскирующие группы пикселей, по которым ориентируются программы для распознавания лиц. Этот прием замедляет работу дипфейк-алгоритмов, и в результате качество подделки будет более низким, что, в свою очередь, снизит вероятность успешного использования дипфейка.
Лучшая защита – соблюдение правил безопасности
Технологии – не единственный способ защититься от дипфейк-видео. В борьбе с ними весьма эффективны даже базовые правила безопасности.
Так, например, встраивание автоматических проверок во все процессы, связанные с перечислением денежных средств, позволило бы предотвратить множество мошеннических действий, в том числе и с использованием дипфейков. Также вы можете:
- Проинформировать своих сотрудников и членов семьи о том, как устроены дипфейки и с какими потенциальными рисками это связано.
- Узнать, как распознать дипфейк, и рассказать об этом остальным.
- Повысить свою медиаграмотность и пользоваться достоверными источниками информации.
- Соблюдать основы безопасности и следовать правилу «доверяй, но проверяй». Критический подход к голосовой почте и видеозвонкам еще не гарантирует, что вас нипочем не обманут, но поможет избежать многих ловушек.
Помните, что, если хакеры начнут активно использовать дипфейки для проникновения в домашние и корпоративные сети, соблюдение базовых правил кибербезопасности станет важнейшим фактором в минимизации рисков:
- Регулярное резервное копирование защитит ваши данные от программ-шифровальщиков и поможет восстановить поврежденные файлы.
- Используйте разные надежные пароли для разных учетных записей – если какая-то одна сеть или служба окажется взломана, это поможет избежать компрометации всех остальных. Например, если кто-то сумеет похитить вашу учетную запись Facebook, в этом случае он, по крайней мере, не получит автоматически доступ и ко всем остальным вашим аккаунтам.
- Чтобы защитить от киберугроз свою домашнюю сеть, ноутбук и смартфон, используйте надежное защитное решение, такое как Kaspersky Total Security. В него входит антивирус, VPN-сервис, предотвращающий компрометацию ваших подключений по Wi-Fi, а также защита веб-камер.
Как будут развиваться дипфейки?
Дипфейки эволюционируют угрожающими темпами. Еще два года назад подделки легко было отличить по низкому качеству передачи движения; кроме того, люди в таких видео практически никогда не моргали. Однако технологии не стоят на месте, и дипфейки последнего поколения выполнены заметно более качественно.
По приблизительным оценкам, сейчас по Сети гуляет более 15 000 дипфейк-видео. Некоторые из них шуточные, но есть и такие, которые создавались для манипуляций общественным сознанием. Сейчас изготовление нового дипфейка занимает от силы пару дней, так что вскоре их может стать намного больше.
Полезные ссылки
Масштабный взлом аккаунтов знаменитостей, и как это может затронуть вас
Взлом веб-камер:может ли ваша веб-камера шпионить за вами?
Как рост популярности дипфейков может повлиять на будущее кибербезопасности?
Дипфейки: что это за технология и почему она опасна
Фото: Kayla Velasquez / Unsplash
Технологией создания дипфейков раньше владели лишь эксперты по искусственному интеллекту и спецэффектам. Новейшие программы и распространение машинного обучения упростили процесс создания фальшивых, потому опасных видео
Слово deepfake появилось несколько лет назад. Оно объединяет в себе два понятия: глубокое обучение (deep learning), то есть обучение нейросетей, и подделку (fake). Технология дипфейков заключается в синтезе ИИ человеческих изображений: алгоритм объединяет несколько фото, на которых человек изображен с разным выражением лица, и делает из них видео. При этом ИИ анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Об этом пишет американское издание Forbes.
С распространением дипфейков появились случаи «дискредитации» публичных личностей, чьих изображений много в открытом доступе. Например, весной 2019 года в Сети было опубликовано дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси. Автор ролика с помощью ИИ изменил речь Пелоси так, что она плохо выговаривала слова, и пользователи, посмотревшие видео, посчитали, что политик пьяна. Ситуация вылилась в громкий скандал, и лишь спустя некоторое время было доказано, что речь Пелоси была сгенерирована ИИ.
Правозащитник Сэм Грегори рассказывает изданию Wired о том, что собой представляют дипфейки
Этот дипфейк был сделан достаточно просто. Но есть и сложные алгоритмы. Они не просто меняют тембр голоса или замедляют речь, а генерируют такие видео, на которых человек делает то, чего никогда не совершал, или говорит то, чего никогда не говорил. Со временем дипфейки будут становиться все более реалистичными, пишет американское издание Forbes. Уже сейчас технология претендует на то, чтобы влиять на политику, а в дальнейшем такие видео и вовсе смогут стать угрозой национальной безопасности.
Использование записи с камер видеонаблюдения в суде
Еще до недавних пор судьи сами решали, нужно ли прикреплять к делу доказательства, которые были получены путем видеосъемки. Споров среди юристов на этой почве возникало все больше, пока жирную точку не поставил президент. Он подписал закон, согласно положениям которого видеозапись, звукозапись и фотосъемка признаются документами, рассматриваемыми в суде. При этом они должны быть получены законным путем и являться подлинными.
Основания для принятия видеозаписи как доказательства в суде
Для суда не имеет значения, на каком носителе был представлен документ (бумажный, цифровой). Чтобы суд принял видеозапись в качестве доказательства, она должна соответствовать следующим требованиям:
- Быть подлинной. Документ обязательно будет подвергнут тщательной проверке экспертами для установления его подлинности.
- Быть полученной законным путем. Это одно из главных требований законодательства. Доказательство должно быть получено без правонарушений. Безоговорочно судом принимаются к рассмотрению те видеозаписи, которые были сделаны в рамках профессиональной деятельности. Если речь идет о стационарных камерах, установленных на частной территории по решению местного руководства, то видеозапись может быть принята как доказательство, но ей придется пройти строгую экспертизу на подлинность.
- Относиться к делу, то есть действительно доказывать какой-то факт, который имеет непосредственное отношение к рассматриваемому прецеденту.
Самое сложное в этом вопросе – пройти экспертизу на подлинность.
Как устанавливается подлинность видео
Если эксперты обнаружат следы «грубой» фальсификации, то материал не будет изучаться дальше, а в заключении специалисты укажут, что запись – подделка. Если явных следов намеренного изменения записи при первичной проверке обнаружено не будет, тогда эксперты приступят к более глубокому анализу.
Первым делом специалисты, проверяющие подлинность записи, обращают внимание на так называемое время легализации. Это период между датой, когда материалы были предоставлены суду, и датой, когда совершалась видеосъемка. Во время проверки эксперты с использованием специального оборудования и особых методик пытаются создать такую же запись, то есть определяют возможность ее подделки.
В результате этих опытов на практике определяют примерное время, которое потребовалось бы на изготовление подделки, и список оборудования, необходимого для этих действий. Эксперты берут за основу срок, который потребовался бы злоумышленникам для того, чтобы подделать видеозапись, и сравнивают его с периодом легализации. Если времени на изготовление подделки было достаточно и сделать ее вообще возможно, то, увы, в заключении подлинность подтверждена не будет.
Выражаясь простыми словами: старую запись годичной давности подделать легко, поэтому экспертиза не сочтет ее подлинной из-за периода легализации. Если материал необходимо сохранить во что бы то ни стало, юристы рекомендуют положить запись в банковскую ячейку вместе с другими доказательствами и открыть ее только по решению суда. Этот вариант с высокой вероятностью позволит сберечь материал, если реальная необходимость в нем возникнет слишком поздно. Во время экспертизы будут проверены три аспекта:
- Первое, на что обращает внимание эксперт во время проверки – это привязка ко времени. Каждый фрагмент на видеозаписи должен быть неразрывно связан с определенным моментом.
- Второй нюанс – привязка к месту. Чтобы использовать запись в суде, ее копируют на какой-то носитель с камеры. Устройство для видеозаписи после этих манипуляций лучше лишний раз не трогать и не передвигать (не менять высоту расположения, угол наклона, зону обзора). Во время экспертизы может возникнуть необходимость изъятия видеоустройства, поэтому оно должно размещаться на том же месте, как и в момент проведения съемки, которая теперь используется в суде. Задача экспертов в данном случае – доказать или опровергнуть факт того, что действия проводились лицами, которые в тот момент могли находиться только в этом конкретном месте, а не где-нибудь еще.
- Длительность записи. Здесь все очень просто: чем длиннее видео, тем сложнее его подделать. Короткие по времени материалы чаще клеймят заключением «Подлинность установить невозможно».
Чтобы увеличить вероятность признания видеозаписи подлинной, можно заранее во время первой установки разместить камеры на территории таким образом, чтобы зоны обзора нескольких из них пересекались. Если устройств много, то их можно «связать» попарно. В случае установления подлинности видеозаписи, привязка к месту не будет вызывать вопросов при анализе нескольких записей сразу.
Как сделать запись допустимым доказательством
Чтобы объективизировать видеозапись, нужно как можно быстрее зафиксировать факт ее существования и свести к минимуму собственное воздействие на материал:
- Если вы попали в ДТП и на место происшествия приехали сотрудники ДПС, то передайте материал им, но при этом обязательно проследите за тем, чтобы факт передачи был зафиксирован в протоколе. Желательно на всякий случай иметь при себе копию.
- Способ, о котором уже упоминалось ранее: положите запись в банковскую ячейку и не открывайте ее до тех пор, пока суд сам не затребует этого. В банке фиксируются все ваши посещения, поэтому доказать, что вы не прикасались к материалу, будет легко.
- Продемонстрируйте запись несколькими людям, которые не заинтересованы в исходе дела. Они впоследствии могут выступить в роли свидетелей.
- Опубликуйте видео в социальных сетях, блогах или на форумах. На любом сервисе фиксируется время публикации, что впоследствии можно использовать в суде.
Если представитель правоохранительных органов отказывается принимать видеозапись или фиксировать факт передачи в протоколе, обязательно попросите его повторить свой отказ на диктофон, запишите его данные, пригласите свидетелей и покажите видеозапись им. Чтобы использовать видеозапись в качестве допустимого доказательства, желательно привлечь к ее просмотру как можно больше посторонних людей.
Рекомендации: каких ошибок нужно избегать
- Еще при составлении протокола владелец камеры должен указать подробную информацию о типе устройства, способе и месте его установки, характеристиках и сертификационных данных. Если не хватает места, требуйте дополнительные листы, так как эта информация поможет доказать подлинность материала в будущем.
- Не держите у себя видеозапись. Вам необходимо передать материал в руки специалиста в максимально короткие сроки. Если по каким-то причинам это сделать не получается, то у вас только один выход – банковская ячейка.
- Не переписывайте цифровую запись на кассету – это может вызвать подозрения относительно ее подлинности.
Делаем выводы
Всего несколько десятков лет назад случаи использования видеозаписей в суде были единичными. Сейчас же сложно найти человека, который не использовал бы то или иное записывающее устройство, а машина без видеорегистратора и вовсе редкость. Если провести анализ судебной практики, то любителей снимать видео ждет приятная новость: видеоматериалы можно причислить к довольно эффективным формам самозащиты. Для этого их нужно правильно закрепить и своевременно передать в руки специалиста.
Мошенничество на выборах в США? Проверяем факты в речи Трампа
Автор фото, Getty Images
В своей 17-минутной речи утром в пятницу президент Дональд Трамп говорил о массовом мошенничестве при подсчете голосов, не представив при этом доказательств. Его главная претензия — к голосованию по почте.
Би-би-си собрала некоторые из его утверждений и проверила, есть ли у президента объективные основания так считать.
Дональд Трамп: «Я давно высказываюсь насчет голосования по почте. Оно реально разрушило нашу систему. Это коррумпированная система, и она развращает людей. Даже не являясь такими от природы, они становятся коррумпированными».
Начиная с апреля, Дональд Трамп сделал в «Твиттере» свыше 70 записей, в которых выражал сомнение честности голосования по почте, говорил в связи с ним о подтасовках и обмане избирателей. Однако доказательств этому нет.
Мошенничество на выборах — вообще весьма редкое явление в США. Согласно исследованию, проведенному в 2017 году Центром юстиции Бреннана, его уровень на прошлых выборах составил 0.0009%. Нет свидетельств тому, что на нынешних выборах дело обстоит иначе.
В прошлом президенту самому случалось голосовать по почте. Он жил за пределами Флориды, штата, в котором был зарегистрирован как избиратель, и попросил разрешения проголосовать по почте.
Ему был выслан так называемый бюллетень для отсутствующего, который, как уверен Трамп, лучше защищен от подделок.
Президент видит разницу между почтовым голосованием по инициативе гражданина и ситуацией, когда власти штата автоматически рассылают бюллетени для почтового голосования всем зарегистрированным избирателям. Однако в прошлом так уже делали в штатах Орегон и Юта, и все прошло успешно.
Трамп: «Они без всякой проверки разослали десятки миллионов бюллетеней, которые никто не запрашивал».
В девяти штатах и округе Колумбия почтовые бюллетени были разосланы автоматически всем избирателям. В пяти штатах это объяснили пандемией коронавируса.
В восьми из них — Колорадо, Гавайях, Орегоне, Юте, Вашингтоне, Калифорнии, Нью-Джерси и Вермонте — итоги голосования уже подведены и сомнению не подвергаются.
Все формы голосования по почте имеют защиту в виде подписей и специальных конвертов. Власти могут установить, действительно ли бюллетень поступил с адреса, по которому зарегистрирован избиратель.
В принципе, голосование по почте — это не новость для США.
Трамп: «Как так выходит, что все эти почтовые бюллетени — за одного кандидата?»
Президент неоднократно критиковал продление подсчета голосов далее дня, следующего за выборами, утверждая, что оно создает почву для «грандиозного надувательства». Но прямых доказательств, опять же, не представлял.
Он призывал сторонников Республиканской партии проголосовать лично, а не по почте.
По всем признакам, так и случилось: республиканцы в большинстве проголосовали на участках, а демократы по почте.
Подсчет голосов в Пенсильвании еще не завершен, но, по имеющимся данным, из примерно 2,5 млн голосов, поданных по почте в этом штате, три четверти отданы Джо Байдену.
Трамп: «В Джорджии где-то далеко прорвало трубу, в месте, не имевшем никакого отношения к подсчету голосов, а они приостановили подсчет на четыре часа».
Это не так. Авария в комплексе «Стэйт Фарм-арена» в Атланте затронула помещение, в котором заносились в таблицы данные почтовых бюллетеней.
Трамп: «Осталось всего несколько штатов, где еще не решена судьба президентской гонки, и во всех из них избирательный аппарат контролируется демократами».
В данном случае ключевое слово «во всех».
В Джорджии губернатор и большинство членов Законодательного собрания штата — республиканцы.
Республиканцем является также непосредственно отвечающий за организацию выборов госсекретарь штата Брэд Раффенспергер, которого президент в 2018 году хвалил в «Твиттере».
В Неваде аналогичный пост также занимает республиканец.
Трамп: «Они отказываются пускать законных наблюдателей».
Президент говорил об общественных наблюдателях, которые присутствуют при подсчете голосов, дабы обеспечить прозрачность процесса.
Конкретные правила варьируются от штата к штату, но в большинстве случаев они должны подать заявку заблаговременно и объявить, какую партию или кандидата представляют.
Президент Трамп поднял вопрос о недостаточном доступе республиканских наблюдателей на участки в городах, управляемых мэрами-демократами, таких как Филадельфия и Детройт.
В принципе, наблюдатели в обоих городах были. Их количество на каждом участке зависит от количество избирателей, и лимит устанавливается заранее. В некоторых местах его ограничили в связи с пандемией коронавируса.
В Детройте при подсчете голосов присутствовало более 10 наблюдателей от обоих кандидатов. Представитель городской администрации Джанис Уинфри говорит, что ей неизвестны случаи, когда кого-то из республиканцев не пустили бы.
В интернете распространено вирусное видео, на котором сертифицированного наблюдателя не пускают на один из участков в Филадельфии, однако выяснилось, что это было недоразумение, и позднее его все-таки пустили.
«Каждый кандидат и каждая политическая партия имеют право направить своих представителей в помещение для подсчета голосов, чтобы следить за процессом. В ряде округов, включая город Филадельфию, за ним также можно наблюдать на удалении в онлайн-режиме», — заявила госсекретарь Пенсильвании Кэти Буквар.
Трамп: «Если они считают незаконные голоса, те, которые пришли поздно (и таких много), то это значит, что они попытаются украсть у нас эти выборы«.
Президент называет незаконными бюллетени, которые пришли по почте после официального дня голосования. Но по закону примерно половины штатов, такие голоса могут быть посчитаны, если штамп на конверте указывает, что бюллетень был послан 3 ноября или раньше.
Этот закон действует и на территории ключевых штатов, в которых развернулась главная битва за Белый дом — Пенсильвании, Неваде и Северной Каролине. Конечно, период, в течение которого запоздавший бюллетень можно включить в подсчет, ограничен, и в каждом штате этот срок свой.
В Джорджии и Аризоне, от которых также во многом зависит исход выборов, нельзя считать бюллетени, пришедшие после 3 ноября.
В своей речи Дональд Трамп также сказал, что в Пенсильвании штемпели на конвертах даже не проверяли должным образом.
Однако Верховный суд штата постановил, что конверты без марок или с плохо читаемыми штампами все равно должны учитываться, если никто не доказал, что они были отправлены после дня выборов.
Как распознать поддельное видео
Вы когда-нибудь чувствовали, что не можете доверять всему видео в своей ленте новостей? В наши дни видео часто искажают или манипулируют, и у нас мало инструментов, позволяющих определить, что реально, а что фальшиво. Специалисты Washington Post по проверке фактов составили руководство, которое научит вас, как самому стать исследователем видео.
Типы обработанного видео и советы по их обнаружениюДля начала узнайте о различных способах обработки видео.
Отсутствующий контекст
Определение: в сообщении отсутствует или искажен контекст, в котором произошли события. Или содержание неизмененного видео может быть ложным или вводящим в заблуждение.
Совет. Посмотрите, не публикуется ли видео несколькими проверенными новостными агентствами. Сравните описание того, что происходит на экране, с надежными источниками.
Обманное редактирование
Определение: видео было отредактировано и переупорядочено.
Совет: следите за большими промежутками во времени, необъяснимыми переходами или резким монтажом в видео.
Вредоносное преобразование
Определение: часть или все видео были изменены для преобразования самого материала.
Совет. Ищите заметные признаки, такие как размытость на переднем или заднем плане, пикселизация, изменение цвета или более медленные или более быстрые движения, которые не соответствуют нормальному поведению человека. Слушайте отредактированный звук, включая обрезанную речь, звук, который искажен или модулирован, и речь, которая звучит медленнее или быстрее.
Как найти исходное видеоВидео часто распространяются и становятся вирусными в социальных сетях без надлежащего указания источника или лица, снявшего отснятый материал.Пользователи будут манипулировать видео и репостить свою собственную версию отснятого материала, чтобы продвигать определенный рассказ. Первый шаг процесса проверки: поиск оригинального видео.
Это важный шаг, поскольку он позволяет дополнительно анализировать содержание и источник видео. Если вы смотрите исходное видео, вы можете определить, было ли ваше видео вырвано из контекста, отредактировано или преобразовано. Вы также можете перейти к следующим шагам, например, подтвердить, где и когда было снято видео.
Совет 1. Найдите источник
Сделайте четкий и узнаваемый снимок экрана с видео с помощью инструментов обратного поиска изображений, таких как Google и Bing, чтобы найти другие экземпляры видео, размещенного в Интернете. Также ищите логотипы, ссылки или метки на видеозаписи, чтобы найти первоисточник.
Совет 2. Изучите источник
Просмотрите последние сообщения в аккаунте предполагаемого автора, чтобы определить, были ли они на данном мероприятии.
Совет 3. Проведите исследование.
Поищите в новостных отчетах и на платформах социальных сетей, чтобы найти дополнительную информацию о мероприятии, а также поищите другие видео того же момента.
Кто разместил видео?
Этот шаг требует некоторого здорового скептицизма по отношению к пользователям, которые загружают и публикуют материалы в Интернете. Это важный шаг в процессе получения дополнительных знаний для проверки материала. Вам нужно будет найти подсказки об их влиянии на социальные сети, чтобы определить, можете ли вы им доверять. Этот процесс проверки также включает просмотр других их сообщений, чтобы определить, часто ли они делятся манипулируемым контентом.
Совет 1. Поиск InVid
Если видео было опубликовано в Twitter, Facebook или YouTube, вы можете перетащить ссылку в InVid, чтобы узнать, есть ли что-нибудь подозрительное в учетной записи пользователя, загрузившего видео.Например, это может быть красный флаг, если они только что открыли счет. Или хороший знак, если у них есть подтвержденная в Твиттере учетная запись.
Совет 2. Другие сообщения
Просмотрите другие сообщения пользователя. Часто ли они делятся видео, изображениями или историями с сильной политической подоплекой? Это подсказка, что их видео могут продвигать определенный сюжет.
Совет 3. Социальный след
Просмотрите другие профили пользователей в социальных сетях, а также любые связанные веб-сайты или филиалы.Будьте осторожны, если у них есть история публикации другого манипулируемого контента.
Где снималось видео?Люди часто искажают видео во время важных событий новостей, публикуя неверную информацию о том, где и когда было снято видео. Вы всегда будете хотеть проверять местоположение видео — задача, известная как геолокация.
Этот шаг важен, поскольку ложная информация о местоположении видео может изменить историю. Мы полагаемся на визуальные эффекты, чтобы рассказать нам о стихийных бедствиях и протестах, и это лишь несколько примеров.Неправильное определение места для видеозаписи этих событий неверно истолковывает реальность ситуации для тех, кто смотрит издалека. Проверка того, где снято видео, обеспечивает правильный набор фактов, иллюстрирующих историю.
Совет 1. Ориентиры
Ищите идентифицируемые ориентиры, такие как уличные знаки, уникальные или известные здания или объекты окружающей среды, такие как горы или деревья. Эти отличительные особенности могут помочь вам быстро определить местоположение.
Совет 2. Набросок
Нарисуйте карту видео, чтобы знать, что вы ищете с точки зрения форм зданий, горизонтов, дорог и ландшафта.
Совет 3. Карты Google
Когда у вас появятся подсказки, на которых можно основывать свой поиск, поищите их в Google Планета Земля или Просмотр улиц Карт Google. Свяжите свой эскиз с картой, чтобы найти подходящее совпадение.
Совет 4. Подтвердите
После того, как вы найдете наиболее подходящее для вашего видео совпадение, поищите другие идентифицируемые ориентиры, в идеале как минимум три, которые отображаются на видео и на карте.
Когда было снято видео?Точно так же, как пользователи искажают местоположение видео, они используют неверный контекст для определения времени видео.Например, в случае повторяющихся экстремальных погодных явлений, таких как ураган или пожары, люди будут публиковать визуальные эффекты прошлых лет, которые могут неправильно отображать реальность текущей ситуации. После определения местоположения видео вы захотите проверить время, когда оно было снято, чтобы убедиться, что оно правильно представлено.
Неправильное определение времени видео может повлиять на повествование, если это годы, дни или даже минуты. В наших репортажах мы стараемся с точностью до секунды подтверждать, когда было снято видео, чтобы убедиться, что мы воссоздаем событие как можно точнее.Подтверждение того, что видео было снято, гарантирует, что зрители понимают точную иллюстрацию того, что происходит на земле.
Совет 1: Подарки
Обязательно ищите очевидные указания времени, зафиксированные в видео, такие как часы, отметки времени или экраны телефонов. Также следите за более тонкими подсказками об общем времени суток. Например, если горят уличные фонари, скорее всего, раннее утро или вечер.
Совет 2: Освещение
Если видео было снято на улице, проанализируйте освещение и тени, чтобы увидеть, где находится солнце на видео, чтобы попытаться определить время дня.
Совет 3: Погода
Просмотрите одежду, которую носят люди, на видео и сравните ее с прогнозом погоды за этот день.
Совет 4: Другие источники
Сравните видео с другими проверенными источниками этого события, чтобы подтвердить время.
[Визуальные криминалистические исследования от Washington Post]
[Видео наблюдения показывает, что подозреваемый в Атланте вошел в первый спа-салон более чем за час до стрельбы]
Том Брэди только что поделился диким видео в Твиттере, и люди не могут решить если это настоящий или фальшивый
Том Брэди может быть лучше в Twitter, чем в футболе.
Квотербек Buccaneers был активным пользователем Twitter все межсезонье, и тренировочный лагерь прямо за углом, Брэди решил отпраздновать это событие, выпустив видео, которое, казалось, демонстрирует его безумную точность. Видео было настолько сумасшедшим, что люди сразу начали задаваться вопросом, настоящее оно или фальшивое.
23-секундное видео показывает, как Брэди бросает футбольный мяч в машину Jugs, причем каждый бросок настолько точен, что машина Jugs может выплевывать броски прямо на Брэди… и я понятия не имею, почему я пытаюсь вам это объяснить, когда я могу просто показать вам видео.
Менее чем за 24 часа видео собрало почти 10 миллионов просмотров в Твиттере, что является безумным числом. Для сравнения: последнее видео, которым поделился Брэди, набрало всего 370000 просмотров.
После того, как Брэди поделился видео о «Кувшинах», никто в Твиттере не был уверен, настоящее оно или фальшивое.
Ну, ди-джей, я могу вам ответить: видео — подделка.
Ненавижу быть вечеринкой, но оказалось, что Брэди использовал для видео режиссера, компьютерную компанию и продюсера.Брэди намекнул на это в Instagram, где он также поделился видео. В своей подписи в Instagram Брэди поблагодарил Ари Фараруя за создание видео. Фарарой также поделился видео в своем Instagram и обязательно отметил, что видео было продюсером компании Shadow Lion, а компьютерная графика была сделана компанией Warm & Fuzzy.
Warm & Fuzzy только что обманул половину интернета с помощью своей компьютерной графики в видео, так что я предполагаю, что после этого его могут нанять еще на несколько концертов.
Кстати, тот факт, что люди не были уверены, было ли это на самом деле, говорит о том, насколько хорош Брэди на самом деле.Этот человек выиграл семь Суперкубков и будет играть в НФЛ в 44 года, поэтому неудивительно, что люди подумали, что он с большой точностью бросает футбольный мяч в автомат Jugs.
Говоря о машине Jugs, Брэди больше не придется ее использовать, потому что он должен был бросать на настоящих приемников, когда Buccaneers провели свою первую тренировку в тренировочном лагере в воскресенье.
14 примеров дипфейков, напугавших и развеселивших Интернет
Примеры Deepfake становятся все более убедительными.Подделанные видео изначально вызывали ощущение сверхъестественного и, казалось, использовались в основном для розыгрышей, но с тех пор мы видели дипфейки, которые широко используются в фильмах и даже в выпусках новостей (см. Пример 2 ниже).
Теперь вы можете найти на YouTube примеры дипфейков, которые лучше, чем кадры компьютерной графики, найденные в оригинальном фильме, из которого были взяты сцены (см. Повторно обновленную принцессу Лею, представленную в этом списке). Это вызвало опасения по поводу того, как можно злоупотреблять этой технологией для создания реалистичных подделанных видео, сделанных в негативных целях.
Однако лучшие примеры дипфейков также показывают, как технология глубокого обучения может преобразовать конвейеры для режиссеров и 3D-художников и серьезно сократить время редактирования. Дипфейки, иногда менее пугающие, называемые видео, созданными искусственным интеллектом или синтетическими носителями, становятся обычной частью процесса массового кинопроизводства (см. Некоторые из наших любимых 3D-фильмов), а также в других областях.
Здесь мы рассмотрим некоторые из самых известных на сегодняшний день примеров дипфейков, от недавних примеров до ранних предложений.Во-первых, мы кратко рассмотрим, что такое дипфейки на самом деле и как они создаются.
Что такое дипфейки?
Deepfake названы так потому, что они создают поддельное видео с использованием технологии глубокого обучения, ветви машинного обучения, которая применяет моделирование нейронной сети к массивным наборам данных. Искусственный интеллект эффективно изучает, как выглядит исходное лицо под разными углами, чтобы перенести лицо на цель, обычно на актера, как если бы это была маска. Огромные успехи были достигнуты благодаря применению генеративных состязательных сетей (GANS), чтобы противопоставить два алгоритма искусственного интеллекта друг другу, один из которых создает подделки, а другой оценивает свои усилия, обучая механизм синтеза лучше подделывать подделки.
Голливуд переносил настоящие или вымышленные лица на других актеров, например, возвращая к жизни Питера Кушинга в фильме «Изгой-один: Звездные войны» 2016 года, но в этой технике использовались сложные, дорогие конвейеры и установленные на лицах камеры.
Простые программные инструменты, такие как FakeApp и DeepFaceLab, с тех пор сделали сопоставимый эффект доступным для всех. Технология предлагает действительно интересные возможности для различных творческих секторов, от перезаписи, улучшения и ремонта видео до решения эффекта сверхъестественной долины в видеоиграх, избавления актеров от необходимости повторять взъерошенные строки и создания приложений, которые позволяют нам примерять одежду или прически. .Эта технология также используется для производства корпоративных обучающих видеороликов и даже для обучения врачей. Однако остается опасение, что эта технология может быть использована в гнусных целях. Ниже мы собрали примеры дипфейков, которые до сих пор больше всего пугали (и забавляли) людей.
Самые впечатляющие примеры дипфейка на сегодняшний день
01 Дипфейк Тома Круза в TikTok
@deeptomcruiseДержите руки в чистоте.
♬ оригинальный звук — Tom
Deepfakes зашли так далеко, что теперь есть аккаунт TikTok, полностью посвященный дипфейкам Тома Круза.В видео @ deeptomcruise все еще есть намек на жуткую долину, но его мастерство в голосе и манерах актера наряду с передовыми технологиями привело к некоторым из самых убедительных примеров дипфейков.
Видео демонстрируют круиз-гольф, демонстрируя фокусы или в банальных ситуациях, например, мыть руки. Описание аккаунта TikTok просто гласит: «Пародия. Также моложе».
02. Корейский читатель новостей Ким Джу-Ха
Многие примеры дипфейков остаются забавными пародиями или экспериментами, предназначенными для проверки пределов технологии, хотя технология сейчас используется для производства корпоративных обучающих видео и фильмов сцены.Однако, пожалуй, самым большим признаком того, что дипфейки могут стать обычным явлением в повседневных основных СМИ, стал конец прошлого года, когда корейский телеканал MBN представил дипфейк своего собственного ведущего новостей Ким Джу-Ха.
Канал заранее предупредил зрителей, что программа чтения новостей будет подделана, а Ким Джу-Ха по-прежнему работает. Тем не менее, MBN заявила, что планирует продолжать использовать дипфейк для некоторых последних новостей, а южнокорейская компания Moneybrain заявила, что ищет покупателей средств массовой информации в Китае и США, что заставляет некоторых опасаться, что дни читателей новостей могут быть пронумерованным.
03. Чудо-женщина
Ремейки и перезагрузки фильмов — огромная часть киноиндустрии, охватывающая все жанры. Современные актеры играют поистине знаковые роли, поэтому неизбежны сравнения между образами. Технология Deepfake продвигает эти сравнения на один шаг вперед, буквально вставляя одного актера вместо другого в сцене или эпизоде, выделяя различия и сходства, которые интересно наблюдать.
В этом примере, взятом из DeepFaker, перезагруженная актриса Линда Картер попадает в телевизионный мир 70-х годов «Чудо-женщины» Гал Гадот — с невероятными результатами.
04. Круглый стол Deepfake
Благодаря стриминговым сервисам, борющимся за ваше внимание и против кино, Collider собрал этот забавный дипфейк с участием нескольких супер-известных лиц. Том Круз, Роберт Дауни-младший, Джордж Лукас, Юэн МакГрегор и Джефф Голдблюм обсуждают потоковое вещание и будущее кино в удивительно убедительном и забавном видео. Как сказал один из комментаторов, это «страшно хорошо».
05. Принцесса Лея обновлена … снова
В «Звездных войнах: Изгой-1» принцесса Лея была обновлена, и критики и фанаты были едко отзывались о качестве компьютерной графики, в которой было видно лицо молодой Кэрри Фишер. наклеил на тело другой актрисы.Считавшаяся нереальной, с особым негативным вниманием к глазам и текстуре кожи, компьютерная графика не считалась подходящей репрезентацией и испортила концовку фильма для многих.
Один из первых создателей дипфейков, Derpfakes, разместил этот повтор на YouTube, и люди пришли в восторг. Улыбка, глаза, все на месте, с отличным отслеживанием лица. Поклонники «Звездных войн» заявили, что хотели бы, чтобы оригинальный фильм был создан с использованием этой технологии.
К счастью, команда «Звездных войн» извлекла уроки из ошибки и применила совершенно другой процесс для сцен с Фишером в «Восстании Скайуокера», используя сохраненные кадры Фишера из «Пробуждения силы».
06. Дональд Трамп присоединился к «Во все тяжкие»
В то время как некоторые дипфейки пытаются обмануть зрителя, «Лучше позвони Трампу: отмывание денег 101» — это прямая пародия. Он берет сцену из чрезвычайно популярного сериала «Во все тяжкие» и представляет Дональда Трампа в роли Джеймса Макгилла, который позже взял псевдоним Сол Гудман в спин-оффе сериала «Лучше звоните Солу».
В этой сцене Джеймс МакГилл объясняет сотруднику Уолтера Уайта Джесси Пинкману (Аарон Пол) основы отмывания денег. Чтобы добавить реалистичности сцене, глубоко подделанный зять Дональда Трампа Джаред Кушнер сменяет Джесси Пинкмана в этой сцене, делая пародию почти личной по душам.
Создатели YouTube, Ctrl Shift Face, автор пародии, использовали DeepFaceLab для создания лиц Трампа и Кушнера кадр за кадром. Голоса, которые завершают сцену, были предоставлены Stable Voices, специальной моделью искусственного интеллекта, которая обучается на реальных образцах речи.
07. Объявление Обамы для общественных служб
Многие из наиболее убедительных примеров дипфейков были созданы с использованием имитаторов, способных имитировать голос и жесты источника, как видно из этого предупреждения, выпущенного BuzzFeed, и комика Джордана Пила с использованием After Effects CC и FakeApp. Они наклеили рот Пила на рот Обамы, заменили линию подбородка бывшего президента той, которая повторяла движения рта Пила, а затем использовали FakeApp для уточнения отснятого материала с помощью более чем 50-часовой автоматической обработки.
Чаще всего жертвами дипфейков становятся политики и знаменитости. Менее чем за год до этого видео ученые Вашингтонского университета использовали искусственный интеллект нейронной сети, чтобы смоделировать форму рта Обамы и синхронизировать его губы с аудиовходом.
Значительные цифры используются, потому что их общедоступные профили предоставляют обширный исходный материал для ИИ, на котором можно учиться, но с учетом количества селфи, которые средний человек делает за всю жизнь, и технологических достижений, возможно, вскоре любой может быть использован в качестве источника.
08. Нэнси Пелоси замедлилась
На самом деле это не дипфейк, а пример того, почему их потенциальное злоупотребление стало настолько опасным в политике. Это действительно была Нэнси Пелоси, спикер Палаты представителей США, но видео было замедлено на 25 процентов, а высота звука была изменена, чтобы казалось, что она невнятно произносит слова.
Видео было размещено на странице в Facebook под названием «Сторожевой таймер политики» и широко распространено, в том числе бывшим мэром Нью-Йорка Руди Джулиани, который написал в Твиттере: «Что не так с Нэнси Пелоси? У нее странная манера речи.
Facebook сначала отказался удалить клип, но заявил, что сократил его распространение после того, как факт проверки был признан ложным. Позже запись была удалена, но неизвестно, кем. Этот случай демонстрирует, как люди опасаются злоупотребления технологиями, представленными Стэнфордским университетом в июне, которые позволяют редактировать аудио в видео так же легко, как текстовый документ.
09. Цукерберг говорит откровенно.
В ответ на отказ Facebook удалить видео Нэнси Пелоси, художник Билл Постерс разместил это в Instagram, принадлежащем Facebook, в июне, показывая, что Марк Цукерберг хвастается тем, как платформа «владеет» своими пользователями.Будет ли Facebook реагировать по-другому, когда его собственным основателем манипулируют?
Изначально фильм был частью пьесы Плаката и Дэниела Хоу «Призрак», которая была заказана для Sheffield Doc Fest, чтобы привлечь внимание к тому, как людьми можно манипулировать с помощью социальных сетей. Он был сделан с использованием программного обеспечения VDR (замена видеодиалога) израильского стартапа Canny AI, которое продвигается с помощью дип-фейкового пения с участием различных мировых лидеров.
Instagram не удалял видео Цукерберга, но заявил, что «будет относиться к этому контенту так же, как мы относимся ко всей дезинформации в Instagram.Если сторонние программы проверки фактов помечают его как ложное, мы его отфильтруем ». Плакаты отметили это с помощью хэштега #deepfake. Хотя видео достаточно убедительно при отключении звука, голос выдает его, показывая, что хороший актер все еще необходим для создания правдоподобных примеров дипфейков, но с синтезом голоса AI, уже обсуждаемым Lyrebird и Adobe VoCo, может пройти совсем немного времени до сносных голосов. легко добавляется в дипфейки.
10. Дональд Трамп читает лекции Бельгии
В первом известном случае, когда политическая партия использовала дипфейк, Бельгийская Социалистическая партия Андерса (sp.а) разместил это видео в Facebook еще в мае 2018 года, на котором Трамп насмехается над Бельгией за то, что она остается участницей Парижского соглашения по климату. С волосами Трампа, которые выглядят еще более странно, чем обычно, и грубым движением губ, это явно фальшивка, и закадровый голос говорит об этом, хотя последняя строчка «Мы все знаем, что изменение климата — фальшивка, как и это видео», — не t с субтитрами на фламандском языке, но этого было достаточно, чтобы спровоцировать одного пользователя на комментарий «Трампи должен взглянуть на свою страну с ее безумными детоубийцами», а для sp.необходимо уточнить, что это была подделка.
Более убедительный Трамп (ниже) был создан позже YouTuber Derpfakes, который обучил DeepFaceLab отображать композицию лица Трампа над его олицетворением в субботу вечером в прямом эфире Алека Болдуина, показывая, насколько далеко технология продвинулась за год. Видео заблокировано в США и Канаде.
11. Ян Ми путешествует во времени
Пару лет назад в гонконгскую телевизионную драму 1983 года «Легенда о героях Кондора» было вставлено видео с лицом Ян Ми, одного из самых известных современных китайских актеров. стал вирусным, собрав 240 миллионов просмотров, прежде чем он был удален властями Китая.
Его создатель, фанат Ян Ми, принес извинения на сайте микроблогов Weibo и сказал, что сделал это видео как предупреждение, чтобы привлечь внимание к этой технологии. Хотя кажется вероятным, что сначала будет негативная реакция на дипфейки со стороны кино- и телеиндустрии, также можно увидеть, как индустрия может в конечном итоге принять эту технологию и превратить ее в прибыль, позволяя зрителям играть режиссером в домашних выпусках посредством манипулирования диалогами. , включающие альтернативные сцены или даже вставляющие самих себя в качестве персонажей.Ожидайте также увидеть видеоигры, полные появления знаменитостей.
12. Сальвадор Дали возвращается к жизни
Агентство GS&P осуществило захватывающий заголовок трюк, который любящий рекламу Дали оценил бы сам, когда они возродили каталонского художника в качестве харизматичного хозяина Дали. Музей во Флориде. Рекламируемая как «искусство встречает искусственный интеллект», Dalí Lives была создана путем извлечения более 6000 кадров из старых видеоинтервью и их обработки с помощью 1000 часов машинного обучения, чтобы можно было наложить исходный текст на лицо актера.Текст был составлен из цитат из интервью и писем с новыми комментариями, призванными помочь посетителям сделать акцент на художнике и связать его с его работой.
Новинка здесь в том, что этот пример дипфейка является интерактивным. Всего 45 минут отснятого материала, разделенного на 125 видеороликов, позволяют использовать более 190 000 возможных комбинаций в зависимости от ответов посетителей и даже включают комментарии о погоде. Он заканчивается тем, что Дали оборачивается и делает селфи со своей аудиторией. Дали утверждал, что вряд ли он когда-либо умрет, и, возможно, он был прав, потому что недавно он был во второй раз оживлен лабораторией искусственного интеллекта Samsung в Москве, на этот раз путем обучения искусственного интеллекта характерным чертам лица на основе всего нескольких изображений, а не обычные тысячи.
13. Президент Габона показывает наводящие вопросы
Это или нет? По крайней мере, на данный момент большинство дипфейков в сети явно помечены как таковые и не предназначены для того, чтобы кого-то обмануть, обычно их играют для смеха, например, помещают Николаса Кейджа во все, что когда-либо создавалось, или из грязных фантазий — это было через фальшивую знаменитость порно о том, что технология впервые прижилась. Но хотя не было подтвержденных случаев, когда кто-либо пытался выдать его за реальный, один случай был поставлен под сомнение.
Никто не знает, что делать с этим видео с президентом Габона Али Бонго, который какое-то время отсутствовал на публике, что привело к предположениям о его здоровье. Это новогоднее видеообращение должно было развеять сомнения, но имело неприятные последствия из-за заявлений оппозиции о том, что на самом деле это была дип-фейк, обвинения, которые, возможно, сыграли роль в спровоцировании попытки военного переворота.
Этот инцидент показывает, что тот простой факт, что сейчас существуют дипфейки, означает, что любое видео, которое выглядит немного странно, может быть поставлено под сомнение, чтобы посеять сомнения.Это опасение, которое воспринимается достаточно серьезно, что Управление перспективных исследовательских проектов в области обороны Пентагона инвестирует в исследования способов обнаружения подделок, в то время как Китай и США обсуждают новое законодательство.
14. Билл Хадер трансформируется в Пачино и Шварценеггера
Ctrl Shift Face — один из самых плодовитых создателей примеров дипфейков на YouTube. Он поместил Джима Керри в «Сияние» и Сильвестра Сталона в «Терминатора 2», но это одна из его самых жутких работ, в которой бывшая звезда «Субботнего вечера в прямом эфире» Билл Хейдер, кажется, плавно превращается в двух актеров, которых он олицетворяет во время этого интервью.Изменение настолько незаметно, что вы почти не замечаете, что оно произошло.
В настоящее время используемая программа DeepFaceLab может заменять только лицо цели ниже лба, но Стэнфордский университет разработал метод переноса всей трехмерной головы — люди Reddit отчаянно нуждаются в исходном коде — и Гейдельбергский университет представил метод, позволяющий нанести на цель все тело источника. На данный момент мерцание и искажение могут быть раздачей, но с постоянным совершенствованием технологий, как долго мы сможем отличать фальшивку от реальности?
Подробнее:
«дешевых фальшивых» видео, которые сейчас ходят по кругу, скорее всего, не будут последними
ФАКУЛЬТЕТ Q&A
Видео, опубликованное президентом Дональдом Трампом, которое было отредактировано так, чтобы казалось, будто кандидат в президенты Джо Байден одобряет его переизбрание во время митинга в субботу, было сочтено Твиттером подтасованным контентом — первым для компании социальных сетей.Но Facebook не сделал ничего, чтобы пометить видео как ложный контент.
Байден споткнулся о некоторых словах, и в видео не было его исправления. Видео — последняя дешевая подделка, вызвавшая споры за последние недели.
Профессор Школы информации Мичиганского университета Клиффорд Лампе объясняет дешевые подделки и трудности, связанные с получением платформ для их контроля.
Deepfake, дешевая подделка, тупая подделка — термины для дезинформации. Можем ли мы начать с их определения?
Лампе: В последнее время мы наверняка слышали много таких терминов.Так что дипфейк — это особый класс ложной информации. Здесь вы используете машинное обучение или искусственный интеллект, чтобы отобразить черты лица человека. И затем вы можете накладывать одно лицо на другое. Так что я мог бы, например, украсть твое лицо. В компьютере используются передовые вычислительные инструменты, позволяющие создавать очень реалистичный фальшивый контент, позволяющий сделать так, чтобы человек сказал то, чего он обычно не сказал бы. Это сильно отличается от дешевой подделки или тупой подделки, которые, по сути, являются двумя названиями одного и того же.Здесь вы просто используете обычные методы редактирования, чтобы сделать видео, которое вводит в заблуждение.
Какой пример дешевой подделки?
Лампе: Классический пример — это видео, появившееся несколько месяцев назад, на котором спикер Палаты представителей Нэнси Пелози выступает с речью. И создатели видео просто немного снизили частоту кадров. Она стояла на подиуме, и замедление видео нисколько не изменило ее движений, но при замедлении видео это звучало так, как будто она говорила невнятно.А это пример очень простого инструмента редактирования, который можно использовать, чтобы заставить его звучать так, как будто человек находится в состоянии, в котором его нет.
Другая дешевая подделка, которую мы недавно видели, также с участием спикера Пелоси, была во время Государственного Союза, разорвавшего ее копию речи. Во время выступления военный воссоединился со своей семьей, и видео было отредактировано так, чтобы выглядело так, будто Нэнси Пелоси прервала свою речь в тот момент, когда этот человек воссоединился со своей семьей. Таким образом, хотя эти события в реальном времени происходили с интервалом в час или более, казалось, что они происходили одновременно.
И в этом его дешевизна. Это очень простое редактирование. Фальшивая часть этого состоит в том, что вы создаете повествование, которое намеренно вводит в заблуждение.
Это еще одна очень распространенная, очень простая и дешевая подделка, когда вы просто удаляете отрывок видео из полного контекста видео, и это звучит так, будто человек сказал то, чего он не сказал. Другой пример: бывший вице-президент Джо Байден выступал с докладом о коррупции на Украине. Некоторые консервативные комментаторы взяли часть его видео, в которой, похоже, он признается в влиянии на кампании на Украине.Но если вы посмотрите на видео целиком, в нем гораздо более подробно и в более широком контексте объясняется, что происходит. Но короткий клип очень убедителен. Итак, это не дипфейк. Вице-президент Байден сказал эти вещи, но это отредактировано таким образом, чтобы создать ложное повествование.
Журналистам на протяжении десятилетий приходилось очень много работать, чтобы случайно не произвести дешевые подделки. Большая часть журналистской честности и профессиональной журналистской практики заключается в том, чтобы быть осторожными при создании видео, чтобы они не создавали вводящие в заблуждение рассказы.Но, конечно, мы находимся в новой медиа-среде, где есть гиперпартийные источники новостей, которые вкладываются в формирование повествования, которое не обязательно является нейтральной точкой зрения.
Когда дело доходит до дипфейков, у нас есть люди, которые работают над технологиями, чтобы помочь их обнаружить. Что происходит с отслеживанием дешевых подделок?
Лампе: Группы, которые наиболее эффективно осуществляют мониторинг, — это организации по проверке фактов. Итак, FactCheck.org, PolitiFact и Snopes, каждый из которых работает сверхурочно, пытаясь разобраться в том, что реально, а что нет в нынешней медиа-среде.Многие из них в конечном итоге становятся детективами-любителями, которые, если что-то выглядит слишком хорошо, чтобы быть правдой или похоже, что это не может быть правдой, они вернутся, найдут оригинал и сами проведут параллельные сравнения.
Но на данный момент, я думаю, мы слишком зависимы и слишком зависимы от сыщиков-любителей в медиа-среде, чтобы пытаться определить, что фальшивка, а что нет. Платформы, Facebook, Twitter и подобные группы в основном умыли руки от этого. Они не хотят играть сильную роль.Twitter, например, с видео о состоянии Союза Пелоси очень прямо заявил, что ни одна часть этой информации не является фальшивкой. Все это произошло — возможно, не в такой последовательности. Поэтому они отказались удалить это видео, потому что не сочли его фальшивым.
Некоторые из этих групп, например Snopes, предлагают решения, которые зависят от моего посещения их сайтов. Платформы их не сбивают. Так что это действительно довольно неэффективно, не так ли?
Лампе: Довольно много.Фактически, многие мои консервативные друзья, например, отказались от Snopes. Они считают, что проверка фактов на сайтах имеет либеральный уклон. Многие люди не стремятся к проверке фактов, потому что цель этих фальшивых новостей, а также дип-фальшивых изображений и видео — не информировать. Убедить и создать эмоциональное состояние.
Одна из наиболее важных составляющих дезинформации и дезинформации в более широком смысле заключается в том, что она не обязательно касается самой информации.
Подобные вещи не новы.Это исторически. Медиа-среда всегда была партизанской неразберихой. Нашими третьими президентскими выборами были Томас Джефферсон против Джона Адамса. На тот момент в каждом крупном городе США существовали десятки газет. И они были очень откровенно гипертрофированными — виги против демократов в то время. А в газетах будет прямая ложь или намек на разных кандидатов.
Существует множество фальшивых историй о Томасе Джефферсоне и его пребывании во Франции, о том, что он был слишком близок к французской аристократии и желал, чтобы французский король стал частью американской системы.Его оппонент Джон Адамс сказал, что Джефферсон продался британцам и что он был в союзе с дьяволом. Любая история, как вы можете себе представить, заставляет нашу нынешнюю среду казаться немного ручной. А в другой раз мы увидели, что этот уровень гиперпартийного разногласия в Соединенных Штатах был прямо перед гражданской войной. Те выборы, которые проводились прямо перед войной, также были изобилуют множеством действительно сильных гиперпартийных новостей.
Эндрю Джексон, например, был популистом в Белый дом перед гражданской войной и очень ненавидел истеблишмент.Есть масса новостей, нападающих на него и его жену, которая, по мнению историков, теперь страдала от недиагностированных проблем психического здоровья. В конце концов, она покончила жизнь самоубийством из-за стресса из-за новостей о ней, всевозможных обвинений и действительно личных вещей, которые говорили о семье Джексонов.
Итак, это было частью нашей среды. Журналистская практика стала гораздо более конгломерированной и более профессиональной. Так что вместо десятков газет на город у нас обычно было несколько.Примерно в то же время, в начале 20 века, появились школы журналистики. И в целом практика стала намного более профессиональной. Так что мы немного потеряли это.
Но с появлением социальных сетей, похоже, мы снова оказались в среде гиперпартийного медиа-производства.
Как вы говорите, мы пришли к мысли, что освещение новостей должно быть объективным. Сможем ли мы добраться до того места, где люди говорят, что достаточно? Как вы думаете, в конечном итоге оно само станет полицейским?
Лампе: Я не думаю, что он будет заниматься самоуправлением.Я имею в виду, частично потому, что он атакует личность и эмоции. Итак, социальные сети были изобретены в среде, где они предназначены для развития межличностных отношений.
Если вы посмотрите на все кнопки реакции на Facebook, то увидите, что это нравится, и любовь, и грусть, и смех. И все это очень эмоциональные реакции. Он не был задуман как платформа для гражданских дебатов. И это явно не площадка для гражданских дебатов. То же и с Twitter.
У нас нет никаких механизмов, замедляющих мышление.Вместо этого мы делаем именно то, что вам не следует делать, когда дело доходит до политического обсуждения. Мы запускаем эти эмоциональные реакции. В зависимости от групп, на которые вы подписаны, вашей гомофобной социальной сети и мемов, которые вам показывают, очень легко создать среду, в которой вы не сталкиваетесь с альтернативными точками зрения, или, если да, то это для Карикатура на альтернативные точки зрения, представленные людьми, которые думают, как вы.
Так что, к сожалению, я не знаю, будет ли он сам себя контролировать, потому что это чертовски хорошо для людей.Вы чувствуете себя праведным, когда показывается, что ваше племя правое. И когда я вижу, как Нэнси Пелоси ругается, это подтверждает мою идентичность как умного, хорошего человека, который никогда не встал бы на сторону этого вражеского племени. Мое племя хорошее. Другое племя плохое. И вот где мы сейчас находимся. И вы можете увидеть результаты исследований Pew Research: мы так же разделены пристрастиями, как и в момент гражданской войны. Намного больше, чем мы были по крайней мере за последние 70 лет.
Возможно ли какое-нибудь политическое решение?
Лампе: Не думаю, что это возможно.Нет, существуют два политических барьера, оба из которых хороши сами по себе, но представляют собой препятствия, о которых нам следует подумать. Первая — это Первая поправка. Мы очень сильно верим в Первую поправку в этой стране. Большинство других либеральных демократий смотрят на нас так, будто мы немного фаталистически настроены по этому поводу, но это настолько сильная часть нашей идентичности как американцев, что свобода слова священна.
Это делает так, что очень трудно регулировать речь, это правильно.Теперь есть законы, и у нас есть ограничения к Первой поправке, такие как клевета и клевета. Как правило, обман был ограничением права Первой поправки на свободу слова. Но мы до сих пор не задумывались о том, что это значит в среде социальных сетей.
Другой большой барьер, с которым мы сталкиваемся, — это раздел 230 Закона о порядочности в общении 1996 года. Этот закон был создан в основном для защиты людей в сети. Но есть секция 230, которая защищает большие платформы.
Итак, это был закон, в котором говорилось, что Comcast не может быть привлечен к суду из-за карманов Интернета, которые он несет на своих линиях. Что ж, все это перенесено на платформы социальных сетей. Итак, YouTube, Facebook, Twitter, Instagram, все эти платформы не несут юридической ответственности ни за что из того, что осуществляется на их платформе. Это неоднократно оспаривалось в суде, и до сих пор статья 230 была пуленепробиваемой.
Давайте доведем это до сведения человека. Что я могу сделать, чтобы научиться смеяться?
Lampe: Я думаю, что заманчиво думать, что это особая команда людей, которые особенно восприимчивы к дешевым фейкам, дипфейкам или фальшивому контенту.В более широком смысле, последовательные исследования Интернета показывают нам, что каждый в какой-то момент делится плохой информацией и в основном активируется эмоциональным содержанием, а не рациональным содержанием. Поэтому я думаю, что первое, что может сделать каждый, — это как бы заглянуть внутрь, когда вы делитесь частью контента. Если вы чувствуете себя слишком эмоционально счастливым, злым или чем-то еще, когда делитесь контентом, по крайней мере, проверьте это еще раз. Почему у вас такая сильная эмоциональная реакция на контент, которым вы делитесь? Эта сильная эмоциональная реакция, вероятно, связана с идеей, что информация вызвала у вас некое раннее мышление, а не более рациональное мышление.Так что осознавайте, почему вы делитесь и какой информацией вы делитесь. Другие вещи, которые вы можете делать, конечно же, являются очень распространенными и испытанными вещами для медиаграмотности. Так что один из них — проверить свои источники. Это авторитетный источник?
Похоже, что за тем, почему была написана эта вещь, стоит какой-то план? Кто выигрывает, а кто проигрывает? Следите за деньгами. Когда вы думаете об источнике новостей, спросите: «Зачем им публиковать именно эту вещь, если я слышу об этом только из относительно небольшого источника?» Это, в отличие от гораздо более крупного источника или нескольких источников, которые говорят мне одно и то же.Так что, к сожалению, относиться с подозрением ко всему, что вы видите, — это состояние, в котором, я думаю, мы должны находиться, когда существует так много обмана.
И затем, как я сказал ранее, если это слишком хорошо, чтобы быть правдой, если это подтверждает вашу предвзятость или убеждение, что вы хотите поделиться с людьми, вам также следует относиться к этому с некоторым подозрением. Так что всегда думайте еще раз, почему рассказывают об этой истории? И могу ли я подтвердить это одновременно из нескольких источников?
И затем, я думаю, еще одна вещь, которую вы можете сделать, — это читать лучшие новостные статьи и лучшие источники новостей по сторонам разногласий, которые вы особенно не приписываете; есть широкая экология новостей.
Я думаю, когда вы недавно говорили об этом, одна из причин, почему дешевые подделки опасны, заключается в том, как они распространяются сейчас — не через СМИ, а через социальные сети. А у нас есть политики, которые распространяют.
Лампе: Верно. Что касается того, кто распространяет дешевые фейки и дипфейки, я думаю, что на выборах 2016 года мы увидели, что многие из них исходят от враждебных стран. Так, например, Россия была очень привязана к агентству интернет-исследований, и огромное количество контента, производимого через пруд, попало в Соединенные Штаты с помощью различных обманных средств.Я думаю, что ситуация изменилась. Это все еще очень важная часть нашей медиа-среды, но внутренние кампании осознали, насколько эффективными могут быть эти кампании, и начинают использовать это в целом. Так что они действительно берут на вооружение эти дип-подделки и дешевые поддельные типы инструментов и распространяют их.
Еще одна вещь, которая отличает все это в этой среде социальных сетей от того, что мы видели раньше, — это идея микротаргетинга. В этом настоящее волшебство социальных сетей.Создать поддельное видео очень просто. Но если бы я сделал это без какого-либо распределения, значит, без микротаргетинга далеко не продвинуться. Что я могу сделать, так это найти демографические данные людей и купить их.
Мы хорошо знаем, что Cambridge Analytica сделала это во время выборов 2016 года, но сейчас десятки, если не сотни компаний делают это на очень глубоком уровне.
Дезинформация и дезинформация в более широком смысле, а также дешевые фейки и дипфейки создают своего рода апатию.Вы делаете также прививку своим истинно верующим от противоречивой информации и отговариваете людей в целом от попыток поиска информации. Так что среда, которую, как мне кажется, люди пытаются создать очень намеренно, — это та среда, в которой правда больше не имеет значения. А когда правда не имеет значения, то, что вы собираетесь делать, зависит от вашей личности.
видеоверификация в эпоху фейковых новостей
Об этой книге
Введение
В этой книге представлены последние технологические достижения и практические инструменты для обнаружения, проверки и визуализации видеоконтента социальных сетей, а также управления смежными правами.Революция цифровых медиа приносит последние новости на онлайн-видеоплатформы, и новостные организации часто полагаются на созданные пользователями записи новых и развивающихся событий, публикуемые в социальных сетях, чтобы проиллюстрировать историю. Однако в видео тоже есть обман. В сегодняшнюю эпоху «фальшивых новостей» доступ ко все более сложным инструментам редактирования и управления контентом, а также легкость, с которой фальшивая информация распространяется в электронных сетях, требуют от всей индустрии новостей и средств массовой информации тщательной проверки стороннего контента перед его публикацией.Как таковая, эта книга представляет интерес для компьютерных ученых и исследователей, профессионалов в области новостей и средств массовой информации, а также для политиков и потребителей средств массовой информации, разбирающихся в данных.
Ключевые слова
Поддельные новости Проверка видео Видео Анализ Анализ социальных сетей Управление цифровыми правами
Редакторы и филиалы
- Василиос Мезарис
- Линдон Никсон
- Симеон Пападопулос
- Денис Тейсу
- 1.Центр исследований и технологий в Элладе, Институт информационных технологий, Терми, Греция,
- 2.MODUL Technology GmbH, Венский университет, Вена, Австрия, ,
- , 3. Центр исследований и технологий, Греция, Институт информационных технологий, Терми, Греция,
- , 4.Agence France-Presse, Париж, Франция,
О редакторах
Доктор Василиос Мезарис — директор по исследованиям Института информационных технологий (ITI) Центра исследований и технологий Эллада (CERTH), Греция, и координатор проекта InVID h3020 EU.Другие его публикации включают заголовок Springer Personal Multimedia Preservation: Remembering or Forgetting Images and Video .
Доктор Линдон Никсон — доцент кафедры новых медиа-технологий Венского университета MODUL, Австрия, а также технический директор дочерней компании MODUL Technology GmbH. В проекте InVID он руководил работой по обнаружению новостей и поиску в социальных сетях.
Доктор Симеон Пападопулос — старший научный сотрудник Института информационных технологий (ITI) Центра исследований и технологий Эллада (CERTH), Греция, и соучредитель дочерней компании Infalia PC.Другие его публикации включают заголовок Springer User Community Discovery . В проекте InVID он руководил работами по проверке мультимедиа.
Доктор Денис Тейсу — руководитель отдела исследований и разработок AFP Medialab, Франция, и менеджер по инновациям проекта InVID h3020 EU по видеоверификации в социальных сетях и разоблачению фейковых новостей.
Библиографическая информация
«Глубоких фейков», которые могут заставить кого угодно сказать что угодно. U.С. разведывательные агентства
НЬЮ-ЙОРК — Видео, на котором якобы настоящий ведущий новостей читает заведомо ложный сценарий, в котором говорится, что «метро всегда ходят вовремя» и «Пицца в Нью-Йорке определенно не так хороша, как Чикаго» придает совершенно новое значение термину «фейковые новости».
Но этот ведущий фейковых новостей — реальный пример увлекательной новой технологии с устрашающим потенциалом использования.
Я был ошеломлен, наблюдая, как Франкенштейн микширует голос Стива Лейси, исходящий из того, что похоже на мой рот.
«Вот насколько хорошо алгоритм знает ваше лицо», — сказал мне профессор Сивэй Лю.
Это видео, известное как глубокая подделка: клип, созданный компьютером с использованием алгоритма, который настолько хорошо изучил мое лицо, что может воссоздать его с поразительной точностью.
Мое сгенерированное лицо может быть заменено на чью-то голову (как в оригинальном видео со Стивом) или может использоваться, чтобы заставить меня выглядеть так, будто я говорю то, чего никогда не говорил.
Над этой работой я работал с Лю и его командой в Колледже инженерных и прикладных наук Университета в Олбани.
Для многих увидеть — значит поверить.
«Я бы сказал, что это уже не 100% правда», — сказал Лю.
Их глубокие фальшивые исследования финансируются Агентством перспективных исследовательских проектов Министерства обороны США (DARPA), которое действует как отдел исследований и разработок Министерства обороны США. Они работают над разработкой набора инструментов, которые правительство и общественность могут использовать для обнаружения и борьбы с ростом глубоких подделок.
«Мы здесь предоставляем своего рода метод обнаружения для аутентификации этих видео», — сказал Лю.
Более того, технически сделать глубокие подделки не так уж и сложно. Все, что для этого требуется, — это несколько секунд видео с кем-то, мощный компьютер и некоторый код, который Лю и его команда не публикуют публично.
«Я считаю, что реальная опасность заключается в том, что грань между реальным и поддельным стирается из-за существования такого рода технологий», — сказал Лю.
Но это больше, чем просто эксперимент по замене лица ведущего новостей. Возможность снимать на видео любого, кто что-либо говорит, вызывает тревогу.
Даже бывший президент поднимает красные флажки. Самое смешное (как видно на видео), что это не Барак Обама. Видео — глубокая подделка. Актер Джордан Пил изображает голос Обамы. Все остальное сделает алгоритм. Это должна быть социальная реклама об опасностях глубоких подделок.
«Двигаясь вперед, мы должны быть более бдительными в отношении того, чему мы доверяем из Интернета», — предупреждает фальшивый Обама.
Вообразить, как глубоко фальшивое видео может быстро создать очень пугающий сценарий реального мира, нетрудно.
Скажем, например, в Интернете появляется видео, на котором мировой лидер, такой как Владимир Путин, объявляет войну другой стране, или, может быть, глава крупной компании объявляет о своей внезапной отставке, выводя рынки в хвостовой спине.
Подобные видео могут распространяться со скоростью лесного пожара еще до того, как проверяющие факты, журналисты и правительства даже получат шанс подтвердить его подлинность.
И правительство США обращает на это внимание. Глубокие фейки были темой недавних слушаний об угрозах во всем мире перед Комитетом по разведке Сената.
«Организованы ли мы таким образом, чтобы мы могли достаточно быстро реагировать на катастрофическую атаку глубоких фейков?» Сенатор Бен Сассе, республиканец из Небраски, обратился к группе руководителей разведывательных служб страны.
Директор национальной разведки Дэн Коутс в ответ заявил, что новые технологии, такие как глубокие подделки, представляют «серьезную угрозу для Соединенных Штатов, и для решения этой проблемы необходимо реструктурировать разведывательное сообщество».
Член комитета по разведке Палаты представителей Шон Патрик Мэлони сказал Fox 5 News: «Вы еще ничего не видели.«
» Потому что, когда вы начинаете смотреть на эти глубокие фальшивые видео, которые убедительны, но ложны, это на порядок серьезнее, чем все, что мы видели до сих пор », — добавил Мэлони.« Вот почему это важно для нас. доберитесь первым, отпугните плохих парней и попросите частный сектор активизировать свои действия ».
Вот тут-то и пригодятся исследования Лю. Его основная цель — обнаружение и предотвращение глубоких подделок.
« Это кошки-мышки игры. Каждая сторона хочет получить небольшое преимущество над другой », — сказал он.«И это на самом деле, к лучшему, дает нам мотивацию и стимул для развития этой области исследований».
Но по мере роста исследований будет расти и качество создаваемых глубоких фальшивых видеороликов, которые сделают различие между тем, что реально, и тем, что не является все более трудным. Вот почему они работают над разработкой этого набора инструментов прямо сейчас, чтобы использовать его в будущем.
«Наша задача: как построить алгоритм для определения аномалии?» Генерал-лейтенант Роберт Эшли, директор Управления военной разведки, высказался на недавнем слушании в Сенате об угрозах.«Потому что у каждой глубокой подделки есть изъян. По крайней мере, теперь они есть».
Как фальшивые видеоролики о спасении животных стали новым рубежом для жестокого обращения с животными
Марк Аулия не имеет проблем с змеями, нападающими на других животных. В конце концов, хищникам нужно есть. Но в прошлом месяце, глядя на видео на YouTube в своем домашнем офисе в Бонне, Германия, эксперт по рептилиям с отвращением опустил очки. «Это что-то действительно противное», — сказал он.
На экране Аулии бирманский питон, констриктор, обычно убивающий птиц и мелких млекопитающих, был заперт на гиббоне.Паникующий примат боролся за свою жизнь, когда змея, обвившаяся вокруг его туловища, начала сжиматься. Вскоре гиббон перестал двигаться. Появляется мужчина в синей футболке и джинсах. В спешке он разворачивает питона, освобождая гиббона, и уносит змею за пределы экрана. Травмированный гиббон съеживается, прикрывая голову.
«Это так очевидно, что это подделка, но люди верят в это», — говорит Аулия, герпетолог из Зоологического исследовательского музея Александра Кенига. Судя по видеозаписи, спасатель прибыл как раз вовремя, чтобы спасти гиббона.Но питоны сначала кусают добычу, чтобы закрепить ее перетяжку — чего не произошло в видео с гиббоном, говорит Аулия. Питоны тоже ведут ночной образ жизни, но это видео и многие другие были сняты днем.
Для Аулии единственными вещами, которые казались реальными, были плохое обращение с животными, которых заставляли попадать в такие ситуации, и стресс, который это, должно быть, им вызывало.
Несколько лет назад организации по защите животных впервые заметили, что на YouTube быстро распространяется видео, посвященное искусству спасения животных.Все они вариации на одну тему: орел нападает на змею, крокодил нападает на утку, змеи нападают на домашних кошек, собак, ящериц. В каждом случае убийствам препятствуют человеческие спасители, которые удобно наталкиваются на них или вовремя слышат крики животных, чтобы предотвратить бойню.
Создание видеороликов вызывает стресс, травмы и, вероятно, даже смерть животных, — говорит Анн-Лиз Чабер, ветеринар по дикой природе и специалист по One Health из Университета Аделаиды в Австралии. Помимо этого, поддельные спасения животных распространяют неправильные представления о видах и вдохновляют подражателей, говорит Чабер, изучавший, как YouTube нормализует торговлю экзотическими домашними животными и взаимодействие между людьми и дикими животными.Для животных естественно хищничество в дикой природе без вмешательства человека, однако эти видео вводят зрителей в заблуждение относительно естественного поведения животных, демонизируя такие виды хищников, как змеи и хищные птицы.
Они также отвлекают внимание от настоящих вопросов благополучия и сохранения животных, говорит Дэниел Натуш, биолог-эколог из Университета Маккуори в Сиднее, Австралия, и член нескольких групп специалистов по рептилиям Международного союза охраны природы. МСОП устанавливает статус сохранения диких животных.Видео часто имеют заголовки с такими фразами, как «первобытный человек спасает змею», что, по его словам, поощряет «расовую нетерпимость и непонимание».
Почему люди заставляют содержащихся в неволе животных попадать в опасные или вредные ситуации? Чтобы получить как можно больше кликов и, вероятно, заработать деньги. По словам Джейсона Урго, генерального директора Social Blade, компании, которая отслеживает статистику платформ социальных сетей, размещая в социальных сетях что-то, на которое получают миллионы кликов, кто-то потенциально может заработать тысячи долларов.Любой желающий может создать канал YouTube и публиковать на нем видео. Но чтобы начать получать прибыль от программ распространения рекламы на платформе Google, владельцам каналов потребуется тысяча подписчиков и 4000 часов просмотра в течение предыдущих 12 месяцев.
С тех пор, как в 2005 году было загружено первое видео на YouTube, платформа выросла в геометрической прогрессии, а вместе с ней и критика за то, что она не делает достаточно для предотвращения контента, который считается наносящим ущерб общественному благу, например, мистификации, разжигания ненависти, жестокого обращения с животными. , и больше.В ее правилах сообщества запрещен «жестокий или кровавый контент, предназначенный шокировать или вызвать отвращение у зрителей», и компания заявляет, что наняла 10 000 человек и использует машинное обучение для модерации 500 часов видео, загружаемых на платформу каждую минуту. В период с января по март 2021 года YouTube заявил, что удалил более девяти миллионов видео за нарушение принципов сообщества.
Тем не менее, процесс проверки является громоздким, медленным и непоследовательным, как нынешние, так и бывшие модераторы сообщили The Washington Post .Чтобы ускорить процесс, YouTube создал такие инструменты, как программа Trusted Flagger, с помощью которой правительственные учреждения и НПО, среди прочего, могут помочь с модерацией. Отметившие не могут удалять видео, но выделенные элементы «могут ускорить рассмотрение нашими командами» в соответствии с письменными правилами YouTube.
В одном из сотен фальшивых изображений спасения животных, размещенных на YouTube, бирманский питон обвивается вокруг тела гиббона, пока человек не «обнаружит» пару и не спасет примат.
Видео Скриншот с YoutubeПожалуйста, соблюдайте авторские права.Несанкционированное использование запрещено.
В ожидании средства правовой защитыВ марте 2021 года YouTube объявил, что в ближайшие несколько недель примет меры по запрету фальшивых видеороликов о спасении животных. С тех пор было опубликовано более сотни и сотни остаются, согласно отслеживанию Lady Freethinker, калифорнийской некоммерческой организации по защите животных.
Леди Свободомыслящая подала заявку на участие в программе YouTube flagger в апреле 2021 года. Но несколько дней спустя YouTube сообщил им, что «в настоящее время не занимается активным привлечением флагманов, обладающих опытом в областях политики, наиболее актуальных для вашей организации в настоящее время», — сказала Нина Джекель, основательница. и президент Lady Freethinker, — говорит.
YouTube не ответил на вопросы об этом решении и отклонил запросы на интервью National Geographic . «У нас есть специальная группа по разработке политик, которая на постоянной основе проверяет и обновляет наши политики, а также поддерживает их в актуальном состоянии», — говорится в заявлении компании.
Канал с видео питона и гиббона, у которого 83 000 подписчиков, в мае опубликовал девять сомнительных «спасательных» видео. Сообщение на другом канале, в котором утверждается, что это «настоящая битва» между свиньей и питоном, набрало более шести миллионов кликов с момента его публикации в марте 2020 года; почти миллион из них — только в мае.(YouTube отключил каналы в июне после того, как National Geographic обратился в компанию с просьбой об интервью и поделился списком видеороликов с подозреваемыми спасениями с участием животных.
Как правило, если вы фотограф дикой природы или кинорежиссер, это занимает бесчисленное количество часов дней, месяцев или даже лет, чтобы получить видеоматериал, который с этической точки зрения может рассказать историю вида в дикой природе
ByDJ Schubert Биолог дикой природы, Институт защиты животных
Тим Кассер, почетный профессор психологии в колледже Нокс, штат Иллинойс, По словам исследователя, изучавшего потребительский капитализм и ценности, эти видео нравятся двум типам людей: тем, кого привлекают трогательные сцены спасения милых животных, и тем, кто любит наблюдать, как животные дерутся и под давлением.
Видео могут получить большое количество просмотров, но, похоже, не вызывают много комментариев. «Очень смелая и смелая работа», — написал один из комментаторов об этом видео о свинье-питоне — его лайков больше, чем антипатий, от 27 000 до 4 000.
«Фантастика» была еще одной реакцией, сопровождавшейся шестью смайликами в форме сердца и поцелуями. ( National Geographic не разглашает названия каналов и не ссылается на какие-либо видео, чтобы не привлекать к ним трафик.)
Контрольные знакиПоддельные видео спасения являются шаблонными.Обычно они длятся около пяти минут и показывают атакующее животное и жертву в грязной яме, окруженной растительностью. Борьба животных сопоставляется с приближающимся спасителем-человеком, часто с саундтреком инструментальной или электронной музыки, чтобы усилить драматизм. «К встрече также предстоит долгая подготовка, возможно, чтобы подражать стилю документальных фильмов о природе», — говорит ди-джей Шуберт, биолог из Института защиты животных в Вашингтоне, округ Колумбия.
Шуберт говорит, что драматические, разнообразные ракурсы и огромный объем видео — это раздача, которую они ставят.«Как правило, если вы фотограф или кинорежиссер, занимающийся дикой природой, вам потребуется бесчисленное количество часов, дней, месяцев или даже лет, чтобы получить этически приемлемые кадры, которые могут рассказать историю вида в дикой природе», — говорит он.
Брент Стиртон, фотограф National Geographic , который документирует дикую природу, говорит, что снимать реальные сцены конфликта животных невероятно сложно. «Если вы не ведете своего питомца вглубь Эверглейдс во Флориде, прогуливаетесь по территории аллигаторов или намеренно выгуливаете своего питомца под питоном, это будет очень редко», — говорит он.Надуманные ситуации не ограничиваются YouTube. По его словам, это иногда случается с документальными фильмами или шоу с участием природы. «В худшем случае вы просите о финансировании и забираете деньги у людей, идущих долгим путем, чтобы получить эти кадры, — которые на самом деле следят за животными, а не травмируют их».
То, что может сигнализировать ученым и зоотехникам, почему видео является ложью, может быть неочевидно для многих зрителей.
У некоторых животных могут быть идентифицируемые травмы еще до сцен конфликта, что говорит о том, что они подвергались многократным взятиям.Хищные птицы могут казаться болезненными, и им подрезают крылья, чтобы они не улетели, что подчеркивает, что они животные в неволе. Змей, используемых в нескольких видеороликах, можно распознать по отметинам на лице и травмам, говорят исследователи животных, просмотревшие выборку из десятка видеороликов для National Geographic .
Кроме того, если хищник не пытается убежать от человека, укладывающего руки, или сцены снимаются в месте, где одно или оба животных не видны в дикой природе — вид тропических лесов, снятый на сухой открытой местности Например, это признаки того, что что-то не так, — говорит Нил Д’Круз, герпетолог и глобальный руководитель исследований дикой природы правозащитной группы World Animal Protection.
Пожалуйста, соблюдайте авторские права. Несанкционированное использование запрещено.
Пожалуйста, соблюдайте авторские права. Несанкционированное использование запрещено.
ОДНА ЗМЕЯ: НЕСКОЛЬКО СПАСЕНИЙ
Иногда в нескольких видеороликах используются одни и те же животные. Здесь одна и та же змея изображена хищником в двух разных видеороликах о спасении на YouTube — у нее есть характерные точки сбоку на лице и темные пятна во рту, — говорит Нил Д’Круз, герпетолог и глобальный руководитель отдела исследований дикой природы. для группы защиты World Animal Protection.
Видео Скриншоты с Youtube Змеи, подвергшиеся жестокому обращениюНаука предполагает, что змеи чувствуют «тревогу, дистресс, возбуждение, страх, разочарование, боль, стресс и страдания», — говорит Д’Круз, изучавший научные исследования чувствительности рептилий. «Это имеет реальные последствия для обращения с рептилиями».
В видеороликах змеи часто выступают в роли хищников, нападающих на более мелких милых животных. Д’Круз говорит, что для змей очень тяжело держать их в руках и помещать в эти замкнутые пространства вместе с другими животными и их людьми.Змей нельзя дрессировать, поэтому эти сцены, возможно, придется снимать много раз — с неизвестными последствиями для их благополучия, говорит он.
Аулия говорит, что когда он внимательно изучал видео о питоне и гиббоне, было легче понять, насколько это плохо для змеи. По его словам, это животное было слишком слабым, чтобы противостоять животному размером с гиббона. На самом деле он пытался убежать после того, как обезьяна закричала, укусила ее и ударилась головой о землю. Углы камеры и несколько сшитых вместе дублей делают это почти незаметным.По словам Аулии, стресс от такой ситуации — как для змеи, так и для гиббона — очень реален.
Мы сообщили о 10 случайных фальшивых видеороликах о спасении животных 11 мая 2021 года на разных каналах, используя систему отчетов YouTube. Все 10 видео были доступны в середине июня.
ByNina Jackel, основатель и президент Lady Freethinker
Признаки очевидного физического вреда змеям могут быть очевидны. На одном видео у змеи была кровавая рана на морде, прежде чем она напала на ящерицу.В другом изображении змея, предположительно противостоящая собаке, змея выглядит почти мертвой — она слишком легко разворачивается, а после удаления просто лежит неподвижно. «Живой питон не стал бы так лгать, — говорит Аулия; вместо этого рептилия немедленно нанесет ответный удар своей добыче. Змеи в этих видеороликах также часто имеют шрамы на мордах, где их чешуя была стерта, травма, обычно возникающая в результате одержимости ударов плененных змей о проволочные прутья своей клетки.
Как говорит Джекел из Lady Freethinker, в окончательной версии этих видеороликов не показано, что эксплуатируемые животные могут получить серьезные травмы или даже умереть.
Отслеживание фальшивых видео с животнымиКаждый раз, когда вы смотрите видео, YouTube наблюдает за вами, или, скорее, его алгоритмы принимают к сведению ваш выбор. Когда я просматривал видео с животными, рассказывая об этой истории, YouTube сразу же подарил мне еще одно, а между ними всплывала реклама крупных компаний. (Каналы, на которых появлялась реклама, были деактивированы после того, как National Geographic отправил URL-адреса на YouTube.)
Леди Свободомыслящая провела трехмесячное расследование YouTube в прошлом году.Исследовательская группа группы начала с поиска общих ключевых слов, таких как «воздушный бой», «петушиный бой» и «обезьяньи пытки». Затем алгоритм YouTube воспроизводил похожий контент после того, как исследователи просмотрели появившиеся видео. В конечном итоге исследователи выявили более 2000 видеороликов, на которых, как утверждает Леди Свободомыслящий, животным был причинен сознательный вред. Среди них были фальшивые видеоролики о спасении, которые в совокупности набрали более 40 миллионов просмотров.
Когда репортеры Guardian и других изданий, которые писали о расследовании леди Вольнодумцы, отправили YouTube URL-адреса проблемных видео, все они были удалены, говорит Джекель.Но, добавляет она, это случается не всегда.
«В качестве теста мы опубликовали 10 случайных фальшивых видеороликов о спасении животных 11 мая 2021 года, каждое на разных каналах, с использованием системы отчетов YouTube. По ее словам, все 10 видео еще были доступны в середине июня.
Когда связались с этой историей, YouTube удалил девять из 10 видео, о которых я сообщил им, и отключил несколько помеченных каналов, в том числе три в списке леди Свободомыслящая. «Наша политика насильственного или графического контента запрещает контент, изображающий ненужные страдания или вред животным, и в соответствии с этой политикой мы удалили три канала, помеченных нам National Geographic », — говорится в заявлении YouTube от 21 июня 2021 года.
«К концу этого месяца мы расширим нашу политику в отношении насильственного или графического контента, чтобы более четко запретить контент, изображающий умышленные физические страдания или причинение вреда животным», — говорится в заявлении YouTube. Компания не сообщила, как она будет это делать и будет ли официальное объявление о новой политике.
За день до публикации этой истории YouTube уведомил National Geographic о том, что 30 июня он принимает новую политику, упрощающую удаление материалов о спасении животных, «которые были инсценированы и помещают животных в опасные ситуации.«Никаких дополнительных подробностей о том, как это будет сделано и как быстро, предоставлено не было.
Между тем, фальшивые видеоролики о спасении животных все еще публикуются.
Орлы — одно из животных в сфабрикованных спасательных видеороликах, которые часто изображаются как нападавшие. Видео демонизируют плотоядных животных, которые в дикой природе убивают добычу, чтобы выжить.
Видео Скриншот с YoutubeПожалуйста, соблюдайте авторские права. Несанкционированное использование запрещено.
Кто снимает видео?По словам Джекеля и других исследователей животных, большинство видео, загружаемых по различным каналам, похоже, снято в Юго-Восточной Азии, вероятно, в Камбодже.В видеороликах часто говорят на кхмерском, основном языке Камбоджи, змеи — это местные жители этого региона, и, по их словам, растительность выглядит правильно.
Рабочих мест мало в сельской местности Камбоджи, где проживает 90 процентов беднейшего населения страны. Более того, туризм, производство и строительство, на которые приходится 40 процентов рабочих мест, резко сократились во время пандемии.
«Многие люди в таких местах, как Камбоджа и Вьетнам, заводят рептилий или разводят их для мяса и других целей, как мы делаем с цыплятами», — говорит Натуш, который просмотрел некоторые видео для National Geographic .«Эти животные выглядят так, как будто они большую часть времени содержатся в клетках в местной деревне».
Bellingcat, веб-сайт расследований с открытым исходным кодом, изучил более дюжины видеороликов на одном из самых распространенных поддельных каналов спасения животных для National Geographic . Группа искала признаки окружающей среды, чтобы помочь определить вероятные места, где были сняты видео.
Фоэке Постма, следователь и инструктор Bellingcat, говорит, что он подозревает, что «судя по некоторым деталям из видео и горных хребтов», они были сделаны недалеко от Тук Мес Кханг Лех, сельской местности в южной части Камбоджи.Но он не мог определить, где именно. «Сельский характер этих видео затруднит их отслеживание или определение точного местоположения», — говорит он.
Место, где снимаются видео, имеет значение для людей, пытающихся остановить эксплуатацию, говорит Джекель. «Это единственный способ, которым местные правоохранительные органы могут что-то с этим поделать». По ее словам, также важно выяснить, кому принадлежат каналы, на которых представлены видео. Это люди, получающие платежи от Google, если каналы монетизируются, и которые могут получить некоторую известность в области видео.«Очевидно, что людям нужно внимание, и это может быть очень сильным фактором, — говорит Джекел. — Даже если они не получают от этого прибыли, все равно существует опасность — вы можете стать популярным на YouTube, если будете пытать животных».
Маловероятно, что эти владельцы каналов находятся в Камбодже, которая не указана в качестве страны, имеющей право на участие в соглашениях о партнерстве с YouTube.
Только Google и владелец аккаунта канала YouTube знают, в какой стране зарегистрирован канал для уплаты налогов и уплаты налогов. По словам Урго, из Social Blade.Страница «О себе», которая отображается на каждом канале, может не отражать, где снимаются видео: кто-то, кто перечисляет канал в США, может публиковать видео откуда угодно.
На YouTube говорится, что канал проверяется Bellingcat не были монетизированы.
Что можно сделать, чтобы помочьОбязанность сообщать о проблемных видео не должна ложиться на зрителей, говорит Джекель. «YouTube обязан гарантировать, что его платформа не пропагандирует жестокое обращение с животными и что все оскорбительный контент удален.
Тем не менее, зрители должны сообщать на YouTube о жестоких, фальшивых видео и не делиться ими, — говорит она. Чтобы пожаловаться на видео, пользователи должны нажать «Сообщить» в правом нижнем углу видео, выбрать, что это «жестокий или отталкивающий контент», и выбрать вариант «Жестокое обращение с животными».
Давление на рекламодателей тоже может помочь, говорят Джекель и другие. Крупные бренды, такие как PepsiCo, Walmart и Starbucks, отозвали свою рекламу на YouTube в 2017 году после того, как журнал Wall Street Journal обнаружил, что они размещались рядом с видеороликами, пропагандирующими язык вражды.Бойкоты побудили YouTube объявить о своем намерении усилить правоприменение. Платформа обновила свою политику разжигания ненависти и преследований в 2019 году, запретив видео, в которых утверждается, что одна группа превосходит другие, чтобы оправдать дискриминацию.
Контроль за проблемным контентом, вероятно, станет для YouTube «бесконечной войной», — говорит Шуберт из Института защиты животных. Но компании, работающие в социальных сетях, по-прежнему несут ответственность за разработку алгоритмов, обеспечивающих соблюдение их собственных правил, и за набор людей, которые будут отслеживать видео о жестоком обращении с животными и удалять их как можно быстрее.
YouTube может использовать программы для сканирования и распознавания находящихся под угрозой или вымирающих видов на видео с животными и создания автоматических уведомлений об уровне опасности животных с контекстной информацией об эксплуатации животных, говорит Чабер. По ее словам, зрители должны увидеть уведомления, прежде чем смогут смотреть видео. Платформа уже применила аналогичный подход к видео-розыгрышам.
Когда пользователи ищут на YouTube темы, которые, как известно, подвержены дезинформации, всплывают предупреждающие или образовательные панели.Например, если пользователь вводит запрос «коронавирус», информационная панель с надписью «узнать больше» ведет на веб-сайт COVID Центров США по контролю и профилактике заболеваний. Поле также отображается в нижней части отдельных видео в списке. По словам Чабера, что-то подобное можно было бы сделать с видео с животными.
Но не все согласны с тем, что предупреждения могут помочь. Джекель говорит, что она опасается использовать такого рода меры для фиктивного спасения животных, потому что это может добавить новизны в то, чтобы делиться ими или наблюдать за ними.Она также подчеркивает, что эти видео вводят в заблуждение, а не оскорбляют животных.
«Самая серьезная проблема — это насилие по отношению к животным, которое никогда не должно рассматриваться как« развлечение », как бы оно ни называлось», — говорит Джекель.