Технология сканирования лица человека и обработка видео и аудио-информации с помощью искусственного интеллекта позволят создавать поддельный видеокомпромат. С таким прогнозом выступило в понедельник информационное агентство Associated Press со ссылкой на американских экспертов и политиков.
Можно предвидеть, что такие материалы будут использованы для того, чтобы нанести ущерб США, заявил в интервью агентству сенатор-республиканец от штата Флорида Марко Рубио. В качестве примера он сослался на возможность появления поддельных видеосюжетов, в которых какой-нибудь американский политик употребляет расовые эпитеты, берет взятку или признается в соучастии в заговоре. «Это оружие, которое может быть использовано в подходящее время таким же способом, как и фейковые новости, только они будут в видеоформате, — заявил Рубио, являющийся членом сенатского комитета по разведке. — Это может привести к возникновению хаоса и нестабильности в канун выборов или в канун принятия какого-либо исключительно важного решения».
По мнению эксперта по анализу видеоинфомрации из Дартмур-колледжа в штате Нью-Гэмпшир Хани Фарида, появление таких поддельных видеоклипов возможно уже в ближайшем будущем. «Я ожидаю, что в США мы увидим такого рода видеоконтент в ходе предстоящих в ноябре выборов в Конгресс, а также через два года, во время следующих президентских выборов, — заявил он. — Для таких технологий границы не являются препятствиями, и можно ожидать, что последствия появления таких технологий будут ощутимы для всего мира».
Для противодействия подобным явлениям Управление перспективных исследовательских программ Пентагона уже на протяжении двух лет разрабатывает специальную технологию выявления поддельных видеоизображений, сообщило Associated Press. Пока неясно, сможет ли эта технология справиться с подделками. «Через год-два будет крайне сложно найти различия между настоящим и поддельным видео, — заявил агентству эксперт Центра международной безопасности и сотрудничества при Станфордском университете Эндрю Гротто. — Использовать такую технологию будет чрезвычайно соблазнительно для манипуляции общественным мнением и для подрыва доверия к нашим государственным институтам».
e-mail: ad@capital.ua
Ідеї оформлення, стиль та весь зміст сайту www.capital.ua є об'єктом авторського права та охороняються законом. Будь-яке використання матеріалів сайту допускається тільки при дотриманні правил передруку і за наявності гіперпосилання на www.capital.ua. Дозволяється використання тільки матеріалів, що знаходяться у відкритому доступі і лише за умови посилання та/або прямого відкритого для пошукових систем гіперпосилання на безпосередню адресу матеріалу на www.capital.ua www.capital.ua /a>. Посилання/гіперпосилання має бути розміщене в підзаголовку або першому абзаці матеріалу. Розмір шрифту посилання або гіперпосилання не повинен бути меншим за шрифт тексту використовуваного матеріалу. Будь-яке використання матеріалів, які знаходяться у закритому доступі та доступні лише зареєстрованим користувачам, допускається лише за попереднім письмовим дозволом правовласника. Категорично заборонено передрук, копіювання, відтворення, зміну або інше використання матеріалів, опублікованих з позначкою в рамках угоди про синдикацію з Financial Times Limited. Використання матеріалів, які містять посилання на агентства France-Presse, Reuters, Інтерфакс-Україна, Українські новини, УНІАН суворо заборонено. Матеріали, позначені знаком публікуються на правах реклами.
Всі права захищені. © 2012 - 2023