Небезпека відеопідробок примусила Пентагон активно діяти
- Подробиці
- Опубліковано 30.06.2018 09:49
-
Автор: Конфликты и законы Конфлікти і закони
- Переглядів: 7531
Фейкові відео мають настільки високий потенціал з дестабілізації, що агенція новітніх розробок Міноборони США DARPA ухвалила рішення провести конкурс, основним завданням якого буде визначення найефективніших методів розпізнавання «діпфейків», або ж «глибоких фейків» (deepfake - прим. ГА) - відеопідробок, які зроблені настільки реалістично, що можуть викликати політичний скандал, чи навіть стати причиною конфлікту. Про це повідомляє агенція новин McClatchy, передає «Голос Америки».
У липні 10 команд винахідників із провідних американських університетів та Європи протягом 2-х тижнів змагатимуться у конкурсі на розробку технологій, які дозволять відрізнити фальшиві відео від реальних.
«Фейкові відео, які іноді називають deepfakes, створюються з використанням штучного інтелекту, можуть створити враження, що певна особа перебувала в якомусь місці, де вона не була, або робила заяви, яких насправді не було. З розвитком, фейкові відео можуть викликати потрясіння, як на особистому рівні, так і на рівні держав, і навіть викликати релігійні конфлікти», - наводить думку експертів видання.
«Швидкість прогресу вражає, - заявив виданню Джефф Клюне, експерт з «діпфейків». - Зараз вони мають пристойну якість, але незабаром стануть вражаючими».
Наприклад, зараз підробки можна досить легко відрізнити за відсутністю блимання очей на картинці. На це звертають увагу на Data 61 CSIRO.
«Діпефейки стають неймовірно якісними», - писало у червні технологічне видання Gizmodo.
Фейкові відео вже набувають поширення. Минулого місяця Фламандська соціалістична партія поширила фейкове відео звернення президента США Трампа до мешканців Бельгії.
Фейкові аудіозаписи, наприклад, створюються за допомогою збору годин записів розмови реальної особи і подальшого реміксування фонем. Якість таких підробок покращується, але їх все ще досить легко розрізнити.
«Зараз вони звучать неприродньо. Але протягом 5 років аудіозаписи вже будуть здатні надурити слідчих; фейкові відео також прогресують», - розповів виданню Ґрегорі Аллен, експерт аналітичного центру Center for a New American Security з питань штучного інтелекту.
Деякі експерти твердять, що часова рамка для вдосконалення фальшивих відео навіть менша і що вже зараз творці фальшивих відео мають перевагу над дослідниками, які викривають фейки.
Конкурс, організований DARPA, є частиною 4-річної програми Аналізу Медіа, яка покликана створити інструменти визначення наявності відеоманіпуляцій та надання деталей щодо того, як було створено підробку. У змаганні беруть участь команди університетів Dartmouth, Notre Dame та Stanford Research Institute.
Нагадаємо, в Україні deepfakes вже не раз мали місце, наприклад, в обвинуваченнях проти нардепа Ігоря Мосійчука та екс-губернатора Одещини Михайла Саакашвілі.
Фото Reuters
Також з цієї категорії...
Землю в HD-качестве покажут из...
25 апр. 2012 г.
На следующей неделе в России...
3 нояб. 2012 г.
Американцы придумали linux-винтовку с модулем...
12 янв. 2013 г.
Набираючі популярність...
Як Порошенко свою партію підставив
14 нояб. 2024 г.
На Оболоні затримали киянина за...
14 нояб. 2024 г.
Автотроща у Польщі: суд стягнув...
14 нояб. 2024 г.
Останні новини
14.11.2024 19:59
На Оболоні затримали киянина за збут психотропів14.11.2024 18:00
Як Порошенко свою партію підставив14.11.2024 11:17
Збито 21 ворожий БпЛА14.11.2024 11:11
1690 москалів подохло минулої доби на українській земліПолковник ЗСУ у запасі та військовий експерт Роман Світан детально обговорив ситуацію довкола заяв щодо якнайскорішого завершення війни
Коментарі