Deepfakes або нове покоління сфальсифікованих доказів
Коли за закритими дверима залу суду розгорнулася битва за опіку над дітьми, жінка всіх переконувала, що її чоловік навіжений. Вона начебто мала відеозаписи, щоб довести це. Та чи справжній цей доказ?
Виявилося, що ні.
Адвокат чоловіка показав, що жінка, використовуючи широко доступне програмне забезпечення та онлайн-уроки, підправила звук. Таким чином його клієнт звучав так, наче погрожував дружині.
Байрон Джеймс, адвокат фірми Expatriate Law в Дубаї, повідомив газеті National у лютому 2020 року, що його експерти виявили, що в запис вносилися зміни.
«Якби ми не змогли оскаржити цей доказ, то це схарактеризувало б мого клієнта як агресивного психа», — сказав Джеймс. «Виникають всілякі питання: на які докази можна покластися, чи достатньо кваліфіковані судді, щоб виявляти підробки? »
Аудіо у випадку з Джонсом було «дешевою халтурою». Проте справа проливає світло на нові проблеми в судах першої інстанції. Як судді будуть визначати, чи є докази реальними або фальшивими?
Такі підробки, більш відомі як Deepfakes, вже просочилася у нашу культуру і політику. Цікаво, що згідно зі звітом Deeptrace Labs 96% підроблених відео в інтернеті порнографічні.
У міру того як технології розвиваються, так і ускладнюється виявлення підробок, адвокатам і суддям доведеться вирішувати, як управляти фальшивими доказами й перевіряти їх правдивість, переконана Ріана Пфефферкорн, Заступник директора з питань спостереження та кібербезпеки Стенфордської школи права. Вона попереджає, що підробки можуть підірвати довіру до системи правосуддя.
Визначення того, що реально
У своїй статті «Підробки: насувається проблема конфіденційності, демократії і національної безпеки» Роберт Чесні та Даніель Сітрон описують, як технологія може підірвати довіру громадськості до державних інститутів, включаючи систему правосуддя.
«Можна легко уявити фальшиве, але вірусне відео, на якому показані спеціальні агенти ФБР, які обговорюють способи незаконного шпигування за сім’єю Трампа. З іншого боку, ми могли б побачити шахрайське відео офіцерів митної служби, що говорять расистською лексикою про іммігрантів або про жорстоке поводження із затриманими. Зокрема, там, де недовіра вже існує, провокаційні підробки знайдуть першокласну аудиторію », — йдеться в документі.
За словами Пфефферкорн, за останнє десятиліття суди кілька разів виносили рішення про процедури аутентифікації цифрових доказів.
У справі 2010 року People v. Beckley, 2-й окружний апеляційний суд штату Каліфорнія визнав недопустимим зображення, на якому подруга обвинуваченого показує знак банди. Причина — ні свідок, ні експерт не підтвердили справжність цього фото.
На противагу, апеляційний суд штату Колорадо визнав допустимим аудіозапис з голосової пошти обвинуваченого у справі про вбивство, не дивлячись на те, що прокурори не підтвердили справжність запису.
«Розробки в області комп’ютерних технологій і програмного забезпечення дозволяють практично будь-якому власникові комп’ютера, що володіє необхідними знаннями та програмним забезпеченням, помилково редагувати записи», — написав суддя Майкл Бергер. «Але той факт, що фальсифікація електронних записів завжди можлива, на наш погляд, не виправдовує обмежувальні правила аутентифікації, які повинні застосовуватися в кожному випадку, коли немає переконливих претензій».
Пфефферкорн каже, що суди показали, що вони «стійкі проти нового покоління фальсифікацій. Звісно, поки в суді є докази, завжди будуть і їх підробки, суддівський корпус намагається розібратися з ними в міру їх появи, та знає, що завжди є ймовірність, що хтось намагатиметься їх обдурити».
Способи пошуку істини
У міру розвитку технології, їх здешевлення і поширення доступ до підробок буде в будь-кого, хто має доступ до смартфона. Робота з виявлення Deepfakes — це гра в «кішки-мишки».
Хані Фарід, експерт в області цифрової криміналістики вже як 20 років, каже, що існують «пасивні» і «активні» підходи до вивчення помилкових доказів.
Він використовував пасивний підхід протягом більшої частини своєї кар’єри. Він аналізує контент і шукає невідповідності, які може не побачити звичайна людина. До прикладу, неоднакове освітлення або тіні по всьому зображенню.
Другий підхід включає нанесення водяних знаків на контент під час їх створення. Фарід відзначив платформу цифрової інспекції Truepic як на приклад використання активного підходу.
Truepic перевіряє дані безпосередньо з датчиків зображення камери та записує унікальний цифровий відбиток в блокчейн, децентралізовану базу. Ніхто, включно з організацією, не може змінити підпис. Фарід каже, що аутентифіковані таким чином записи перевіряють на відповідність цифровому підпису. Якщо це не збігається, це не оригінал.
Він додає, що цифрові інструменти не завжди надійні, і що для стримування хакерів необхідні запобіжні заходи. Однак друк цифрового підпису на записі «буде мати велике значення для аутентифікації контенту».
«Я не наївний. Я не думаю, що ви переконаєте 7 мільярдів людей користуватися цією програмою. Але можемо встановлювати її у камери відеонагляду та проходити аутентифікацію в момент запису», — каже Фарід.
Недалеке майбутнє
У статті для Колегії адвокатів штату Вашингтон адвокатам рекомендується підготуватися до фальшивих доказів, склавши бюджет для експертів-криміналістів і свідків.
Юристи повинні знати достатньо про технології фальсифікації, щоб мати можливість виявити зовнішні ознаки того, що докази — підроблені. З іншої сторони, потрібно готуватися до етичних проблем, коли клієнт підштовхує адвоката до використання підозрілих доказів.
Автор: Назарій Стах
Джерело: thenational.ae, abajournal, regmedia.co.uk
Фото: Pexels, Pixabay