
Основні висновки
- Діпфейки представляють значну загрозу для суспільства, зокрема, через поширення неправдивої інформації, пошкодження репутації шляхом видавання себе за інших, а також провокування конфліктів, що впливають на національну безпеку.
- Хоча штучний інтелект (ШІ) пропонує інструменти для виявлення діпфейків, ці інструменти не є досконалими, і людське судження залишається вирішальним у цьому процесі.
- Люди та інструменти ШІ мають свої сильні та слабкі сторони у виявленні діпфейків. Поєднання їх можливостей може значно підвищити успіх у виявленні та мінімізації ризиків, пов’язаних з цією технологією.
Діпфейки становлять небезпеку для різних сфер нашого життя. Здатність відрізняти підроблений контент від справжнього є вкрай важливою для протидії дезінформації. Зважаючи на прогрес технологій ШІ, виникає питання: кому довірити виявлення діпфейків – людині чи машині?
Загрози, які несуть Діпфейки
Розвиток технологій штучного інтелекту призводить до зростання небезпеки, яку становлять діпфейки. Розглянемо деякі з найсерйозніших проблем, спричинених ними:
- Дезінформація: підроблені відео та аудіозаписи можуть слугувати інструментом поширення неправдивої інформації, зокрема фейкових новин.
- Видавання себе за іншу особу: діпфейки можуть використовуватись для фальсифікації особистості, завдаючи шкоди репутації або вводячи в оману людей, які знають цю особу.
- Національна безпека: існує ризик використання діпфейків для створення підроблених відео або аудіозаписів, на яких, наприклад, лідери держав провокують конфлікти, що може мати руйнівні наслідки.
- Громадські заворушення: сфабриковані матеріали можуть використовуватись для підбурювання гніву та громадських заворушень серед певних груп населення.
- Кібербезпека: кіберзлочинці вже застосовують технології ШІ для клонування голосів, створюючи переконливі повідомлення від імені знайомих людей.
- Конфіденційність і згода: діпфейки можуть використовуватися для створення зображень людей без їхньої згоди, порушуючи їх приватність.
- Довіра та впевненість: якщо неможливо відрізнити правду від брехні, точна інформація втрачає свою цінність.
З розвитком технологій діпфейки ставатимуть дедалі більш переконливими, тому потрібні надійні методи їх виявлення. Штучний інтелект пропонує один з таких методів – моделі виявлення діпфейків. Однак, як і алгоритми, розроблені для ідентифікації текстів, створених ШІ, інструменти виявлення діпфейків не є бездоганними.
Наразі єдиним інструментом, на який можна повністю покластися, є людське судження. Чи здатні ми виявляти діпфейки краще, ніж алгоритми?
Чи можуть алгоритми виявляти діпфейки краще за людей?
Оскільки діпфейки становлять серйозну загрозу, великі технологічні компанії та дослідницькі групи виділяють значні ресурси на їхнє дослідження. У 2019 році компанії Meta, Microsoft та Amazon оголосили про конкурс Deepfake Detection Challenge з призовим фондом у 1 мільйон доларів для розробки найточнішої моделі виявлення діпфейків.
Найефективніша модель показала точність 82,56% на основі відкритого набору відео. Однак, під час тестування на “чорному ящику” з 10 000 невідомих відео, точність найефективнішої моделі впала до 65,18%.
Проведено багато досліджень, де порівнювали ефективність інструментів ШІ та людського аналізу у виявленні діпфейків. Результати різних досліджень відрізняються, але в цілому висновки показують, що люди в більшості випадків не поступаються, а іноді навіть перевершують можливості інструментів виявлення діпфейків.
Дослідження, опубліковане у PNAS у 2021 році, показало, що “звичайні спостерігачі” досягали дещо вищої точності у виявленні діпфейків, ніж найсучасніші інструменти ШІ. Однак, дослідження також виявило, що як люди, так і моделі ШІ допускають різні типи помилок.
Цікаво, що дослідження, проведені в Сіднейському університеті, виявили, що людський мозок ефективніше розпізнає діпфейки на підсвідомому рівні, ніж при свідомому аналізі.
Виявлення візуальних ознак у діпфейках
Процес виявлення діпфейків є складним і вимагає аналізу з різних сторін. Наприклад, відео з лідером Північної Кореї Кім Чен Ином, яке набуло широкого розголосу у 2020 році, є відео “голови, що говорить”. У цьому випадку, ефективним методом виявлення діпфейків може бути аналіз віземів (рухів рота) і фонем (звуків) на наявність розбіжностей.
Аналіз можуть проводити експерти, звичайні глядачі та алгоритми, хоча результати можуть відрізнятися. MIT пропонує вісім питань для допомоги у розпізнаванні підроблених відео:
- Зверніть увагу на обличчя. Найчастіше діпфейки є трансформацією обличчя.
- Зверніть увагу на щоки і лоб. Чи шкіра виглядає надто гладкою або зморшкуватою? Чи збігається старіння шкіри з волоссям і очима? Діпфейки можуть бути невідповідними за деякими параметрами.
- Зверніть увагу на очі та брови. Чи тіні падають у тих місцях, де ви очікуєте їх побачити? Діпфейки можуть не повністю відображати природну фізику сцени.
- Зверніть увагу на окуляри. Чи є відблиски? Чи забагато відблисків? Чи змінюється кут відблиску під час руху? Знову ж таки, діпфейки можуть не повністю відображати природну фізику освітлення.
- Зверніть увагу на волосся на обличчі або його відсутність. Чи виглядає волосся справжнім? Діпфейки можуть додавати або видаляти вуса, бакенбарди або бороду. Однак трансформація волосся на обличчі може виглядати неприродно.
- Зверніть увагу на родимки на обличчі. Чи виглядає родимка справжньою?
- Зверніть увагу на моргання. Чи людина моргає достатньо чи занадто багато?
- Зверніть увагу на рухи губ. Деякі діпфейки засновані на синхронізації губ. Чи виглядають рухи губ природними?
Сучасні інструменти ШІ можуть аналізувати ті ж самі фактори, проте з різним ступенем успіху. Фахівці з обробки даних постійно розробляють нові методи, наприклад, виявлення кровотоку на обличчях. Нові підходи можуть призвести до того, що в майбутньому інструменти ШІ будуть стабільно перевершувати людей у виявленні діпфейків.
Виявлення звукових ознак у діпфейках
Виявлення підроблених аудіозаписів – це інше завдання. Без візуальних підказок відео та можливості виявлення невідповідностей, виявлення діпфейків значною мірою покладається на аналіз аудіо (в деяких випадках може допомогти перевірка метаданих).
Дослідження, опубліковане Університетським коледжем Лондона у 2023 році, виявило, що люди можуть розпізнавати підроблене мовлення у 73% випадків (англійською та китайською мовами). Як і у випадку з діпфейк відео, люди часто інтуїтивно виявляють неприродні патерни в мовленні, створеному ШІ, навіть якщо вони не можуть точно пояснити, що саме звучить не так.
Основні ознаки підробленого аудіо:
- Невиразна дикція
- Відсутність експресії
- Фоновий шум або перешкоди
- Неузгодження голосу або манери мовлення
- Відсутність глибини голосу
- Надто завчений тон
- Відсутність природних недоліків (фальстарту, виправлень, кашлю тощо)
Алгоритми також аналізують мовлення для виявлення тих самих ознак, але нові методи роблять інструменти ШІ ефективнішими. Дослідження USENIX виявило шаблони у реконструкції голосового тракту ШІ, які не можуть імітувати природну мову. Виявлено, що генератори голосу ШІ створюють аудіо, яке відповідає вузьким голосовим трактам без природних рухів людської мови.
Ранні дослідження Інституту Горста Герца аналізували справжні та підроблені аудіозаписи англійською та японською мовами, виявивши відмінності у вищих частотах справжньої мови та діпфейків.
Як голосовий тракт, так і високочастотні відмінності сприймаються слухачами та моделями виявлення ШІ. У випадку високочастотних відмінностей, моделі ШІ теоретично можуть ставати точнішими, але те саме можна сказати і про технологію створення діпфейків.
Діпфейки обманюють і людей, і алгоритми, але по-різному
Дослідження показують, що і люди, і сучасні інструменти ШІ однаково здатні виявляти діпфейки. Рівень успіху може коливатися від 50% до 90% залежно від умов тесту.
Важливо зазначити, що люди та машини помиляються по-різному, що може стати нашим головним козирем у боротьбі з небезпеками діпфейків. Поєднання сильних сторін обох методів дозволить мінімізувати їх недоліки та підвищити загальний успіх у виявленні.
Наприклад, дослідження MIT показали, що люди краще розпізнають діпфейки світових лідерів та відомих особистостей, ніж моделі ШІ. Також встановлено, що моделі ШІ відчували труднощі при аналізі відео з кількома людьми, що, можливо, пов’язано з навчанням алгоритмів на відео з одним спікером.
Водночас, дослідження показали, що моделі ШІ краще справляються з відео низької якості (розмитими, зернистими, темними), які можуть навмисно використовуватись для обману глядачів. Також, новітні методи виявлення ШІ, як-от моніторинг кровотоку в окремих ділянках обличчя, забезпечують аналіз, на який люди не здатні.
З розвитком нових методів, здатність ШІ виявляти ознаки підробки, які ми не можемо розпізнати, буде зростати, так само як і його здатність обманювати. Питання полягає в тому, чи зможе технологія виявлення діпфейків продовжувати випереджати технологію їх створення.
Дивитися на речі по-іншому в епоху діпфейків
Інструменти виявлення діпфейків ШІ будуть постійно вдосконалюватися, як і якість самого діпфейкового контенту. Якщо здатність ШІ обманювати буде випереджати його здатність виявляти підробку (як це сталося з текстом, створеним ШІ), людське судження може стати єдиним інструментом, який у нас залишиться для боротьби з діпфейками.
Кожен повинен вивчити ознаки діпфейків та способи їх розпізнавання. Окрім захисту від шахрайства та загроз безпеці, все, що ми обговорюємо та поширюємо в Інтернеті, піддається дезінформації, якщо ми втратимо розуміння реальності.