Изкуственият интелект срещу фалшивото порно - първи рунд

Лицевото разпознаване и програмите, които помагат на устройствата ни да се "самообучават", вече са общодостъпни, а интернет ги използва, за да създава фалшиво порно. Благодарение на изкуствен интелект потребителите правят клипове, в които нечие лице, най-често на някоя знаменитост, е насложено върху тялото на порноактриса. Така можете да видите клип с предполагаемата Гал Гадот, която спи с брат си, или с Ема Уотсън например.

Премахването на тези така наречени deepfakes се оказва предизвикателство за сайтове като Reddit, PornHub и други. Платформата за хостинг на GIF-ове Gfycat обаче смята, че е намерила решение на проблема.

Повечето платформи, които се борят с deepfake съдържанието, го правят като търсят по ключови думи и добавените от потребителите тагове. От Gfycat казват, че са открили собствен начин да засичат фалшивите видеа. Технологията разчита на огромен брой алгоритми, които Gfycat вече използват, за да индексират GIF-овете в сайта си. Те демонстрират как другите страници могат да се справят с deepfake-овете.

Тази виртуална битка ще става все по-важна, тъй като платформи като Snapchat смятат, че съдържанието, добавено от потребители, може да бъде прието за журналистика.

Gfycat има 200 млн. активни потребители ежедневно и също иска да въведе по-съвършен начин за справяне с deepfake-овете. Засега PornHub се проваля в опитите си да премахне някои от тези клипове, а част от тях вече имат милиони гледания. Reddit изтри голям брой deepfake-общности, но продължават да изскачат подразделения като r/DeepFakeRequests.

Очевидно се полагат усилия, които не бива да бъдат подценявани, но и си личи колко е трудно популярни сайтове да се модерират от хора. Особено ако се окаже, че компютрите могат да засичат deepfake-ове без да е необходима човешка намеса.

Тактиката на Gfycat включва изкуствен интелект, който има два достатъчно добре разработени инструмента.

И двата, както можете да се досетите, са кръстени на котки - проект "Ангора" и проект "Мару" (кръстен на котката - интернет сензация от Япония). Когато потребител качи GIF с лошо качество, например на Тейлър Суифт, проект "Ангора" претърсва интернет за такъв с по-висока резолюция, за да го замени. С други думи, намира същия клип на Тейлър, пееща "Shake it off", но в подобрена версия.

Да речем, че не сте сложили таг "Тейлър Суифт" на клипчето. Това не е проблем. Проектът "Мару" може да прави разлика между отделните лица и автоматично ще прибавя тага с името на Суифт. За Gfycat това има значение - те искат милионите клипове в сайта да бъдат индексирани.

Ето тук идва проблемът на deepfake-овете. Създадени са от аматьори и при повечето от тях си личи, че не са достоверни. Разбира се, човешкият мозък довършва работата като запълва празнотите, в които технологията се е провалила.

Проектът "Мару" е далеч по-безкомпромисен от мозъка. Когато служители на Gfycat го използват върху deepfake, той регистрира, че обектът прилича на Тейлър Суифт, но не достатъчно, за да отбележи пълно съвпадение, защото дигитално насложеното лице не пасва перфектно във всеки отделен кадър.

"Мару" е единият начин, по който Gfycat засичат deepfake-ове, в които героят напомня на знаменитост, но само отчасти.

Само че "Мару" не може да спре сам всички deepfake-ове. Даже е възможно да причини вреди, защото ще ги направи по-фино направени. За да реши и тази дилема, Gfycat създава алгоритми, които работят по подобен на "Ангора" начин.

Ако те заподозрат, че дадено видео е променено с цел да включва нечие друго лице, за което "Мару" не е сигурен, компанията може да потърси дали тялото на кадрите не съществува някъде другаде в дигиталното пространство. За видео, в което лицето на Тръмп е добавено на тялото на Меркел, изкуственият интелект може да претърси интернет и да намери оригиналните кадри от речта State of the Union. Ако двете версии не си паснат, системата си прави заключението, че едната от тях е манипулирана.

Deepfake на Меркел с лицето на Тръмп

Gfycat планира да използва технологията не само за материали с еротично съдържание, но и за псевдонаучни видеа например.

Сайтът винаги е разчитал на изкуствения интелект, за да категоризира, управлява и модерира съдържанието си. Бързите темпове на развитие на ИИ имат потенциала да променят света и технологиите трябва да бъдат адаптирани към това развитие, казва изпълнителният директор на Gfycat Ричард Рабит.

Алгоритмите обаче няма да сработят поне при един сценарий - лице и/ или тяло, които не съществуват никъде другаде онлайн. Някой може да заснеме порно и след това дигитално да прибави чуждо лице. Ако участниците не са известни и кадрите не са достъпни онлайн, "Мару" и "Ангора" няма как да разберат дали съдържанието е променено, или не.

За момента това изглежда сравнително малко вероятно, след като създаването на deepfake-oве изисква достъп до широк набор от видеоклипове и снимки. Но и не е трудно да си представим бившо гадже, използващо кадри от телефона си, и жертва, която никога не се е появявала публично.

И дори и при клиповете, които включват порнозвезди и знаменитости понякога изкуственият интелект не е сигурен в преценката си.

По тази причина Gfycat наема и хора, които да се занимават с модерацията. Освен това компанията използва и други мета данни, например кой е ъплоуднал клипа или кой го е споделил, за да разберат дали е deepfake.

А и не всички deepfake-ове са злонамерени. Примери като този с Меркел-Тръмп са просто политическа сатира за забавление. Има и други варианти за прилагане на технологията. Например, някой да бъде направен анонимен, за да се скрие личността му с цел неговата защита.

Въпреки това е лесно да разберем защо толкова много хора намират deepfake-овете за обезпокоителни. Те показват бъдеще, в което няма как да кажеш дали едно видео е реално, или фалшифицирано - факт, който може да бъде използван за пропаганда или злоупотреби. Русия "наводни" Twitter с фалшиви ботове по време на американските президентски избори през 2016-а, а през 2020-а може да направи същото, само че с манипулирани видеа.

Gfycat предлага потенциално решение, поне засега, но е въпрос на време, докато създателите на deepfake-ове не се научат да заобикалят новата доза препятствия. Сигурен начин за справяне с тях може да отнеме години - далеч сме от технологии, които могат да сканират изцяло и подробно сайтове като Reddit и PornHub и категорично да определят дали всяко едно видео в тях е истинско.

А ако някой иска да заблуди системата, ще започне да прави все по-добри и по-неразличими deepfake-ове.

Трябва да бъдат инсталирани много различни протоколи, проектирани да откриват измамните изображения, за да стане изключително трудно да се създаде неуловим deepfake. Към момента алгоритмите могат да ви затруднят и да ви забавят да правите фалшиви клипове, но няма да ви спрат напълно.

А и засега Gfycat е единствената платформа, която се опитва да премахне deepfake-овете с помощта на изкуствен интелект. От PornHub са категорични, че не използват такъв, а от Reddit отказват да разкрият това с оглед, че не искат да издават начина, по който модерират сайта, за да не улесняват недоброжелателите.

В момента всеки ден онлайн се качват милиони клипове. Само в YouTube на минута се публикува съдържание с времетраене 300 минути. И в тази абсурдно натоварена ситуация, за да се избегнат злоупотребите, към хората, които посочват кои кадри не са истински, е по-добре да прибавим и компютри, които вършат същото.

Новините

Най-четените