Международная ассоциация по фактчекингу GFCN объявила конкурс на выявление дипфейков
На форуме «Технологии доверенного искусственного интеллекта» разработчики системы обнаружения дипфейков со всего мира предложили проверить эффективность своего программного обеспечения. Конкурс Deepfake Detection Contest организован Международной ассоциацией по фактчекингу Global Fact-Checking Network.
Для участия в конкурсе необходимо применить свою систему для выявления дипфейков на заранее подготовленном датасете материалов. Прием заявок начнется в конце мая 2025 года.
«Международный конкурс по выявлению дипфейков Deepfake Detection Contest позволит определить уровень развития системы, использующихся в разных странах, и изучить новые методы противодействия фейкам. Результаты будут объявлены на международном форуме «Диалог о фейках 3.0» в ноябре этого года», — рассказал руководитель направления креативных проектов управления по противодействию недостоверной информации АНО «Диалог Регионов».
По данным исследования GFCN, за 5,5 месяца 2025 года выявлено 13 процентов больше общему количеству дипфейков, обнаруженных за весь 2024 год, и в 3,9 раза больше, чем за весь 2023 год.
Несмотря на то, что технологии создания генеративного контента уже активно используются, создателей современных решений для борьбы с угрозой на рынке мало, подчеркнул директор филиала ФГУП НИИ «Квант» Дмитрий Бирин.
«Таких организаций, которые занимаются созданием детекторов, немного. При этом нет ни одной, у которой качество детектора является наилучшим для всех генераторов фейков. Поэтому важной задачей является создание комплексного решения, которое бы интегрировало достижения разных разработчиков в рамках лучшего универсального детектора», — добавил он.
Как отметил директор мегасектора транспортных информационных технологий ИТМО, руководитель исследовательского центра «Сильный искусственный интеллект в промышленности» Александр Бухановский, должна быть команда предметных специалистов, которая будет сопровождать внедрение технологии.
«Обязательно должны быть разные роли — эксперты и критики, которые будут тестировать нейросеть не на простых тестах, а на каверзных вопросах», — уточнил Бухановский.
О том, какой подход к определению дипфейков в медиа и при фактчеке наиболее эффективен, рассказала заместитель директора по развитию продуктов VisionLabs Татьяна Дешкина. По ее словам, чтобы определить, кто справляется лучше с определением дипфейка — искусственный интеллект или человек — в первую очередь нужно понимать, какие перед ними стоят задачи.
«Но в большинстве случаев я выступаю за синергию. Человек может ошибиться, поскольку не ожидает атаку и его можно спровоцировать на импульсивные действия. В этом случае нейросеть может стать мощным «помощником», тем более что сегодня мы имеем дело с таким качеством подделок, что люди уже не могут отличить их от реальных изображений, видео или голоса», — заключила эксперт.