МО США инвестирует в обнаружение дипфейков

Компания подписала контракт со стартапом Hive AI на сумму 2,4 миллиона долларов в течение двух лет.

Министерство обороны США инвестировало 2,4 миллиона долларов в течение двух лет в технологию обнаружения deep fakes Дипфейков (*глубоких подделок) от стартапа под названием Hive AI. Это первый контракт такого рода для подразделения оборонных инноваций Министерства обороны, которое ускоряет внедрение новых технологий в оборонный сектор США. Модели Hive AI способны обнаруживать видео, изображения и аудиоконтент, созданный искусственным интеллектом.

Что такое дипфейки?

Дипфейки — это технология, позволяющая создавать фальшивые видео и аудио, которые выглядят и звучат как настоящие, благодаря использованию искусственного интеллекта и генеративно-состязательных нейросетей (GAN). Эти нейросети анализируют множество изображений и видео конкретного человека, чтобы синтезировать новые материалы с его лицом и голосом

Хотя дипфейки существуют уже более 10 лет, генеративный искусственный интеллект облегчил их создание и сделал более реалистичными, чем когда-либо, что делает их пригодными для использования в кампаниях по дезинформации или мошенничестве. По словам капитана Энтони Бустаманте, руководителя проекта и оператора кибервойн в подразделении оборонных инноваций, защита от такого рода угроз сегодня имеет решающее значение для национальной безопасности.

«Эта работа представляет собой значительный шаг вперед в укреплении нашего информационного преимущества в борьбе со сложными дезинформационными кампаниями и синтетическими медийными угрозами», — говорит Бустаманте. Компания Hive была выбрана из 36 компаний для тестирования своей технологии обнаружения и атрибуции фейков в Министерстве Обороны. Контракт может позволить министерству обнаруживать и противодействовать обману ИИ в масштабах страны.

По словам Кевина Гуо, генерального директора Hive AI, защита от подделок/ дипфейков имеет «экзистенциальное значение» — «Это эволюция кибервойны».

Потенциальный вред дипфейков

Дипфейки могут использоваться для:

  • Кибербуллинга и шантажа, что делает эту технологию опасной для личной безопасности.
  • Создания порнографического контента с участием известных людей без их согласия.
  • Политических манипуляций, как это произошло с видео Нэнси Пелоси, где ее речь была искусственно замедлена для создания иллюзии алкогольного опьянения.

Технология Hive была обучена на большом количестве контента, как созданного ИИ, так и нет. Она улавливает сигналы и закономерности в контенте, создаваемом ИИ, которые незаметны для человеческого глаза, но могут быть обнаружены моделью ИИ.

«Оказалось, что каждое изображение, созданное одним из этих генераторов, содержит подобный паттерн, если знать, где его искать», — говорит Гуо. Команда Hive постоянно следит за появлением новых моделей и соответствующим образом обновляет свою технологию.

Инструменты и методологии, разработанные в рамках этой инициативы, могут быть адаптированы для более широкого использования, не только для решения специфических оборонных задач, но и для защиты гражданских учреждений от дезинформации, мошенничества и обмана, говорится в заявлении Министерства обороны.

По словам Сивэя Лю, профессора информатики и инженерии Университета Буффало, технология Hive обеспечивает современную производительность при обнаружении контента, созданного ИИ. Он не принимал участия в работе Hive, но тестировал ее инструменты обнаружения.

Бен Чжао, профессор Чикагского университета, который также провел независимую оценку технологии глубокой подделки Hive AI, согласен с ним, но отмечает, что она далеко не безотказная.

«Hive, безусловно, лучше, чем большинство коммерческих организаций и некоторые исследовательские методы, которые мы пробовали, но мы также показали, что ее совсем не сложно обойти», — говорит Чжао. Команда обнаружила, что противники могут подделывать изображения таким образом, чтобы обойти обнаружение Hive.

Учитывая стремительное развитие технологий генеративного ИИ, пока неясно, как они проявят себя в реальных сценариях, с которыми может столкнуться оборонный сектор, добавляет Лю.

Го говорит, что Hive предоставляет свои модели Министерству обороны, чтобы сотрудники ведомства могли использовать инструменты в автономном режиме и на своих собственных устройствах. Это позволит избежать утечки конфиденциальной информации.

Но когда речь идет о защите национальной безопасности от изощренных государственных акторов, готовых продуктов недостаточно, говорит Чжао: «Они мало что могут сделать, чтобы стать абсолютно устойчивыми к непредвиденным атакам на уровне государства».

Total
1
Shares
Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Предыдущая новость
что вам нужно знать о чат-боте

ChatGPT: все, что вам нужно знать о чат-боте на основе ИИ

Следующая новость

Компания Илона Маска xAI получает 6 миллиардов долларов на развитие ИИ

Читайте также
персонажи Minecraft с ИИ делали странные человеческие вещи

Эти персонажи Minecraft с искусственным интеллектом сами делали странные человеческие вещи

Сотни ИИ-агентов на базе LLM спонтанно заводили друзей, изобретали работу и распространяли религию. Предоставленная сама себе, армия персонажей…
Читать