Новый веб-приложение предназначено для того, чтобы сигнализировать, что работы не должны включаться в базы данных для обучения моделей. Adobe анонсировала новый инструмент, который поможет создателям ставить водяные знаки на свои произведения и отказаться от их использования для обучения генеративных моделей ИИ.
Веб-приложение под названием Adobe Content Authenticity позволяет художникам сообщать, что они не согласны на использование своих работ моделями ИИ, которые обычно обучаются на обширных базах данных контента, собранного из интернета. Также оно дает создателям возможность добавлять то, что Adobe называет «учетными данными контента», включая их проверенную личность, ссылки на социальные сети или другие онлайн-ресурсы, к своим работам.
Учетные данные контента основаны на C2PA — интернет-протоколе, который использует криптографию для безопасной маркировки изображений, видео и аудио с информацией о их происхождении, что является эквивалентом подписи художника в 21 веке.
Хотя Adobe уже интегрировала учетные данные в несколько своих продуктов, включая Photoshop и собственную генеративную модель Firefly, Adobe Content Authenticity позволяет создателям применять их к контенту, независимо от того, были ли они созданы с использованием инструментов Adobe. Компания запустит публичную бета-версию в начале 2025 года.
Новое приложение — шаг в правильном направлении для распространения C2PA и может облегчить создателям добавление учетных данных контента к своим работам, говорит Клэр Лейбовиц, руководитель отдела ИИ и медиа-интегритета в некоммерческой организации Partnership on AI.
«Я думаю, что Adobe, по крайней мере, начинает культурный диалог, позволяя создателям общаться и чувствовать себя более уверенно», — говорит она. «Но вопрос о том, ответят ли люди на предупреждение ‘Не обучать’, остается открытым».
Это приложение присоединяется к растущему числу инструментов ИИ, предназначенных для помощи художникам в борьбе с технологическими компаниями, затрудняя тем самым этим компаниям сбор их авторских работ без согласия или компенсации. В прошлом году исследователи из Чикагского университета выпустили Nightshade и Glaze — два инструмента, которые позволяют пользователям добавлять невидимую атаку на свои изображения. Один из них заставляет модели ИИ сбиваться с толку, когда защищенный контент собирается, а другой скрывает художественный стиль человека от моделей ИИ. Adobe также разработала расширение для браузера Chrome, которое позволяет пользователям проверять контент веб-сайтов на наличие существующих учетных данных.
Пользователи Adobe Content Authenticity смогут прикреплять к загружаемому контенту столько информации, сколько захотят. Поскольку достаточно легко случайно удалить уникальные метаданные содержимого при подготовке его к загрузке на веб-сайт, Adobe использует комбинацию методов, включая цифровую отпечатковую идентификацию и невидимое водяное знаковое сопровождение, а также криптографические метаданные.
Это означает, что учетные данные контента будут следовать за изображением, аудио или видеофайлом по всему интернету, так что данные не будут потеряны, если они загружаются на разных платформах. Даже если кто-то сделает скриншот контента, Adobe утверждает, что учетные данные все равно можно будет восстановить.
Тем не менее, компания признает, что инструмент далеко не безупречен. «Тот, кто говорит вам, что их водяной знак на 100% защищен, лжет», — говорит Эли Гринфилд, технический директор Adobe по цифровым медиа. «Это защита от случайного или непреднамеренного удаления, а не от каких-то злонамеренных действий».
Отношения компании с художественным сообществом сложны. В феврале Adobe обновила свои условия обслуживания, чтобы получить доступ к контенту пользователей «как автоматическими, так и ручными методами», и указала, что использует методы машинного обучения для улучшения своих расплывчатых «услуг и программного обеспечения». Это обновление вызвало резкую реакцию со стороны художников, которые восприняли его как намерение компании использовать их работы для обучения Firefly. Позже Adobe уточнила, что речь идет о функциях, не связанных с генеративным ИИ, включая инструмент Photoshop, который удаляет объекты из изображений.
Хотя Adobe утверждает, что не использует (и не будет использовать) пользовательский контент для обучения своего ИИ, многие художники утверждают, что компания на самом деле не получает согласие или права на изображения отдельных авторов, говорит Нил Тюркевиц, активист по правам художников и бывший вице-президент Ассоциации звукозаписывающей индустрии США.
«Не потребуется значительных усилий, чтобы Adobe на самом деле стала по-настоящему этическим игроком в этой области и продемонстрировала лидерство», — говорит он. «Но здорово, что компании занимаются происхождением контента и улучшают инструменты для метаданных, которые являются частью окончательного решения по решению этих проблем».