15 мая 2026 г.
Новости технологий

Контент, созданный ИИ, должен быть помечен, если он не проверен человеком

Евгений Бронников··2 мин
Контент, созданный ИИ, должен быть помечен, если он не проверен человеком

Европейский союз внедряет новые правила, согласно которым контент, сгенерированный искусственным интеллектом (ИИ) — будь то текст, изображения, аудио или видео — должен быть четко и недвусмысленно помечен как таковой. Это обязательство, закрепленное в статье 50 Акта об ИИ (AI Act), направлено на борьбу с дезинформацией и обманом. Однако есть важное исключение: контент, созданный ИИ, который прошел проверку человеком или редакционный контроль, может быть освобожден от этого требования прозрачности.

Европейская комиссия запустила публичные консультации по проекту руководящих принципов, касающихся этих обязательств по прозрачности, которые продлятся до 3 июня. Хотя Акт об ИИ вступил в силу в августе 2024 года, многие его положения всё ещё уточняются и дорабатываются.

Основная цель этих мер – снизить риски, связанные с подделкой личности, мошенничеством и введением в заблуждение. Пользователи должны иметь возможность легко отличить контент, созданный ИИ, от контента, созданного человеком, и проверять его происхождение.

Новые правила распространяются на широкий спектр контента, включая:

  • Смешанный контент, в котором ИИ дополняет или изменяет материалы, созданные человеком.
  • Цифровые двойники.
  • Генеративный ИИ, используемый для создания или манипулирования медицинскими изображениями, а также для оценки результатов обучения, приводящих к текстовым решениям или рекомендациям.
  • Агентные системы ИИ, которые взаимодействуют с физической или виртуальной средой и генерируют синтетический аудио-, визуальный, видео- или текстовый контент.

Поставщики и операторы ИИ-систем обязаны информировать пользователей, когда те взаимодействуют с "синтетическими интерактивными системами" или просматривают контент, сгенерированный или измененный ИИ. Исключение делается для действий, осуществляемых "исключительно в личных и непрофессиональных целях".

Однако это личное исключение имеет свои ограничения. Оно не распространяется на преступную деятельность или на "глубокие фейки" (deepfakes) и другой ИИ-генерированный контент "политического характера", который может влиять на публичные дебаты по вопросам, представляющим общественный интерес. Например, создание дипфейков для поздравительных открыток членам семьи будет считаться личным использованием, но дипфейки, критикующие политиков, должны быть помечены как ИИ-генерированные.

Даже в случаях личного использования, генератор контента ИИ должен "татуировать" его таким образом, чтобы автоматизированные детекторы могли идентифицировать его как синтетический.

Эта инициатива направлена на повышение доверия к информационной экосистеме. Содержание должно быть помечено во время создания "несмываемым" способом, как объясняет Патрик Бас, директор по исследованиям CNRS и специалист по невидимым цифровым водяным знакам. Это гарантирует, что контент будет идентифицироваться как синтетический, даже если его метаданные были изменены или если контент был снят скриншотом или пересканирован. Существуют две основные техники: цифровая подпись в метаданных (которая может быть изменена) и водяные знаки, которые Бас называет "татуировкой", поскольку их невозможно удалить.

Издатели и операторы также должны информировать пользователей о дипфейках и публикациях, созданных ИИ, "по вопросам, представляющим общественный интерес", с некоторыми исключениями. Проект руководящих принципов подчеркивает, что поддержание доверия и целостности информационной экосистемы является общей ответственностью, и другие участники, действующие в рамках своей профессиональной деятельности, также поощряются к принятию мер по информированию пользователей об искусственном или измененном характере контента.

В целом, контент должен быть "татуирован в машиночитаемом формате".