В Российской Федерации обсуждается внедрение маркировки информации, изображений, видео, созданных с применением искусственного интеллекта.  Основной контент создается на основе различных версий GPT-чатов, генерирующих тексты и изображения, появление которых несет несколько рисков, как основным относятся: использование deepfake технологии и опубликование сгенерированной информации.

Баракина Елена Юрьевна, канд. юрид. наук, доцент кафедры международного и публичного права Юридического факультета Финансового университета при Правительстве РФ

Во-первых, риски, связанные с появлением и большим распространением в настоящее время так называемых «deepfake» технологий, которые подменяют изображение, а фактически нацелены на распространение подложной информации или дезинформации. Кроме этого, сгенерированные изображения активно используются в рекламной сфере, в судебной практике уже есть прецеденты, когда узнаваемые и широко известные люди вынуждены были отстаивать в суде свои права, т.к.   организации используют сгенерированный образ, явно вызывающий ассоциацию с конкретным человеком, в рекламе товаров или услуг, в том числе в сети «Интернет». Судом в таких случаях назначается судебно-портретная экспертиза, которая устанавливает доминирующие признаки во внешнем облике изображаемого лица. Следовательно, риск несанкционированного распространения, иногда порочащего содержания, изображения может реализоваться по средствам сгенерированного контента.


Баракина Елена Юрьевна, канд. юрид. наук, доцент кафедры международного и публичного права Юридического факультета Финансового университета при Правительстве РФ.

Во-вторых, риск получить «заряженную» информацию, т.е. несущую определенное мнение, занесенное в генеративную систему, к которой большинство пользователей относится, как к объективным данным. Не секрет, что GPT-чаты выдают ту информацию, которой их «научил» создатель, т.е. сгенерированный текст – это субъективное мнение разработчика такого чата или определенной общественной среды, поэтому люди, читающие данную информацию имеют право знать её источник, чтобы понимать и соотносить эти данные не с изданием, опубликовавшим материалы, а непосредственно с конкретным программным продуктом. 


Попова Анна Владиславовна, д-р. юрид. наук, канд. филос. наук, профессор кафедры международного и публичного права Юридического факультета Финансового университета при Правительстве РФ.
Попова Анна Владиславовна, д-р. юрид. наук, канд. филос. наук, профессор кафедры международного и публичного права Юридического факультета Финансового университета при Правительстве РФ

О маркировке ИИ-контента задумываются не только в нашей стране. Например, Министерство торговли США разработало руководство по маркировке контента, созданного искусственным интеллектом. Компании, занимающиеся искусственным интеллектом, будут использовать это руководство для разработки инструментов маркировки и нанесения водяных знаков, которые будут приняты на вооружение федеральными агентствами. В ЕС ярлыки должны применяться ко всем материалам, созданным ИИ, которые могут быть использованы для создания дезинформации, включая текст, изображения, аудио и видео. Администрация киберпространства Китая выпустила правила, запрещающие создание любых медиафайлов, созданных искусственным интеллектом, без каких-либо четких этикеток, включая водяные знаки и многое другое. По мнению китайского регулятора, искусственно созданный контент может нанести вред законным интересам и правам людей и даже поставить под угрозу национальную безопасность страны.

Таким образом, маркировка в виде водяных знаков или иных обозначений постепенно вводится в других странах, т.к. ИИ-контент становится все более распространен в мире. Данная мера полностью обоснована и необходима для оценки информации.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *