Если не принять меры, то вскоре мы не сможем доверять опубликованным в интернете фотографиям

Мы стремительно приближаемся к тому моменту, когда будем вынуждены признаться себе в том, что не можем доверять ни одной опубликованной в интернете фотографии. И виной тому искусственный интеллект, инструменты на основе которого уже сегодня позволяют сгенерировать практически любое фото. И если поддельные снимки, сделанные любителями с помощью бесплатных инструментов, пока еще можно распознать, хотя и с трудом, то выполненные профессионалами изображения ничем не отличаются от реальных.

Можно вспомнить фейковые снимки с изображением Дональда Трампа в окружении арестовавших его полицейских; Илона Маска, держащего за руку свою конкурентку – гендиректора General Motors Мэри Барр; Владимира Путина, преклонившего колено перед председателем КНР Си Цзиньпином и целующего ему руку, и так далее. Сведущие люди поймут, что речь идет о фейках, но таковых людей относительно немного. Большинство удовлетворятся тем, что фото выглядят «как настоящие», и примут их за реальные.

Компания Google, естественно, не желает допустить того, чтобы пользователи сомневались в реальности найденных поисковиком фото, и потому разрабатывает новые технологии, которые помогут отслеживать происхождение и подлинность изображений, созданных ИИ. Компания сообщила, что планирует маркировать такие изображения специальными знаками, которые будут указывать на то, что они были сгенерированы или изменены ИИ. Это поможет пользователям лучше понимать, что они видят в интернете, и принимать более осознанные решения.

Google будет отслеживать происхождение изображений


Одна из технологий, которую разрабатывает Google, называется Assembled Attribution. Это система, которая анализирует изображение и определяет его источник и компоненты. Система использует алгоритмы ИИ для выявления признаков, которые указывают на то, что изображение было сгенерировано или изменено с помощью ИИ. Например, система может обнаружить аномалии в текстуре кожи, волос или глаз человека на фотографии. Система также может определить, какие части изображения были скопированы или склеены из других источников.

Функция Assembled Attribution может предоставить пользователю детальный отчет о происхождении изображения, включая ссылки на исходные материалы и методы генерации или редактирования. Это поможет пользователю проверить достоверность изображения и выявить возможные мотивы его создания.

Google будет маркировать поддельные изображения

Другая технология, которую разрабатывает Google, называется OriginStamp. Это система, которая добавляет специальный значок к изображению, которое было сгенерировано или изменено ИИ. Значок содержит информацию о том, кто создал изображение и с какой целью. Значок содержит зашифрованный код, который можно проверить с помощью специального приложения или веб-сайта. Это позволит пользователю подтвердить подлинность значка и получить дополнительную информацию об изображении.

Система OriginStamp основана на концепции цифровой подписи и блокчейна. Цифровая подпись – это уникальный идентификатор, который создается с помощью криптографического алгоритма и связывает изображение с его создателем. Блокчейн – это распределенная база данных, которая хранит записи о всех транзакциях, связанных с изображением. Это обеспечивает прозрачность и невозможность подделки значка.

НЭП. Фото: Pixabay √

Метки:


Читайте также