27.10.2023      21      0
 

Google добавит новый инструмент, который позволит отличить настоящее изображение от созданного нейросетью


Главное:

  • Компания Google запустила новую функцию, помогающую пользователям идентифицировать контент, созданный искусственным интеллектом, и предоставляющую информацию об истории изображения, его метаданных и использовании.
  • Функция призвана помочь пользователям отличать подлинные изображения от сфабрикованных, решая проблему определения фактов и вымысла в Интернете.
  • Это часть более широкой программы Google по борьбе с дезинформацией и предоставлению инструментов проверки фактов, позволяющих пользователям принимать взвешенные решения при просмотре сайтов.

Бум развития нейросетей породил волну текстов, картинок и видео, которые сложно отличить от настоящих, тех, которые снимали и писали люди. И чем лучше становятся алгоритмы, тем меньше шансов отличить вымысел от правды.

Хуже всего то, что нет стабильных алгоритмов, которые бы могли делать это за человека — фильтровать искусственно созданный контент от того, который был создан человеком.

С этим необходимо что-то делать, потому что сфабрикованного контента в интернете с каждым днём становится всё больше и больше.

Компания Google решила сделать первый шаг на пути маркировки фото, которые были созданы с помощью ИИ.

Компания Google в своём официальном блоке сделала запись от 25 октября о том, что запускает новый инструмент проверки изображений в поиске.

Теперь при просмотре изображения в результатах поиска Google можно щелкнуть на опции «Об этом изображении», чтобы получить дополнительную информацию.

История изображения позволяет лучше понять его возраст и определить, не было ли оно использовано повторно или вырвано из контекста.

Также новый инструмент Google по определению поддельных изображений будет использовать мета-данные, которые записаны в свойствах графического файла.

Итак, новый инструмент использует три источника данных для определения подлинности фотографий:
Инструмент Google по определению изображения созданного нейросетью

  1. Чтение мета-тегов изображения.
  2. Наблюдение за историей изображения — на каких сайтах размещён, когда и как его описывают на этих сайтах.
  3. Как реагируют пользователи на изображение, отмечают ли они его фейком или нет.

Хорошо, что сделан первый шаг на пути определения сфабрикованных фотографий, но уже сейчас понятно, что указанные Google методы не могут дать по-настоящему достоверной информации.

Если не учитывать то, как картинку описывает тот или иной сайт, где она впервые появилась, то единственные данные, на которые опираются алгоритмы Google — это мета-данные графического файла.

Напомню, что мета-данные легко редактируются в любом графическом редакторе. И если тот, кто создал фото с помощью нейросети намеренно желает скрыть факт генерации изображения, он это сделает за несколько секунд удалив мета-данные из файла.

Поэтому инструмент Google опирается на общественно мнение и честность людей, которые размещают в сети изображения созданные с помощью нейросети.

Понятно, что этот инструмент окажется бессильным перед намеренным искажением действительности.

И если сегодня мы можем на глаз определить многие картинки, которые рисуют нейросети вследствие их несовершенства, то сделать это через несколько лет будет неимоверно сложнее, чем сегодня. Алгоритмы генерации развиваются очень быстро, и подобный подход, которые предлагает Google прост не сможет работать.


Об авторе: MiMaster

Привет, меня зовут Тимур. Я с детства увлекался компьютерами и IT-Индустрией, мне это нравится, это моя страсть. Последние несколько лет глубоко увлёкся компанией Xiaomi: идеологией, техникой и уникальным подходом к взрывному росту бизнеса. Владею многими гаджетами Xiaomi и делюсь опытом их использования, но главное - решением проблем и казусов, возникающих при неожиданных обстоятельствах, на страницах сайта mi-check.ru

Ваш комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Для отправки комментария, поставьте отметку, что разрешаете сбор и обработку ваших персональных данных . Политика конфиденциальности