Según se informa, Google Photos puede mostrar créditos de imágenes de IA para proteger a los usuarios de instancias deepfake

Según se informa, Google Photos está agregando una nueva función que permite a los usuarios verificar si una imagen fue creada o mejorada utilizando inteligencia artificial (IA) o no. Según los informes, el servicio de almacenamiento e intercambio de fotos y videos recibirá una nueva etiqueta de recurso de identificación que revelará la información de IA de la imagen, así como el tipo de fuente digital. Es probable que el gigante tecnológico con sede en Mountain View esté trabajando en esta función para reducir la incidencia de deepfakes. Sin embargo, no está claro cómo se mostrará la información a los usuarios.

Atribución de IA de Google Fotos

Los deepfakes se han convertido en los últimos años en una nueva forma de manipulación digital. Se trata de imágenes, vídeos, archivos de audio u otros medios similares generados digitalmente mediante inteligencia artificial o mejorados de alguna manera para difundir información errónea o engañar a las personas. Por ejemplo, el actor Amitabh Bachchan presentó recientemente una demanda contra el propietario de una empresa por publicar un anuncio de vídeo falso en el que se veía al actor promocionando los productos de la empresa.

Según la autoridad de Android informeUna nueva función en la aplicación Google Photos permitirá a los usuarios ver si las imágenes de su galería se crearon mediante medios digitales. Esta función es visible en la versión 7.3 de la aplicación Google Photos. Sin embargo, esta no es una característica activa, lo que significa que los usuarios de la última versión de la aplicación no podrán verla todavía.

Dentro de los archivos de diseño, la publicación encontró un nuevo conjunto de código XML que condujo a este desarrollo. Este es un ID de recurso, que es un identificador asignado a un elemento o recurso específico en la aplicación. Según se informa, uno de ellos contiene la frase “ai_info”, que se cree que se refiere a la información agregada a los metadatos de una imagen. Esta sección debe etiquetarse si la imagen fue generada por una herramienta de inteligencia artificial que cumple con los protocolos de transparencia.

Además, se cree que la etiqueta “digital_source_type” se refiere al nombre de la herramienta o modelo de IA utilizado para generar o mejorar la imagen. Esto puede incluir nombres como Géminis, Midjourney y otros.

Sin embargo, actualmente no hay certeza sobre cómo quiere Google mostrar esta información. Idealmente, esto se puede agregar a los datos del formato de archivo de imagen intercambiable (EXIF) incrustados en la imagen para que haya menos formas de dañarla. Pero la desventaja es que los usuarios no podrán ver esta información fácilmente a menos que abran la página de metadatos. Alternativamente, la aplicación podría agregar insignias a las imágenes para mostrar imágenes de IA, similar a lo que hace Meta en Instagram.

Fuente