Cómo una imagen falsa de IA del huracán Milton podría tener consecuencias reales

Es posible que las imágenes y vídeos del huracán Milton generados por IA no sean sólo un molesto cebo para hacer clic. También pueden estar vinculados a campañas de fraude y desinformación.

A raíz del huracán de categoría 3 que azotó partes de Florida, las plataformas de redes sociales como X, TikTok y Facebook se vieron inundadas de contenido generado por IA. Algunas imágenes y videos generados por IA son más fáciles de reconocer que otros, como imágenes y videos que claramente están hechos para reír. imagen sobre una niña abrazando a un cocodrilo en un barco bajo la lluvia torrencial.

Otros son más convincentes, como la imagen generada por IA de un Disney World inundado que inicialmente engañó a mucha gente e incluso tuvo éxito. compartido por los medios de propaganda rusos.

El impacto puede ser la difusión de desinformación, y esto ya es bastante malo, pero la basura de Internet generada por la IA también se está utilizando para atraer a las personas a cometer fraude.

VER TAMBIÉN:

Cómo identificar imágenes generadas por IA

El agua sucia del huracán Milton AI está en todas partes

A estas alturas muchos han visto imágenes falsas de los pasillos submarinos de Disney World. Pero desplácese rápidamente en TikTok espectáculo Imágenes generadas por IA del huracán Milton causando estragos.

Algunos videos están etiquetados como generados por IA con hashtags o subtítulos, pero es fácil imaginar cómo otros podrían compartirlos y explotarlos. Karen Panetta, becaria del IEEE y profesora de ingeniería eléctrica e informática en la Universidad de Tufts, explica cómo el contenido generado por IA puede utilizarse como arma para incitar al pánico y la confusión. “Menos del 30 por ciento de nuestra población adulta comprende lo que puede hacer la IA. Entonces, si difundes información errónea al público en general con titulares aterradores, mucha gente entrará en pánico”, dijo Panetta.

Velocidad destructible de la luz

Para ser claros, el daño causado por el huracán Milton es muy real. Pero cuando se utiliza contenido generado por IA, los usuarios cuestionan la realidad. Esto, a su vez, puede crear desconfianza y un terreno fértil para un torbellino de teorías conspirativas. Por ejemplo, una X usuario Afirmó que las imágenes del astronauta de la NASA Matthew Dominick eran falsas e incluso afirmó que Dominick no estaba en el espacio. La grabación ya existe. verificado como auténtico.

Pero lo que es más confuso es que las autoridades han cuestionado varias imágenes de satélite que afirman ser imágenes del huracán Milton. snopes debido a texto incorrecto o creado por AI.

Tenga cuidado con las estafas que utilizan imágenes generadas por IA

Además de la desinformación y la desinformación tras el huracán Milton, los expertos aconsejan estar atentos a las estafas. Comisión Federal de Comercio publicado comunicado de prensa el día antes del aterrizaje de Milton, advirtiendo a los consumidores que tuvieran cuidado con “aquellos que buscan aprovechar los desastres naturales participando en posibles fraudes o aumento de precios”.

Y según Panetta, las estafas como las de organizaciones benéficas falsas pueden volverse más persuasivas mediante el uso de IA generativa. “En cualquier desastre siempre sucede algo en alguna parte [scammers] Intentó crear una página web para una recaudación de fondos no autorizada”, dijo Panetta. “Lo que está sucediendo ahora es que debido a la facilidad de acceso a las imágenes generadas por IA, se está utilizando para agregar credibilidad y decir: ‘Mira, no soy sólo yo quien pide dinero. Mira qué terrible es esto.”

La imagen viral generada por IA de una niña sosteniendo un cachorro y llorando después del huracán Helene es un ejemplo perfecto de cómo una imagen puede tocar las fibras del corazón y evocar el deseo de donar, incluso si es falsa. Aunque los usuarios de Internet más expertos pueden darse cuenta de que es falso, otros tal vez no lo sepan y estas personas son blancos fáciles para el fraude.

Algunas de las imágenes del huracán Milton generadas por IA pueden parecer ejemplos inofensivos de un niño que quiere mostrar sus habilidades generativas de IA. Pero ese no es siempre el caso. Una falsa sensación de inocencia puede ser parte de la estratagema para tomar a la gente con la guardia baja. “Es toda una estrategia. ¿Cómo atraigo a la gente? Y una vez que te he convencido de que soy legítimo, surge una pregunta”, dijo Panetta.

“Al final siempre hay dinero”, añadió.

Si bien los desastres naturales como el huracán Milton pueden dejar a las personas especialmente vulnerables, es fundamental aplicar el pensamiento crítico y pensar dos veces antes de reaccionar ante cualquier cosa en línea. La FTC dice que las estafas a menudo exigen el pago mediante transferencia bancaria, tarjetas de regalo, aplicaciones de pago, criptomonedas o efectivo, y recomienda verificarlas. recurso sobre cómo evitar estafas después de una emergencia climática.

Tema
Inteligencia artificial



Fuente