Cómo saber si una imagen es real o creada por inteligencia artificial

Aproximarnos con cautela a las imágenes extrañas, estar atento a los detalles y contrastar las fuentes resultan clave en este análisis

En tiempos en donde la Inteligencia Artificial (IA) vuelve cada vez más compleja, la frontera entre lo real y lo generado por algoritmos, se brindará a continuación una serie de pautas a tener en cuenta para no caer en la trampa de las imágenes falsas que, vaya paradoja, hasta han recibido premios.

Tal es el caso emblemático del artista alemán Boris Eldagsen, quien ganó el Sony World Photography Awards con una imagen creada mediante IA, pero renunció al premio para abrir el debate sobre la autenticidad en el arte fotográfico.

Otro ejemplo de las llamadas deepfakes es el de la imagen viral del papa Francisco, en donde se lo ve luciendo un abrigo blanco de Balenciaga, que, a pesar de su apariencia realista, presentaba detalles anómalos como una oreja distorsionada y gafas mal definidas, evidenciando su origen artificial.

 

La polémica foto de L-Gante en medio del luto por el papa Francisco: "Se cumple la profecía"

Más preocupante es el uso de IA para crear contenido sexual de menores. Recientemente, se han reportado casos donde adolescentes utilizaron herramientas de IA para generar y distribuir imágenes pornográficas de compañeras de clase sin su consentimiento, lo que ha llevado a la aprobación de leyes específicas para sancionar estas prácticas en algunas partes del mundo, aunque no aún en Argentina.

Para identificar si una imagen fue generada por IA, vamos a cotejar estos cinco aspectos que nos van a prevenir y ayudar para no caer en la trampa de las imágenes falsas. 

Qué son los metadatos y por qué pueden darnos pistas sobre una imagen

Es importante aclarar que el origen de las imágenes se identifica en la descripción y/o comentarios de la imagen. Así las cosas, una manera de detectar si una imagen o un video han sido creados mediante IA es revisar la descripción y los comentarios relacionados con la imagen. Los autores suelen mencionar si su obra se generó mediante esta tecnología. Para poderlo identificar hay que localizar palabras clave como "IA", "DALL-E", "Midjourney" u otros nombres de herramientas de inteligencia artificial generativa.


Las marcas de agua, esa huella indiscreta 

Algunas herramientas, como DALL-E, incorporan marcas sutiles en las imágenes, aunque estas pueden ser eliminadas. En este caso se trata de un conjunto de cinco cuadrados de color amarillo, turquesa, verde, rojo y azul. Son sutiles y pueden ubicarse en la esquina de la imagen. No obstante, también hay formas de eliminar esta marca de agua, por lo que hay que tener en cuenta otros factores en el momento de verificar las imágenes. También es importante estar atento a los detalles más finos de las imágenes, como rasgos o expresiones faciales poco usuales que pueden delatar que una imagen está generada por la IA.

Qué son los deepfakes

Los deepfakes son contenidos generados con inteligencia artificial para crear secuencias falsas pero realistas. En la Argentina, varias escuelas reportaron casos de videos falsos con contenido pornográfico, y la problemática preocupa a los adolescentes y sus familias.

Se trata de un contenido generado sintéticamente con tecnología basada en inteligencia artificial (IA) con el objetivo de crear secuencias falsas pero realistas: a veces son imágenes y otras con videos con o sin voz r

eal o clonada. En éstas se busca modificar la apariencia física e incluso la voz de las personas y hacerles decir o hacer algo que nunca dijeron o hicieron.


La fiebre por los Studios Ghibli llegó hasta los memes: los clásicos de internet pasados por IA

La utilización de esta tecnología para crear videos falsos con contenido pornográfico se reportó en escuelas de la Provincia de Buenos Aires, Córdoba, Chaco, Río Negro y San Juan.

A nivel mundial, la situación no es diferente, y existen miles de casos registrados en Corea del Sur, los Estados Unidos y Europa. Según el informe anual State of Deepfake 2023 de la empresa Security Hero que analiza al panorama en los Estados Unidos, la cantidad de deepfakes que simulan pornografía aumentó 464% en 2023. El 99% de este contenido falso está compuesto por mujeres.

Lo cierto es que más allá de todas estas sugerencias y herramientas muy útiles, en un contexto donde la IA puede generar contenido indistinguible de la realidad, es esencial desarrollar habilidades críticas y utilizar herramientas adecuadas para discernir la autenticidad de las imágenes que consumimos.




Esta nota habla de: