18 diciembre 2024

Facebook y MSU crean método para detectar los modelos generadores de deepfakes

A medida que avanza el tiempo los deepfakes (ultrafalso), imágenes o vídeos de personas que aparentemente son reales, son más y más difíciles de detectar, lo que en varios casos ha causado problemas.

Facebook conoce esto y desde hace rato viene lidiando con este problema.  La red social está consciente de esto y es por eso que sabe lo importante que es,  no solo comprender los deepfakes, sino también averiguar el origen, o sea, con qué modelos de Inteligencia Artificial fueron creados.

En su trabajo para tratar de detectar este tipo de práctica, Facebook ha trabajado con la Universidad Estatal de Michigan (MSU por sus siglas en inglés) y de esta colaboración han desarrollado un método para detectar y conocer el origen de deepfakes o sea cual modelo fue usado.

Facebook - Deepfakes
Imagen Facebook

Este método creado por Facebook y MSU se basa en ingeniería inversa, trabajando desde una sola imagen generada por IA hasta el modelo generativo que utilizaron para producir el deepfake.

Muchos de los investigadores se enfocan en tratar de detectar los deepfakes y algunos también trabajan en lo conocido como la Atribución de la Imagen o sea, determinar el modelo generativo que produjo esa foto o vídeo falso.

En el anuncio de nuevo método, los científicos e investigadores de Facebook, Xi Yin y Tal Hassner, comentan sobre los modelos actuales usados hasta ahora: «La atribución de imágenes puede identificar el modelo generativo de un deepfake si fuera uno de un número limitado de modelos generativos vistos durante el entrenamiento. Pero la gran mayoría de los deepfakes, un número infinito, habrán sido creados por modelos que no se vieron durante el entrenamiento. Durante la atribución de imágenes, esos deepfakes se marcan como producidos por modelos desconocidos, y no se sabe nada más sobre su procedencia o cómo se produjeron«.

Este método de ingeniería inversa creado por Facebook y MSU, es mucho más avanzado que los utilizados hasta ahora, ya que ayuda a deducir información sobre un modelo generativo en particular basándose únicamente en lo que produce.

Con este nuevo método es la primera vez que se ha podido identificar las propiedades de un modelo utilizado para crear un deepfake sin ningún conocimiento previo del modelo.

De acuerdo a los científicos, con esta técnica innovadora que analiza los modelos, ahora se podrá obtener más información sobre el modelo utilizado para producir ciertos deepfakes.

Este nuevo método será muy útil en entornos del mundo real donde la única información que los detectores de deepfake tienen a su disposición suele ser el deepfake en sí. En algunos casos, los investigadores pueden incluso usarlo para saber si ciertos deepfakes se originan en el mismo modelo, independientemente de las diferencias en su apariencia externa o en dónde aparecen en línea.

Si quieren obtener más información al respecto, pueden visitar el blog de Inteligencia Artificial de Facebook.

https://www.facebook.com/7fdabf7f-30a8-4cba-a027-3d1cd4df11af

Siguenos por Twitter a través de @Geeksroom y no te pierdas todas las noticias, cursos gratuitos y demás artículos. También puedes seguirnos a través de nuestro canal de Youtube para ver nuestros vídeos, a través de Instagram para ver nuestras imágenes! O vía Bluesky si ya estás cansado de Twitter

Hector Russo

Desde su juventud se ha dedicado a la Tecnología de la Información. En su oportunidad fue incluido por Ivy Worldwide en su lista Top 25 influencers en Tecnología. Actualmente es miembro del panel de jurados que elige los mejores vehículos del año para el mercado hispano de Estados Unidos, a través de los Hispanic Motor Press Awards.

Ver todas las entradas de Hector Russo →