A medida que avanza el tiempo los deepfakes (ultrafalso), imágenes o vídeos de personas que aparentemente son reales, son más y más difíciles de detectar, lo que en varios casos ha causado problemas.
Facebook conoce esto y desde hace rato viene lidiando con este problema. La red social está consciente de esto y es por eso que sabe lo importante que es, no solo comprender los deepfakes, sino también averiguar el origen, o sea, con qué modelos de Inteligencia Artificial fueron creados.
En su trabajo para tratar de detectar este tipo de práctica, Facebook ha trabajado con la Universidad Estatal de Michigan (MSU por sus siglas en inglés) y de esta colaboración han desarrollado un método para detectar y conocer el origen de deepfakes o sea cual modelo fue usado.
Este método creado por Facebook y MSU se basa en ingeniería inversa, trabajando desde una sola imagen generada por IA hasta el modelo generativo que utilizaron para producir el deepfake.
Muchos de los investigadores se enfocan en tratar de detectar los deepfakes y algunos también trabajan en lo conocido como la Atribución de la Imagen o sea, determinar el modelo generativo que produjo esa foto o vídeo falso.
En el anuncio de nuevo método, los científicos e investigadores de Facebook, Xi Yin y Tal Hassner, comentan sobre los modelos actuales usados hasta ahora: «La atribución de imágenes puede identificar el modelo generativo de un deepfake si fuera uno de un número limitado de modelos generativos vistos durante el entrenamiento. Pero la gran mayoría de los deepfakes, un número infinito, habrán sido creados por modelos que no se vieron durante el entrenamiento. Durante la atribución de imágenes, esos deepfakes se marcan como producidos por modelos desconocidos, y no se sabe nada más sobre su procedencia o cómo se produjeron«.
Este método de ingeniería inversa creado por Facebook y MSU, es mucho más avanzado que los utilizados hasta ahora, ya que ayuda a deducir información sobre un modelo generativo en particular basándose únicamente en lo que produce.
Con este nuevo método es la primera vez que se ha podido identificar las propiedades de un modelo utilizado para crear un deepfake sin ningún conocimiento previo del modelo.
De acuerdo a los científicos, con esta técnica innovadora que analiza los modelos, ahora se podrá obtener más información sobre el modelo utilizado para producir ciertos deepfakes.
Este nuevo método será muy útil en entornos del mundo real donde la única información que los detectores de deepfake tienen a su disposición suele ser el deepfake en sí. En algunos casos, los investigadores pueden incluso usarlo para saber si ciertos deepfakes se originan en el mismo modelo, independientemente de las diferencias en su apariencia externa o en dónde aparecen en línea.
Si quieren obtener más información al respecto, pueden visitar el blog de Inteligencia Artificial de Facebook.
https://www.facebook.com/7fdabf7f-30a8-4cba-a027-3d1cd4df11af