Por Dr. Mohamed Lazzouni
Este artículo apareció por primera vez en BetaNews.

En las últimas semanas, el término "cheapfake" se ha disparado a la vanguardia de nuestra conciencia nacional. Los cheapfakes -y su contrapartida, los deepfakes son cada vez más frecuentes, y se calcula que el volumen de estos contenidos engañosos se duplica en Internet cada seis meses. Por eso, los principales motores de búsqueda, redes sociales y editores de contenidos del mundo están tomando nota. En las últimas semanas, Google ha anunciado un plan de gran alcance para reducir la capacidad de detección de deepfakes en sus clasificaciones de búsqueda.
Por suerte, no se necesitan los recursos de Google para detectar los medios alterados. Aquí examinaremos las principales diferencias entre cheapfakes y deepfakes , así como las herramientas IA que pueden utilizarse para detectarlos de forma decisiva.
Los cheapfakes son medios que han sido manipulados con medios baratos y más accesibles, como programas comerciales de edición de fotos y vídeos. Muchos cheapfakes se crean con herramientas como Adobe, que permite acelerar y ralentizar el vídeo, así como crear animaciones, movimientos e intercambios de Rostro . Los cheapfakes suelen tener un aire amateur; de hecho, cualquier adolescente que haya recibido clases básicas de animación por ordenador puede crearlos. En esencia, son el equivalente de los efectos especiales de bajo presupuesto, y es muy fácil producirlos con conocimientos limitados.
Deepfakes, en cambio, son más realistas que los cheapfakes y mucho más difíciles de detectar. Su creación requiere un nivel mucho más alto de formación, competencia y herramientas sofisticadas. Incluso en el extremo inferior, se necesita un cierto nivel de conocimientos de software de programación. En el extremo superior, los creadores necesitan experiencia en el diseño y la ingeniería de avisos para introducir esta información en herramientas IA generativa, como Sora. El nivel más sofisticado de deepfakes hace uso de redes neuronales generativas adversariales (GAN), en las que dos algoritmos compiten y evolucionan: un algoritmo aprende a crear deepfakes, mientras que otro aprende a detectarlos. Aquí es donde se hace muy difícil discernir entre lo que es real y lo que no lo es.
¿La buena noticia de todo esto? Es muy posible distinguir entre un cheapfake/deepfake y un contenido real, porque estos materiales suelen introducir incoherencias que pueden detectarse.
Preste atención a lo siguiente cuando intente determinar la autenticidad de los medios de comunicación:
- ¿Hay posturas corporales y faciales extrañas o inusuales en primer o segundo plano?
- ¿La coloración no es natural?
- ¿El envejecimiento de la piel no coincide con los ojos o el cabello del sujeto?
- ¿Las personas del vídeo no parpadean o parpadean de forma poco natural?
- ¿Es el audio incoherente con los efectos visuales?
- ¿Las extremidades se confunden con el fondo o parecen extrañas?
Recomendamos una combinación del buen ojo humano de toda la vida -que suele ser lo suficientemente agudo como para darse cuenta de cuándo algo está "mal"- y una o varias de las siguientes herramientas de IA que son muy eficaces para detectar la manipulación. Se trata de "utilizar la IA para detectar IA", por así decirlo.
En el caso de las imágenes, la marca de agua incrustada en la imagen es el principal indicador de una falsificación barata o una falsificación profunda. Basándose en estas marcas de agua, las herramientas pueden saber fácilmente si una imagen es auténtica o no. Los vídeos falsos, por su parte, pueden detectarse mediante varias técnicas:
- El análisis de puntos de referencia faciales, que analiza la posición de los rasgos clave de un Rostro en el vídeo, como los ojos, la nariz y la boca. El análisis de puntos de referencia faciales ha demostrado su capacidad para identificar la manipulación del vídeo a nivel de píxel con el fin de detectar imágenes Rostro falsas. La coherencia temporal puede analizar además cómo se mueven los rasgos faciales con el tiempo; los cheapfakes y los deepfakes presentarán a menudo sutiles incoherencias en estos movimientos.
- Además, la detección de parpadeos puede encontrar señales consistentes en la unión de distintas fuentes. Estas herramientas pueden detectar incoherencias en la iluminación o el color de un vídeo para señalar la posibilidad de manipulación.
- Otra técnica se centra en los movimientos de los labios y los errores de sincronización la bial. El habla se compone de sonidos que se corresponden con la forma de los labios. Las herramientas pueden comparar los movimientos de los labios con los sonidos; cualquier discrepancia puede indicar un cheapfake o deepfake.
- Por último, otras herramientas se centran en analizar las variaciones de los tonos de la escala de grises dentro de un vídeo. En realidad, el ojo humano puede distinguir unos diez tonos de gris diferentes, y los cheapfakes y deepfakes pueden introducir incoherencias en los tonos de la escala de grises que pueden detectarse.
Dada la creciente proliferación de "cheapfakes" y deepfakes y su potencial para encender el malestar social -así como para amenazar la privacidad individual-, creemos que las herramientas de detección deben desplegarse de forma más agresiva y proactiva. Por ejemplo:
- Los sitios de intercambio de vídeos podrían integrar herramientas de detección de deepfakes para marcar o verificar la autenticidad de los contenidos subidos.
- Las técnicas de detección de Cheapfake y deepfake pueden formar parte de herramientas educativas que capaciten a los estudiantes para evaluar críticamente los contenidos en línea y reconocer deepfakes cuando se topen con ellos.
- Los deepfakes pueden poner en peligro la reputación y el arte de los artistas. La comunidad artística puede adoptar la detección de cheapfake/deepfake para autenticar el origen de obras de arte digitales o determinar si la aparición de un famoso en una película es real o sintética.
- Proteger a los niños y a las personas vulnerables: la detección de deepfakes puede utilizarse para identificar y marcar deepfakes creados con fines de ciberacoso. Esto podría ayudar a proteger a las víctimas y a exigir responsabilidades a los acosadores.
Está claro que las tecnologías de detección de deepfakes IA aún están en desarrollo y todavía no han alcanzado la madurez completa. Esto se debe a que estas soluciones son de naturaleza estadística y "adivinan" si una imagen o vídeo es un cheapfake o un deepfake o no, y pueden hacer una determinación incorrecta. Lo cierto es que los creadores de cheapfake/deepfake y las herramientas de detección están en una constante carrera armamentística. Y lo que está claro es que los resultados son cada vez más sofisticados, lo que hace más difícil para las herramientas de detección distinguir lo que es real de lo que es fabricado. También es importante recordar que las herramientas de detección de IA se entrenan con grandes conjuntos de datos de imágenes o vídeos, y estos conjuntos de datos pueden introducir Sesgo.
Los algoritmos de detección son tan buenos como los datos de entrenamiento con los que se alimentan. La buena noticia es que estas herramientas han avanzado considerablemente y cada interacción es mejor. Sin embargo, aún nos queda camino por recorrer para garantizar que la sociedad no sea presa de estas imágenes fabricadas.