Deepfakes - una parte oscura de la IA - Crapthor

Deepfakes | Una parte oscura de la IA

Índice
  1. ¿Qué son las deepfakes?
  2. Deepfakes la parte oscura de la inteligencia artificial
    1. La gravedad de cómo avanza
  3. ¿Qué hace que las deepfakes sean un peligro digital?
  4. ¿Cómo darnos cuenta que es una deepfake?
    1. Observa los ojos
    2. Imagen corporal
    3. Poco tiempo de comunicación
    4. Verificación
  5. Consejos para evitar estafas o engaños

Las deepfakes no es algo nuevo, el problema está en que cada día se han ido perfeccionando y haciéndolas muchos más reales apoyadas en una tecnología como la IA. ¿Qué recomendaciones seguir para detectarlas y evitar ser víctimas de ellas?

Las deepfakes no son algo reciente, pero una vez que la inteligencia artificial inició su aventura actual, las noticias falsas se han ido perfeccionando, al extremo de ser altamente peligrosas. Hoy hablaremos sobré qué son las deepfakes y cómo saber que estamos siendo víctimas de ellas.

Y es que muchas personas creen (sobre todo niños jóvenes “y a veces adultos incluidos”) que lo publicado en Internet es verídico, pues ya sabemos que no siempre es así. De allí que se les debe recordar que de ser necesario hay que validar la fuente, conversarlo con un adulto que sepa explicarle, o mantener la seguridad de ellos a través de controles parentales, con la finalidad de protegerlos de aquellos contenidos que ni suelen ser ciertos o no son adecuados a su edad.

¿Qué son las deepfakes?

Se le conoce también como medios sintéticos, pero la deepfake o deepfakes es la unión de fake (falso) y el término deep learning que es aquella información generada por el aprendizaje profundo asociada a la inteligencia artificial. Vale decir, que es una técnica avanzada de la IA usada para suplantar la identidad de una persona (haciéndose pasar por ella).

Y estas deepfakes van desde la clonación de la voz hasta la suplantación de rasgos, movimientos físicos y faciales mediante una tecnología de redes generativas adversativas o codificadores automáticos con los que se pueden elaborar contenidos multimedia (gráficos y audiovisuales) con un mayor fotorrealismo. El objetivo, llegar a emular tanto en apariencia y en voz a una persona.

Deepfakes la parte oscura de la inteligencia artificial

Ya hemos escuchado muchas veces que “la realidad supera la ficción”. Sin embargo, en este punto que planteamos no será que “¿la ficción está superando a la realidad? Lejos están los días en que casi a simple vista se podía detectar un deepfake, aunque según la época estarían adecuados a las herramientas tecnológicas del momento. Pero ya eso cambio.

Lamentablemente, la inteligencia artificial ha hecho posible que la identidad pueda ser suplantada y muchos ya han sido víctimas de su uso. Hablamos de famosos, celebridades, artistas, políticos e influencers que son parte del entretenimiento y la vida cotidiana. Desde informar que han muerto hasta aparecer en vídeos de contenidos para adultos.

No es que unos tengan prioridad sobre otros, pero al ser personas con dinero y ser tan evidente la noticia o publicidad engañosa, que en poco tiempo se conoce que no es verdad. Y ¿qué pasa o sucede cuándo los hechos o personas son comunes y corrientes, no poseen fama, fortuna, ni influencia?

Ya hace un tiempo otras organizaciones como bancos, hospitales, aerolíneas, seguros o telecomunicaciones se han visto afectadas por las deepfakes.

Es un fenómeno que por lo pronto tiene intranquilos a caras conocidas de las altas esferas mundiales, y algo que preocupa mucho más, es que cada día detectar a las deepfakes se está haciendo más cuenta arriba. Lo que quiere decir, es que todos podemos ser víctimas de noticias falsas y estafas.

Uno de los casos más reseñados fue sobre una estafa millonaria realizada en un banco de Hong Kong, donde los cibercriminales robaron más de 20 millones de dólares. ¿Cómo lo hicieron? Un empleado estuvo en una reunión de vídeo llamada con jefes de alto nivel (falsos) donde le dieron la orden de transferir a distintas cuentas ese dinero. Y estamos hablando que eso le sucedió a una organización con todo el dinero, la disponibilidad de alta seguridad, recursos y recaudos.

Y esto se pone peor cada día. Ya se ha hablado sobre el riesgo de las deepfakes, pero esto no es un chisme farandulero o de pasillo, se refiere a la seguridad propia, de familiares y amigos. Imaginemos por un instante que otras cosas pueden hacer a personas comunes, engañar a otros como tú o yo. Aun si no se tiene el dinero que a esta entidad bancaria le extrajeron. Esto quiere decir que todos podemos ser víctimas de publicidad engañosa o ser estafados.

Deepfakes - inteligencia artificial - Crapthor

La gravedad de cómo avanza

Parece sacado de las películas de James Bond o Misión Imposible, pero a un ciberdelincuente solo le tarda tres segundos para clonar la voz de una persona. Y si bien es un tema complejo y doloroso para aquellos que han sido afectados, en el caso por ejemplo de EE. UU., implica un tema sobre la libertad de expresión.

Y más allá de que pueda ser divertido (que lo es) jugar y echarle una bromita a alguien haciéndote pasar por otro, no es nada divertido solicitar dinero bajo engaño. Y es que se puede ver y escuchar a la persona (sean padres, abuelos, tíos, hermanos, hijos, sobrinos, suegros, amigos) solicitar una transferencia de dinero por cualquier emergencia y estos cibercriminales hace que sea posible.

Las noticias o publicidad falsa también se les conocen como FakesNews.

Las deepfakes se basan en manipulaciones por medio de un software que analiza y extrae el material y lo inserta en otro vídeo (que suelen ser caras o retratos y que son los más frecuentes). Y si bien muchos rayan en la perfección aunque difícil, no es imposible detectarlos.

¿Qué hace que las deepfakes sean un peligro digital?

Por lo general, un deep fake posee una mala intención detrás, y las amenazas o peligros radican en:

  • Suplantación de identidad.
  • Violación a la integridad moral y ética de las personas mediante contenidos manipulados mostrando comportamientos que no son acorde ni a ellos, ni a sus costumbres o creencias. Por ejemplo, montajes de contenidos sexuales o dirigidos para adultos, comentarios, opiniones o robos hacía otras personas.
  • Manipulación de sonidos e imágenes que pueden transgredir la seguridad biométrica.
  • Desinformación y propagación de noticias engañosas que pueden alterar o desestabilizar mercados bursátiles y financieros, relaciones diplomáticos e internacionales, alteración del orden público o alarmas de eventos catastróficos o de salud etc.

Al final esto conlleva a que las tecnologías puedan perder valor por estos hechos ilícitos o incluso haciendo más difícil el acceso a herramientas tecnológicas que podrían ser usadas adecuadamente y en pro de la humanidad. La pregunta que cabe aquí es ¿cómo se puede detectar las deepfakes?

¿Cómo darnos cuenta que es una deepfake?

No es fácil, ya lo hemos dicho reiteradamente, no es algo para darnos cuenta y esto se debe a la complejidad, el avance y la perfección de la que es capaz la tecnología, y esto es cada día. Hay aspectos que se deben tener en cuenta, tales como:

  • Sincronización errada de voz y boca.
  • Imagen deformada con la cabeza o que los ojos se muevan de manera extraña.
  • Movimientos repentinos.
  • Falta de nitidez (o quizás extrema perfección).
  • Fondo difuso o que se mueva.
  • Desenfoques en el interior de la boca, dientes y lengua; y esto se debe a que suelen ser perfectos, así que, cualquier cambio puede ser una señal de alarma.

Observa los ojos

Aquí el parpadeo es la clave, el ser humano lo hace entre dos a ocho segundos y el algoritmo de los deepfakes no puede hacerlo con la rapidez de una persona.

Imagen corporal

La cara, el cuello y la postura deben coincidir, incluso las expresiones faciales deben ir acorde a los movimientos del rostro e imagen corporal. En otras palabras, los movimientos o cambios de posturas son muy difíciles de crear. Así que, solo se producen en el rostro. Por lo que se debe estar atento a los detalles.

Si conoces a la persona probablemente puedes reconocer su ropa, marcas de la piel, tatuajes si los tiene, le falta simetría o sincronización, músculos prominentes u otras maneras corporales que no son propias de esa persona.

Poco tiempo de comunicación

Los costes en cuanto a tiempo y calidad que implica realizar deepfakes suelen ser exigentes. En este sentido, el tiempo generalmente es corto, esto es una señal para dudar.

Verificación

Si dudas, verifica o válida con la tecnología, en ese momento puede ser tu aliada. Existen softwares que pueden señalar si es deepfakes o incluso detectar vida online, ya sea por medio de una foto o conexión de vídeo en tiempo real.

Otros detalles que pueden ser un indicativo de falsificación son justamente en las particularidades, el mínimo gesto, la prolijidad. Mejor dicho, pueden detectarse aspectos fuera de focos, sombras, tenues, vellos, ojos, boca, piel poco realistas, naturales o color en extrema perfección (demasiado lisa, sin lunares o manchas).

Consejos para evitar estafas o engaños

El proyecto de ley contra las deepfakes y otras inadecuadas prácticas con el uso de la IA se está trabajando, pero todavía se encuentra en proceso, por lo que la regulación legal apenas se está construyendo. Ahora bien, no es penalizar la herramienta, es cómo se utiliza la tecnología (es quien la usa a quién debe penalizarse). Por lo tanto, existen recomendaciones que tal vez puedan detener y no fallar ante las deepfakes, así que:     

  1. Ante la duda, ejecutar o hacer algo, es mejor llamar o verificar con la persona (real) y si puedes comunicarte con ella mediante otro medio como un teléfono fijo mucho mejor.
  2. Tener una palabra de seguridad para identificar emergencias. Por ejemplo, “Nos vemos a las 3” o “El baño es azul”. Estas palabras claves deben ser compartidas solo con las personas de confianza (familiares o amigos). En caso de que se presente la emergencia y justo cuando se contacté o comuniqué contigo deberá decir la palabra clave sin que se lo pidas: requiero de un dinero o ayuda de suma urgencia “Nos vemos a las 3 o el baño es azul”.
  3. Desconfiar de todo lo digital. Es lamentable, pero cierto. A menos que estés muy seguro de la información, fuente o medio virtual con el que tienes contacto, desconfía.

Y aunque es difícil admitirlo el lado oscuro de la inteligencia artificial existe y no es por la herramienta en sí, sino por quienes la utilizan. Los peligros y amenazas que provienen del mundo digital están allí. Se diagnostica una explosión de promociones con rostros de famosos que son estafas, vídeos y películas de conocidos.

Sin embargo, quién sabe si con la cara de algunos de nosotros, la tuya o de alguien (cercano o familiar) y sin saberlo, la ciberdelincuencia puede recurrir a la extorsión. Y eso debe evitarse a toda costa.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir