Durante la reciente veda electoral en la Ciudad Autónoma de Buenos Aires, circuló un video falso atribuido al expresidente Mauricio Macri, generado mediante inteligencia artificial. Este deepfake, que puso en evidencia los riesgos de la desinformación digital en contextos políticos sensibles, reabre el debate sobre los peligros que representa esta tecnología para la democracia y la veracidad de la información pública.
Los deepfakes son videos o audios manipulados por inteligencia artificial que imitan de manera convincente la voz y apariencia de personas reales, permitiendo hacerles decir cosas que nunca expresaron. Actualmente existen plataformas gratuitas o de bajo costo que facilitan la creación de estos contenidos, democratizando una tecnología que antes era exclusiva de estudios especializados. Esta accesibilidad ha multiplicado exponencialmente el riesgo de que cualquier persona pueda crear contenido falso con fines maliciosos.
Para detectar un deepfake, los expertos recomiendan prestar atención a señales visuales específicas como parpadeos poco naturales, expresiones faciales extrañas, brillo artificial en la piel o arrugas mal simuladas. En el caso de los audios, la voz digital suele presentar una cadencia anormal, tono robótico o entonaciones poco naturales que delatan su origen artificial. Sin embargo, la tecnología avanza rápidamente y estos indicadores se vuelven cada vez más sutiles.
La situación se agrava por el desconocimiento generalizado de la población: según estudios recientes, el 70% de los argentinos no sabe qué es un deepfake ni cómo identificarlo. Estos contenidos falsos circulan principalmente a través de WhatsApp y X (anteriormente Twitter), plataformas donde la verificación de fuentes es limitada y la viralización es inmediata. La falta de herramientas para detectar la falsedad del contenido convierte a millones de usuarios en potenciales víctimas de desinformación.
El desarrollo del pensamiento crítico y la educación digital emergen como las principales defensas contra esta amenaza. Los especialistas insisten en la importancia del sentido común y una mirada escéptica ante contenidos sospechosos, recomendando siempre verificar la información a través de fuentes oficiales o medios confiables antes de creer o compartir cualquier contenido. La verificación cruzada se vuelve fundamental en un ecosistema informativo cada vez más complejo.
Desde el punto de vista legal, existe una preocupante zona gris en cuanto a la regulación de deepfakes y la responsabilidad de las plataformas digitales. Las redes sociales, que se benefician económicamente del contenido viral, suelen actuar con lentitud ante denuncias de contenido falso. Esta falta de marcos regulatorios claros permite que la desinformación se propague sin consecuencias inmediatas para sus creadores o distribuidores.
En contraste, la Unión Europea ya está implementando regulaciones que exigen el etiquetado obligatorio de contenido generado por IA y evaluaciones de riesgo para tecnologías emergentes. Estas medidas buscan crear un equilibrio entre la innovación tecnológica y la protección de los ciudadanos contra la manipulación digital, estableciendo un precedente que otros países podrían seguir para enfrentar esta problemática global.
La información presentada surge del diálogo mantenido entre el periodista y especialista en inteligencia artificial Sebastián Di Domenica y Canal E, donde se analizaron los desafíos que plantean los deepfakes para la sociedad contemporánea y las estrategias necesarias para combatir la desinformación en el ámbito político y social.
---
**YouTube Video Link: https://youtu.be/5c-vJuHuMCo?si=bHxquiLBiyHvijjE
Caracteres: 3756
Fuente: relevamiento informativo y análisis editorial del editor