El video deepfake que circuló el sábado pasado, en el que Mauricio Macri bajaba la candidatura de Silvia Lospennato para apoyar a Manuel Adorni, generó una gran repercusión y ya avanza una causa en sede judicial. ¿Qué antecedentes existen en otros países? ¿La IA representa un riesgo para la democracia?
Miércoles, 28 de mayo de 2025
A las 19:07 del sábado 17 de mayo, la cuenta @TTendenciaX fue la primera en subir el video falso de Macri, que luego fue rápidamente replicado —en una acción claramente coordinada— por varias de las cuentas líderes del ecosistema digital libertario: @TommyShelby_30, @ElTrumpista, @TalibanMilei, @GordoDan_, @Therealbuni, entre otras. Según Enter Comunicación, el video tuvo 13 millones de impresiones y la interacción de 1 millón de usuarios.
Las repercusiones de este deepfake se ubicaron en dos extremos: por un lado, quienes minimizaron su efecto, argumentando que era una broma que nadie podía tomar como real (como hizo el propio Milei); por otro lado, dirigentes del PRO, así como referentes de otros espacios opositores y de la sociedad civil, denunciaron el peligro que este tipo de contenidos representan para la democracia. Además, reclamaron responsabilidades judiciales para quienes impulsaron la maniobra y exigieron regulaciones sobre el uso político de la IA.
¿Cuál fue el verdadero alcance del video?
Para dimensionar el impacto real del video, hay que salir de X (ex Twitter). Si bien la Justicia ordenó a la empresa de Elon Musk que bajara el video falso, esto no ocurrió. Solo aparece una “nota de la comunidad” donde usuarios advierten que el contenido no es real, como parte de la nueva política de moderación de X que ya analizamos en otra oportunidad.
De todas formas, el efecto real probablemente haya ocurrido en WhatsApp y Facebook, redes sociales con mayor alcance masivo, público de más edad y menos acostumbrado a detectar videos generados por IA. Además, en esas plataformas no existe el “contexto” que reduce la credibilidad del contenido, como sucede en X.
Esta historia empezó en X, pero para saber si se trató de una simple provocación al PRO o de una maniobra para confundir a un sector de la población, es necesario rastrear su circulación en otras redes que, además, son mucho más difíciles de medir, ya que operan en grupos y comunidades privadas.
Para entender el fenómeno, vale observar ejemplos a nivel mundial.
Deepfakes en Estados Unidos y el marco legal
En enero de 2024, votantes demócratas de New Hampshire y Nueva Inglaterra recibieron llamadas telefónicas en las que una voz similar a la de Joe Biden los desalentaba de participar en la primaria demócrata en sus distritos. Días antes de la elección de alcalde en Chicago, circuló un deepfake del demócrata moderado Paul Vallas justificando la brutalidad policial. Vallas perdió la elección. Durante la campaña presidencial de 2024, el propio Elon Musk compartió en su cuenta un video manipulado de Kamala Harris refiriéndose a la presunta senilidad del presidente Biden.
El lunes pasado, el presidente Donald Trump promulgó la Ley Take it Down, un proyecto bipartidista que criminaliza el uso no consentido de deepfakes. Si bien la ley apunta principalmente a combatir la “porno venganza” y la generación de imágenes íntimas falsas, también contempla su aplicación en el terreno político. Según esta normativa, las plataformas deben eliminar el contenido manipulado dentro de las 48 horas posteriores a la notificación por parte de la víctima.
Estados Unidos llega a esta ley federal luego de que varios estados ya hubieran sancionado normativas contra los deepfakes, incluso desde 2019.
El caso de Brasil
Como ya analizamos en su disputa con X, la Justicia brasileña tiene un historial importante en cuanto a la regulación de plataformas digitales, y eso también incluye el uso de deepfakes generados por IA.
En 2024, el alcalde de Guarulhos —una ciudad clave del estado de San Pablo— publicó un video falso en el que una multitud coreaba cánticos contra el Partido de los Trabajadores. La Justicia actuó rápidamente: le ordenó eliminar el video y le impuso una multa de 5.000 reales.
Ya en 2023, el Tribunal Supremo Electoral (el mismo que prohibió temporalmente a X por incumplir fallos judiciales) dictó resoluciones que prohíben y sancionan el uso de deepfakes en campañas electorales, y obligan a notificar el uso de IA en propaganda política. Además, se prohíbe el uso de bots para contactar a votantes y se responsabiliza a las plataformas por la difusión de contenido racista, fascista o discriminatorio. Una legislación de avanzada en la región.
India: una elección enorme, plagada de deepfakes
India ya es el país más poblado del mundo, y su campaña electoral de 2024 estuvo llena de casos de deepfakes. Estrellas de Bollywood aparecieron en videos falsos criticando al presidente; un líder político fallecido en 2018 “resucitó” en videos elogiando a su hijo; y circularon grabaciones que anunciaban la falsa renuncia de referentes opositores.
La Comisión Electoral advirtió sobre el uso de estas tecnologías, pero en la práctica la regulación sigue siendo escasa.
Un antecedente notable ocurrió en 2020, cuando un político indio publicó intencionalmente un deepfake de sí mismo hablando distintos dialectos del país. Estos videos habrían llegado a más de 15 millones de personas a través de miles de grupos de WhatsApp. Es un ejemplo distinto que muestra un posible “uso positivo” de esta tecnología.
¿Qué podemos hacer?
En Argentina, el video falso de Macri bajando a Lospennato no fue el primer deepfake relevante. En las elecciones de 2023, supuestos videos de Sergio Massa bajo los efectos de estupefacientes —incluyendo uno donde supuestamente consumía cocaína— tuvieron gran repercusión y siguen circulando como memes. No fue un contenido aislado, sino parte de una estrategia coordinada para instalar que el ex candidato de Unión por la Patria consumía drogas. Y este es solo un caso entre tantos.
Tanto el panorama nacional como internacional nos exige tomar medidas urgentes.
Existen marcos regulatorios en el mundo que podemos tomar como referencia. Y algo fundamental para quienes integramos el campo popular: aunque existen herramientas de IA accesibles, los deepfakes más sofisticados requieren procesadores y aplicaciones costosas. Es decir, más allá de los dilemas éticos, la ultraderecha —con sus vínculos con sectores concentrados del poder económico— siempre va a tener más recursos para usarlas a su favor.
En un contexto donde las élites globales buscan llegar al poder para eliminar regulaciones que limiten sus negocios, es imprescindible reivindicar el rol del Estado para impedir que la tecnología se use para manipular elecciones o desestabilizar gobiernos. A la vez, hay que evitar el extremo opuesto: la censura o la suspensión de elecciones bajo la excusa de supuestas acciones digitales imposibles de verificar, como sucedió en Rumania. La única forma de avanzar hacia una regulación que esté al servicio de las mayorías es ganando el debate en la opinión pública. Un antecedente a tener en cuenta es lo que sucedió en Estados Unidos, donde los miles de casos de uso de IA para la “porno venganza” fueron la punta de lanza que permitió impulsar una regulación federal sobre los deepfakes. La pelea debe darse en los medios, en las redes, en los tribunales y, sobre todo, no hay que tener miedo de tomar medidas concretas cuando se ocupan espacios de poder. Es fundamental limitar a las plataformas, que en última instancia son las responsables de la distribución de estos contenidos.
Por Adrián Litvak
Publicado en Grito del Sur