Durante este mes, diversos medios internacionales y de América Latina difundieron videos que mostraban escenas extremas de nieve en la región rusa de Kamchatka: edificios casi sepultados y personas deslizándose por enormes montañas de nieve junto a bloques residenciales. Las imágenes resultaban espectaculares y se viralizaron rápidamente en redes sociales. Sin embargo, el medio británico BBC, junto a expertos independientes, determinó que varios de estos registros habían sido generados mediante inteligencia artificial (IA).
El investigador Henk van Ess, especialista en verificación digital, confirmó el diagnóstico y lanzó una advertencia inquietante: cuando incluso periodistas pueden ser engañados, estamos frente a una verdadera "crisis de verificación". Hoy se trata de nieve irreal, pero mañana podría ser un desastre fabricado, una escena de guerra falsa o una prueba visual diseñada para justificar odio o violencia.
Esta advertencia ayuda a comprender una experiencia que viví semanas antes como un usuario común de redes sociales. Tras leer noticias sobre el conflicto entre Rusia y Ucrania, una plataforma me sugirió de forma aleatoria un video publicado por una cuenta en ucraniano. En él aparecía una mujer de piel morena, con expresión triste, dentro de una trinchera cubierta de nieve. Vestía uniforme militar y llevaba en el brazo un parche con la bandera rusa, lo que la presentaba como una supuesta soldado de ese país.
La imagen resultaba inquietante, pero lo más perturbador fue la reacción que generó. Al revisar los comentarios, en su mayoría en ucraniano, aparecían insultos y mensajes racistas. Para muchos de estos usuarios no había dudas de que el video era real y mostraba a una persona extranjera que se había sumado al bando ruso; era una "enemiga" a la que se consideraba legítimo atacar verbalmente.
A primera vista, el material parecía creíble y encajaba con reportes internacionales sobre la participación de extranjeros en el ejército ruso, lo que explica por qué el video funcionó. No obstante, la escena parecía demasiado construida, excesivamente simbólica, más pensada para provocar una reacción emocional que para documentar un hecho real. Tras aplicar un proceso básico de verificación visual, pude confirmar que se trataba de un video falso generado con IA.
El caso de la nieve ficticia en Rusia podría parecer un error inofensivo, una simple curiosidad viral. Pero el video de la supuesta soldado extranjera demuestra que este tipo de contenido puede activar las peores reacciones humanas -racismo y polarización- promovidas por actores inescrupulosos que explotan conflictos o crisis reales y se aprovechan de la baja atención y de la escasa educación en verificación digital para ganar visibilidad.
Ante estos casos internacionales, surge inevitablemente la pregunta sobre nuestro país, expuesto a incendios, terremotos y otros desastres naturales: ¿Qué estamos haciendo institucionalmente para enfrentar esta crisis de verificación? El gobierno actual impulsó, a finales del año pasado, una iniciativa de educación y sensibilización sobre la desinformación -la campaña "Aguanta, Chequea y Comparte"-, lo que demuestra que el problema ha sido identificado. El desafío, especialmente para el nuevo gobierno del Presidente electo José Antonio Kast, será dar continuidad a esos esfuerzos y ampliarlos, incorporando una mayor colaboración con medios de comunicación y actores privados para el fortalecimiento de las capacidades ciudadanas de verificación.
Ojalá no tengamos que llegar al punto de que una oleada mal intencionada de desinformación con material sintético, aprovechándose de una emergencia, genere daños irreparables para recién entonces reaccionar y darle a este tema la prioridad que requiere.
Desde Facebook:
Guía de uso: Este es un espacio de libertad y por ello te pedimos aprovecharlo, para que tu opinión forme parte del debate público que día a día se da en la red. Esperamos que tus comentarios se den en un ánimo de sana convivencia y respeto, y nos reservamos el derecho de eliminar el contenido que consideremos no apropiado