in

La ciencia de la desinformación en política: vulnerabilidades cognitivas y manipulación digital. Por Kyaw Jaw Sine Marma

El papel de las plataformas digitales en la amplificación de las narrativas engañosas

Donald Trump tilda a Zelensky de "tirano" y cuestiona su popularidad en Ucrania. Zelensky responde, denuncia desinformación rusa

Desde la interferencia política hasta las crisis sanitarias, la ciencia de la desinformación afecta cómo la gente piensa, actúa e incluso cómo funciona el sistema político.

En el acelerado mundo digital de hoy, la desinformación se ha convertido en un gran desafío. Desde la interferencia política hasta las crisis sanitarias, la información falsa afecta la forma de pensar y actuar de las personas e incluso el funcionamiento del sistema político. Un claro ejemplo de ello es la pandemia de COVID-19, donde los rumores sobre las vacunas y el virus se propagaron rápidamente en las redes sociales, alimentando las dudas sobre las vacunas y erosionando la confianza en la ciencia. Además, algunos gobiernos utilizaron estas divisiones para manipular la opinión pública y crear caos. Estos ejemplos muestran cómo la desinformación, cuando se utiliza deliberadamente, puede servir a agendas políticas e ideológicas.

Lo que hace que la desinformación sea tan poderosa es su capacidad de aprovechar la manera de pensar de los seres humanos. Todos somos propensos a los sesgos cognitivos, como el sesgo de confirmación (por el que tendemos a buscar información que respalde lo que ya creemos), lo que ayuda a que se difundan las afirmaciones falsas. Nuestra tendencia a centrarnos en historias cargadas de emoción consolida aún más estas falsedades, y el miedo, especialmente en tiempos de incertidumbre, puede perjudicar nuestro juicio. Las investigaciones en neurociencia muestran que estos mecanismos cognitivos, combinados con las plataformas de redes sociales diseñadas para mantenernos interesados, crean el terreno perfecto para que florezca la desinformación.

La neurociencia detrás de la desinformación

Contribución de los sesgos cognitivos

Uno de los mayores sesgos cognitivos que impulsan la desinformación es el sesgo de confirmación. Esto ocurre cuando las personas buscan información que respalde sus creencias existentes e ignoran todo lo que las contradiga. Las redes sociales empeoran esto al impulsar contenido basado en lo que ya hemos visto antes, creando cámaras de eco donde estamos expuestos principalmente a información que refuerza lo que ya pensamos. Los estudios sobre anuncios políticos muestran que las personas tienden a centrarse en narrativas familiares, incluso si no son completamente precisas, debido a sus ideologías personales. La investigación de seguimiento ocular también muestra que pasamos más tiempo interactuando con contenido que se ajusta a nuestras creencias, lo que ayuda a que la información falsa se propague más fácilmente a través de señales visuales.

Otro sesgo que alimenta la información falsa es el llamado efecto de arrastre, en el que las personas creen en algo simplemente porque otros lo creen. Aunque se ha estudiado menos que el sesgo de confirmación, se nota en la forma en que las personas interactúan con la información falsa que se está volviendo tendencia en Internet. El efecto de retroceso (en el que corregir la información falsa hace que las personas se aferren más a sus falsas creencias) también mantiene viva la información falsa. Esto sucede porque las personas tienden a apegarse a las fuentes que coinciden con su identidad y evitan aquellas que cuestionan sus puntos de vista.

La atención selectiva también es un factor importante en la difusión de información falsa. Las personas suelen centrarse en historias emocionales o personalmente relevantes e ignoran los hechos objetivos. Esto quedó especialmente claro durante la pandemia de COVID-19, cuando el miedo hizo que las personas fueran más vulnerables a diversos tipos de información. Los estudios muestran que cuando las emociones se intensifican, la capacidad humana de pensar de manera crítica disminuye, lo que hace que sea más fácil identificar y compartir información falsa. El miedo reduce nuestra capacidad de analizar la información, lo que es fundamental para distinguir los hechos de la ficción.

La amígdala, que controla el miedo y las respuestas emocionales en el cerebro, desempeña un papel clave en este sentido. Hace que los humanos sean más propensos a creer y difundir contenido falso basado en el miedo. La pandemia, por ejemplo, mostró cómo el pensamiento impulsado por el miedo puede polarizar a las personas y perjudicar su capacidad de emitir juicios críticos. Las personas no solo aceptan información engañosa, sino que a menudo también la comparten, tratando de resolver su incertidumbre rápidamente sin verificar su veracidad.

El papel de la dopamina y los sistemas de recompensa

La información falsa prospera porque se conecta con el sistema de recompensa de nuestro cerebro, lo que desencadena respuestas de dopamina cuando interactuamos con ella. Las plataformas de redes sociales amplifican esto al ofrecer comentarios, me gusta, publicaciones y comentarios instantáneos, lo que crea un ciclo en el que somos recompensados ​​por consumir y difundir afirmaciones falsas. Cuanto más escuchamos una mentira, más familiar nos resulta, haciéndola parecer verdadera (el efecto de la «ilusión de la verdad»). Esto es aún más potente cuando cualquier información se alinea con nuestras creencias políticas o ideología, lo que refuerza las cámaras de eco donde solo encontramos ideas que confirman nuestras opiniones.

La emoción también juega un papel muy importante, ya que la desinformación suele estar diseñada para evocar reacciones emocionales fuertes, que anulan nuestro pensamiento lógico. Somos más propensos a creer cosas que nos hacen sentir algo intenso. El impacto emocional puede incluso crear recuerdos falsos, lo que nos hace estar más seguros de los eventos falsos, especialmente cuando respaldan nuestros prejuicios. El miedo, en particular, es una herramienta poderosa: nuestros cerebros reaccionan con fuerza al contenido basado en el miedo, lo que lo hace más creíble y más compartible. En las aplicaciones de mensajería personal, esta dinámica es aún más potente, ya que compartimos contenido cargado de emociones dentro de grupos más pequeños e ideológicamente similares, lo que refuerza aún más las creencias falsas.

El papel de las plataformas digitales en la amplificación de las narrativas engañosas

Sesgo algorítmico y cámaras de eco

Las plataformas de redes sociales prosperan gracias a algoritmos que priorizan el contenido en función del comportamiento del usuario, como los “me gusta”, los comentarios y las publicaciones compartidas. Este enfoque impulsado por la participación recompensa el contenido sensacionalista, cargado de emociones o polarizador, ya que genera más interacción. Como resultado, los usuarios están expuestos principalmente a contenido que se alinea con sus creencias existentes, lo que crea “burbujas de filtro” o cámaras de eco. Estos espacios limitan la exposición a puntos de vista opuestos o información verificada, lo que profundiza las divisiones ideológicas y fomenta un ciclo de información falsa. La naturaleza viral de las redes sociales amplifica la difusión de contenido falso deliberado. Cuando las publicaciones con un alto nivel de participación (a menudo sensacionalistas o engañosas) ganan terreno rápidamente, llegan a una gran audiencia sin ser evaluadas críticamente. Los algoritmos refuerzan esto al mostrar a los usuarios más de lo que han interactuado antes, lo que limita su visión del mundo y los aísla de diversas perspectivas.

Las plataformas de vídeos cortos, en particular, intensifican este efecto. Su rápida distribución de contenidos y sus algoritmos basados ​​en la interacción suelen amplificar el contenido engañoso. Las investigaciones muestran que el efecto de cámara de eco es fuerte en estas plataformas, ya que los usuarios se agrupan en grupos en los que la información falsa se difunde rápidamente, especialmente en contextos con motivaciones políticas.

Además, la falta de supervisión editorial en las redes sociales implica que las falsedades pueden circular libremente, lo que dificulta que los usuarios distingan entre fuentes confiables y no confiables. Combinado con la falta de transparencia en la forma en que se seleccionan los feeds, los usuarios tienen poco control sobre el contenido que encuentran. Este entorno permite que florezca la información engañosa, especialmente cuando las campañas de desinformación coordinadas se dirigen a los usuarios con narrativas políticamente cargadas, lo que refuerza los sesgos existentes y dificulta la liberación del ciclo de desinformación.

Inteligencia artificial, deepfakes y lavado de información

El auge de los vídeos deepfake y las noticias falsas generadas por inteligencia artificial ha transformado drásticamente el panorama de la desinformación. Estas tecnologías, impulsadas por modelos avanzados de inteligencia artificial, pueden producir contenido audiovisual increíblemente realista, pero totalmente falso. Los deepfakes, que utilizan inteligencia artificial para manipular el vídeo y el audio, se han vuelto cada vez más convincentes, lo que hace que a las audiencias les resulte más difícil distinguir lo que es real de lo que no lo es. El impacto es de largo alcance, ya que estos vídeos manipulados pueden engañar al público, influir en las conversaciones políticas y erosionar la confianza en las instituciones. Dado que las imágenes suelen considerarse más creíbles que el texto, los deepfakes son herramientas especialmente poderosas para difundir falsedades.

Este aumento de la desinformación impulsada por la IA también se vincula con una estrategia más amplia llamada lavado de información. Esto implica difundir narrativas falsas a través de fuentes aparentemente confiables, como grupos de expertos falsos o medios de comunicación tendenciosos, para darles un aire de legitimidad. Las investigaciones muestran que las organizaciones de medios respaldadas por el Estado a menudo amplifican estas historias falsas, mezclándolas con hechos selectivos para ocultar sus orígenes y mantener la negación. La combinación de tecnología deepfake accesible y lavado de información permite a los actores maliciosos presentar contenido falso como creíble, moldeando sutilmente la percepción pública en todo el mundo. A medida que mejoran los medios generados por IA, la capacidad de quienes están detrás de estas campañas de desinformación para manipular las realidades políticas y sociales solo se fortalece.

Desinformación patrocinada por el Estado

Los actores estatales suelen aprovechar la desinformación para moldear los panoramas políticos, sociales e ideológicos, manipulando la opinión pública e influyendo en las narrativas globales. Al explotar los sesgos cognitivos y amplificar las divisiones partidarias, estos actores convierten la información falsa en una poderosa herramienta para promover objetivos políticos o de seguridad. En el mundo digital actual, los actores estatales pueden dirigirse a poblaciones específicas con precisión quirúrgica, aprovechando la forma en que las personas procesan y creen la información.

El efecto de la desinformación aumenta cuando se aprovecha de las divisiones sociales y políticas existentes. Los actores estatales suelen saber exactamente a quién dirigirse, grupos más propensos a caer en narrativas que se basan en sus prejuicios existentes. Por ejemplo, una historia falsa cuidadosamente elaborada puede inflamar las tensiones políticas o cambiar la percepción pública de los líderes y las políticas. El poder de la desinformación reside en su capacidad de resonar con los temores y valores de un público objetivo, haciendo que los consumidores la perciban como auténtica y confiable.

En la era digital, los actores estatales amplifican estas tácticas mediante cuentas falsas en las redes sociales, bots y contenido generado por inteligencia artificial. Los bots y los trolls imitan la actividad humana real (interacción) para crear la ilusión de un amplio apoyo popular. Las tecnologías de inteligencia artificial, como los deepfakes o las noticias falsas, añaden una capa de autenticidad, difuminando la línea entre los hechos y la ficción. Estas herramientas facilitan la difusión de la desinformación, que a menudo engaña incluso a las audiencias más cautelosas o perspicaces.

El miedo y la incertidumbre son detonantes emocionales clave en estas campañas. Al provocar ansiedad o ira, la desinformación puede crear una falsa sensación de crisis, dividiendo aún más a las sociedades. En algunos casos, los hechos inventados (como la campaña de 2020 respaldada por Arabia Saudita sobre un golpe de Estado en Qatar) se aprovechan de las tensiones nacionales o regionales existentes, creando confusión y erosionando la confianza en las instituciones políticas. Cuando estas historias falsas llegan a los medios de comunicación tradicionales, consolidan aún más su impacto y difunden la desinformación en múltiples plataformas.

Además, la creación de periodistas, medios de comunicación y personajes falsos añade otra capa de engaño. Al construir narrativas aparentemente legítimas mediante cuentas falsas o imágenes generadas por inteligencia artificial, los Estados pueden manipular la percepción pública de manera más sutil. Un ejemplo de ello es la creación de PeaceData por parte de la Agencia de Investigación de Internet, una publicación falsa que utilizaba imágenes generadas por inteligencia artificial y escritores autónomos reales. Estas estrategias dificultan la distinción entre noticias reales y contenido manipulado, lo que confunde las fronteras entre el periodismo genuino y la desinformación.

Contraestrategias: un enfoque basado en la neurociencia para desarrollar la resiliencia

a. Inmunidad cognitiva y pensamiento crítico

El papel de la alfabetización mediática en la reducción de la susceptibilidad a contenidos engañosos

La inmunidad cognitiva es fundamental para proteger a las personas de contenidos falsos y engañosos, ayudándolas a reconocer y resistir las ideas dañinas, especialmente las que circulan en las redes sociales y las plataformas digitales. La idea detrás de la inmunología cognitiva (IC) es similar a la forma en que el sistema inmunológico del cuerpo se defiende contra los gérmenes dañinos: así como el sistema inmunológico filtra las amenazas, la inmunidad cognitiva ayuda a filtrar la información falsa o dañina. Esta analogía ayuda a explicar por qué las intervenciones destinadas a desarrollar la inmunidad cognitiva son tan importantes en un mundo lleno de noticias engañosas e ideologías divisivas.

Para fortalecer la inmunidad cognitiva, existen muchas intervenciones ejemplares centradas en mejorar la alfabetización mediática y las habilidades de pensamiento crítico. Un ejemplo es el programa Ethos BT durante las elecciones presidenciales de Colombia de 2022, que abordó los factores psicológicos vinculados a la información falsa, como la confianza, la percepción de sesgo y la incomodidad ante la incertidumbre. Estas intervenciones utilizaron conocimientos conductuales para ayudar a las personas a pensar de forma más crítica, reduciendo en última instancia su vulnerabilidad a las noticias falsas. El estudio concluyó que las intervenciones basadas en vídeos eran especialmente eficaces para hacer que las personas desconfiaran menos de las noticias falsas.

Además, algunos programas dirigidos a los adolescentes, como el enfoque prosocial de las noticias falsas, utilizan la disonancia cognitiva y los valores prosociales para crear un cambio a largo plazo. Estos programas alientan a los jóvenes a convertirse en expertos que enseñan a sus familiares a detectar las noticias falsas, aprovechando el bien social para impulsar el pensamiento crítico. El éxito de estos programas depende de la participación y la motivación de los estudiantes, lo que demuestra que cuanto más motivada esté una persona para pensar de manera crítica, mejor podrá identificar la información falsa.

La necesidad de pensamiento crítico en la educación es evidente, y se pide que se integren lecciones basadas en la inmunología cognitiva en los programas de periodismo y en los planes de estudio escolares. Al enseñar a los estudiantes a evaluar la información de manera crítica y a reconocer sus propios sesgos, estos programas pueden ayudar a crear una generación mejor preparada para resistir la información falsa. Fomentar entornos que promuevan la reflexión, el diálogo abierto y la participación comunitaria puede mejorar aún más la inmunidad cognitiva, que es esencial para hacer frente a la propagación de ideologías y noticias falsas y dañinas.

Fomentar la humildad intelectual: enseñar a la gente a cuestionar

La humildad intelectual es fundamental para fomentar el pensamiento crítico y fortalecer la inmunidad cognitiva. Ayuda a las personas a reconocer los límites de sus propios conocimientos y creencias, lo que es esencial para cuestionar los prejuicios y estar abiertos a opiniones opuestas. Las personas que practican la humildad intelectual están más dispuestas a abordar evidencias contradictorias y repensar sus posiciones en función de nueva información. Al reconocer que sus creencias son falibles, estas personas desarrollan una comprensión más profunda de diferentes perspectivas y cultivan un enfoque más abierto.

El pensamiento crítico prospera cuando las personas adoptan la humildad intelectual, porque las alienta a centrarse en la calidad de la evidencia y a considerar puntos de vista alternativos. Esto conduce a una toma de decisiones más reflexiva e informada, ya que las personas intelectualmente humildes tienen más probabilidades de consultar diversas fuentes y reflexionar sobre ideas que desafían las suyas.

Las prácticas de atención plena también desempeñan un papel fundamental en el fomento de la humildad intelectual. Al ayudar a las personas a ser más conscientes de sus pensamientos y juicios, la atención plena reduce las reacciones impulsivas y hace que las personas sean más receptivas a nuevas perspectivas. La práctica de la atención plena fomenta la curiosidad y la comprensión de lo interconectados que estamos todos, lo que permite un enfoque más flexible y de mente abierta para la resolución de problemas.

Además, estrategias como el entrenamiento metacognitivo y la promoción de una mentalidad de crecimiento pueden desarrollar aún más la humildad intelectual. Estas estrategias ayudan a las personas a cuestionar sus suposiciones y a obtener una visión más equilibrada de sus capacidades. A medida que las personas se vuelven más conscientes de sus sesgos cognitivos y de sus límites de conocimiento, están mejor preparadas para pensar de manera crítica y tomar decisiones que reflejen una comprensión más amplia y mejor informada del mundo.

política desinformación
Desde la pandemia hasta la política, la desinformación explota nuestros sesgos cognitivos y las redes sociales para moldear sociedades

b. Intervenciones algorítmicas y políticas:

Rediseñar los sistemas de recomendación para garantizar la precisión

Las plataformas digitales pueden rediseñar sus sistemas de recomendación para priorizar la precisión sobre la interacción, ajustando sus algoritmos para reducir la propagación de información falsa o engañosa. Actualmente, los algoritmos están orientados a maximizar la interacción del usuario, pero cambiar el enfoque a la calidad del contenido y la precisión de los hechos podría ayudar a limitar la desinformación. Sin embargo, este enfoque puede enfrentar resistencia debido a la dependencia de las plataformas de la interacción para impulsar los ingresos. Una posible solución es ofrecer a los usuarios la opción de optar por algoritmos que prioricen la precisión, aunque no está claro cuántos elegirían esta opción. Además, mejorar las herramientas de moderación de contenido para marcar o bajar la clasificación del contenido engañoso podría ser más eficaz, ya que las investigaciones muestran que el etiquetado de contenido ayuda a reducir la propagación de información falsa. Las técnicas de etiquetado más claras y asertivas también podrían contrarrestar las afirmaciones engañosas con mayor éxito.

Enfoques regulatorios para frenar las operaciones de información patrocinadas por el Estado

Para combatir las campañas de desinformación patrocinadas por los Estados, las medidas regulatorias podrían centrarse en aumentar la transparencia sobre el funcionamiento de los sistemas de recomendación. Por ejemplo, se podría exigir a las plataformas que auditen y evalúen sus algoritmos de recomendación, analizando específicamente su posible papel en la difusión de desinformación. La Ley de Servicios Digitales (DSA) de la UE, aprobada en 2022, ya incluye disposiciones para auditar estos sistemas a fin de garantizar que cumplan con las regulaciones. Dichas auditorías podrían centrarse en garantizar que los algoritmos no amplifiquen contenido dañino o engañoso. Además, se podría exigir a las plataformas que proporcionen explicaciones más claras sobre cómo funcionan sus algoritmos, lo que haría que todo el proceso fuera más transparente y responsable para los usuarios.

En conclusión, la información falsa no es sólo un subproducto de la conectividad digital; prospera debido a vulnerabilidades cognitivas profundamente arraigadas en la psicología humana. Las personas son más propensas a creer y compartir esa información, y el sistema de recompensa del cerebro a menudo refuerza la interacción con contenido engañoso, lo que empeora el problema. Los desencadenantes emocionales a veces perjudican el pensamiento racional, lo que hace que las personas sean más vulnerables. Los algoritmos de las redes sociales aprovechan estos sesgos cognitivos al priorizar la interacción sobre la precisión, creando cámaras de eco donde la información falsa se propaga más fácilmente. El aumento de la desinformación generada por IA ha complicado aún más los esfuerzos por distinguir la verdad de la falsedad, lo que permite que las debilidades cognitivas se exploten a una escala sin precedentes.

A medida que avance la tecnología de inteligencia artificial, la guerra cognitiva se volverá más sofisticada y los actores estatales y no estatales la utilizarán para manipular la opinión pública con mayor precisión. La capacidad de la inteligencia artificial para crear contenido hiperrealista desafiará los métodos tradicionales de verificación de datos, lo que dificultará determinar qué es real. Las campañas de desinformación no solo se dirigirán a las personas, sino que también erosionarán la confianza en las instituciones políticas, lo que alimentará la polarización y debilitará los sistemas políticos. En este panorama cambiante, es crucial desarrollar resiliencia cognitiva: se necesitan tanto la conciencia individual como las salvaguardas sistémicas para combatir la desinformación.


Kyaw Jaw Sine Marma es investigador de posgrado en la Silk Road School de la Universidad Renmin de China (RUC). Sus áreas de interés incluyen la guerra cognitiva, la estrategia cognitiva y la política internacional. Además, tiene experiencia en movilización y desarrollo de capacidades.

Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Georgia fortalece lazos con Irán: cambio de rumbo en la política exterior de Tbilisi

Gobierno armenio arremete contra Ter-Petrosyan por reunión con el Catolicós Karekin II