La selección natural nos programó para seguir al más confiado, no al más competente. En la era de los algoritmos y el populismo, ese sesgo evolutivo se ha convertido en una vulnerabilidad política sistémica.

La ventaja del ignorante: por qué la certeza gana elecciones que la competencia pierde

En las democracias del siglo XXI, los sesgos cognitivos que nos permitieron sobrevivir en la sabana se han convertido en el manual de operaciones del populismo. No es un fallo del votante. Es una trampa arquitectónica del cerebro que la tecnología digital ha afinado hasta hacerla sistémica.


Septiembre de 2022. Liz Truss lleva cuarenta y cinco días como primera ministra del Reino Unido. Con la misma seguridad con la que un mecánico te diagnostica el coche sin abrir el capó, anuncia recortes fiscales sin financiar por 45.000 millones de libras. Sin pedir evaluación a la Oficina de Responsabilidad Presupuestaria. Sin contemplar que los mercados pudieran responder de forma distinta a lo que su doctrina predecía. “El plan de crecimiento funcionará”, declara con la mirada firme de quien no ha considerado seriamente la hipótesis contraria.

Cuatro días después, la libra cae a mínimos históricos frente al dólar. El Banco de Inglaterra interviene de emergencia con 65.000 millones para evitar el colapso del mercado de deuda pública. Los fondos de pensiones de millones de trabajadores tambalean. Truss dura cuarenta y nueve días en el cargo —menos que una lechuga, según el meme ya legendario del Daily Star, que apostó en tiempo real por el vegetal.

Nada de esto la hizo parecer menos apta ante su electorado antes de llegar al poder. Todo lo contrario: su certeza fue parte de su atractivo.

Aquí empieza la paradoja que conviene tomarse en serio.


El cerebro que nunca aprendió a votar

La selección natural no diseñó el cerebro humano para evaluar propuestas de política fiscal. Lo diseñó para otra cosa: tomar decisiones rápidas bajo presión, mantener cohesión grupal frente a amenazas externas, y seguir a quien proyecta más confianza en el momento del peligro.

En un entorno pleistocénico, la duda puede ser letal. Si el líder vacila ante el rastro del depredador, el grupo duda, la acción se retrasa, el resultado empeora. El individuo que sigue al más confiado —aunque ese confiado esté equivocado— tiene estadísticamente mejores probabilidades de sobrevivir que el que espera a deliberar. La certeza era una señal de fiabilidad. Millones de años de presión evolutiva la han codificado así.

Daniel Kahneman formalizó el mecanismo subyacente con su distinción entre el Sistema 1 —rápido, emocional, automático— y el Sistema 2 —lento, deliberado, costoso en energía cognitiva. Cuando evaluamos a un político en un debate, en un clip de veinte segundos, en un titular de Twitter, es el Sistema 1 quien toma la primera decisión. Y el Sistema 1 no evalúa argumentos: evalúa señales. Postura corporal. Tono de voz. Mirada directa. La textura subjetiva de la certeza.

El problema no es que seamos irracionales. Es que somos racionales en contextos para los que no fuimos diseñados.


Lo que saben los incompetentes que los competentes han olvidado

En 1999, Justin Kruger y David Dunning publicaron en el Journal of Personality and Social Psychology uno de los estudios más influyentes —y más frecuentemente mal citados— de la psicología cognitiva. Su hallazgo central: las personas con menor competencia en una habilidad tienden a sobreestimar significativamente su rendimiento. Los más competentes, en cambio, tienden a subestimarlo.

La ironía es estructural: no saber lo suficiente incluye no saber cuánto no sabes.

Aquí RedBeta tiene la obligación de una precisión que muchos divulgadores omiten: la robustez estadística del efecto ha sido cuestionada. En 2020, Gignac y Zajenkowski publicaron en Intelligence un análisis que atribuía parte del patrón a artefactos matemáticos —regresión a la media combinada con el efecto de “mejor que la media”. Estudios de replicación posteriores (Dunkel et al., Intelligence, 2023) encuentran el efecto presente pero de magnitud más pequeña de lo que la cultura pop sugiere. El debate metodológico no está cerrado.

¿Qué queda en pie? Lo que importa para este argumento: existe una tendencia documentada a que la incompetencia en un dominio dificulte la metacognición sobre esa incompetencia. Y que los individuos más competentes, precisamente porque son conscientes de los límites de su conocimiento, tienden a expresarse con más matices, más condiciones, más incertidumbre explícita.

Esa incertidumbre —que es señal de rigor intelectual— funciona en el escenario político como señal de debilidad.

Nadie lo sintetizó de forma más reveladora que Michael Gove en 2016, durante la campaña del Brexit. Cuando le señalaron que prácticamente todos los economistas del Reino Unido advertían contra la salida de la Unión Europea, Gove respondió con una frase que se convertiría en manifiesto epistémico del populismo contemporáneo: “La gente de este país ha tenido suficiente de los expertos.” Una declaración que, paradójicamente, requería bastante conocimiento retórico para ser tan eficazmente antintelectual.


El líder no informa: construye tribu

Yuval Noah Harari argumentó en Sapiens que la singularidad del Homo sapiens no reside en su inteligencia individual sino en su capacidad de cooperar masivamente en torno a ficciones compartidas: naciones, religiones, ideologías, mercados. Lo que permite movilizar a millones de personas no es la verdad compleja. Es el relato simple.

Javier Milei no ganó las elecciones argentinas de 2023 presentando modelos econométricos sobre la sostenibilidad del déficit fiscal. Ganó construyendo una dicotomía binaria de potencia emocional extraordinaria: la “casta” —corrupta, parásita, autoperpetuante— contra “la gente”. Su certeza era absoluta, su capacidad para proyectar convicción rozaba el fervor profético. Que los pronósticos más tajantes de su programa no se cumplieran en los plazos anunciados, o que los primeros datos económicos dibujaran una imagen sustancialmente más complicada que la prometida, importó menos de lo que un análisis puramente racional hubiera predicho.

Viktor Orbán lleva más de una década en el poder en Hungría construyendo exactamente el mismo dispositivo: la nación húngara —cristiana, soberana, amenazada— acosada por fuerzas externas (Bruselas, la migración, “el plan Soros”), y él como único intérprete legítimo de su voluntad histórica. El mecanismo es eficiente no porque sea verdad, sino porque activa con precisión las respuestas cognitivas que nuestra evolución preparó para situaciones de amenaza grupal. Oxitocina para los de dentro, cortisol para los de fuera. La tribu unida ante el enemigo exterior.

El líder simplificador no necesariamente engaña con mala fe calculada. A veces él mismo cree la ficción que construye. Lo que, desde el punto de vista de la persuasión, lo hace todavía más efectivo: la certeza subjetiva se transmite.


Cuando los algoritmos afinaron el arma

Todo lo anterior existía antes de las redes sociales. Pero el ecosistema digital lo ha convertido en arma de precisión industrial.

La velocidad es ahora la ventaja competitiva definitiva del discurso político. Una afirmación falsa formulada como eslogan puede circular un millón de veces antes de que la verificación factual termine de redactarse. Y los algoritmos de las grandes plataformas no fueron diseñados para premiar la veracidad: fueron diseñados para maximizar el tiempo de permanencia en pantalla. Las respuestas emocionales —indignación, miedo, identidad tribal— generan más tiempo de pantalla que la reflexión matizada.

Philip Tetlock pasó décadas investigando la calidad del juicio político de expertos y analistas. Su hallazgo más perturbador, recogido en Expert Political Judgment (2005), no es solo que los expertos se equivoquen con frecuencia —en política, la incertidumbre es constitutiva—. Es que existe una relación inversa entre el perfil mediático de un analista y la precisión de sus predicciones. Los expertos que más aparecen en televisión, los más seguros y categóricos, son estadísticamente los que peor aciertan en sus pronósticos.

Los que aciertan más son lo que Tetlock llama “zorros”, retomando la metáfora de Isaiah Berlin: personas que manejan múltiples marcos explicativos, se sienten cómodas con la incertidumbre, actualizan sus posiciones cuando los datos cambian, y expresan sus pronósticos con probabilidades en lugar de certezas absolutas. El problema, como Tetlock señala con sequedad, es que los zorros hacen muy mala televisión.

El ecosistema mediático y digital selecciona activamente contra la complejidad.


El contrato que firmamos sin leer

Pero hay un nivel más incómodo en este análisis, y apunta directamente hacia la ciudadanía.

Los líderes que proyectan certeza absoluta no llegan al poder por accidente. En buena medida, los elegimos porque queremos que alguien tenga la respuesta. La complejidad del mundo contemporáneo —cambio climático, desigualdad estructural, transformación tecnológica acelerada, pandemias— genera una ansiedad que busca resolución. Un líder honesto sobre esa complejidad incomoda. Un líder que diga que el problema es sencillo y la solución simple reconforta.

La pandemia ofreció un experimento natural de enorme claridad. Angela Merkel declaró en marzo de 2020, ante el Bundestag, que todavía no sabían exactamente cuánto duraría ni cómo evolucionaría el virus, pero que cada decisión seguiría el mejor consenso científico disponible. Fue coherente con la realidad epidemiológica. También fue políticamente más costosa que la alternativa.

La alternativa era anunciar que todo estaría bajo control para Semana Santa.

No es que el electorado sea estúpido. Es que el contrato implícito que las democracias ofrecen —”elige tú”— activa exactamente los circuitos que nos hacen preferir la certeza reconfortante a la incertidumbre honesta. Y las democracias no tienen, aún, buenas herramientas para cambiar ese contrato.


Ni determinismo ni resignación

La conclusión no puede ser el elitismo tecnocrático —la idea de que la democracia falla porque deja decidir a demasiada gente. Esa “solución” es la enfermedad disfrazada de remedio, y la historia de quién decide quién merece participar es demasiado oscura para romantizarla.

Tampoco es la ingenuidad educacionista: creer que basta con “alfabetizar críticamente” a la ciudadanía para que elija mejor, ignorando que los sesgos descritos afectan por igual a personas con y sin formación universitaria, que el efecto Dunning-Kruger no discrimina por titulación, que los “erizos” confiados y equivocados que Tetlock encontró eran mayoritariamente académicos y analistas de primer nivel.

Lo que queda, lo que puede funcionar, es rediseñar las instituciones para que actúen como contrapesos a nuestras vulnerabilidades cognitivas, no como amplificadores de ellas. La lentitud deliberada de los parlamentos, la independencia judicial, el periodismo que verifica antes de publicar, los organismos de supervisión fiscal que no dependen del gobierno de turno: todo eso son mecanismos institucionales diseñados —conscientemente o no— contra la impulsividad.

No es casual que los líderes que más daño han causado en democracias consolidadas hayan comenzado siempre por atacar exactamente esas instituciones. Llamarlas “la casta”, “el establishment”, “los enemigos del pueblo”. La narrativa anti-institucional no es un efecto secundario del populismo: es su estrategia central, porque las instituciones lentas y complejas son precisamente el anticuerpo que el populismo necesita neutralizar para prosperar.

Revalorizar la duda pública —política, epistémica, colectiva— es también un acto político. Un líder que dice “todavía no sabemos, pero aquí está la evidencia disponible y así tomaremos las decisiones” no es débil. Es funcionalmente más competente que uno que promete soluciones definitivas a problemas que no las tienen.

Que eso no siempre funcione electoralmente es el problema. Que sigamos construyendo las condiciones para que empiece a funcionar, la tarea.


Referencias

Dunkel, C.S., Nedelec, J.L. & van der Linden, D. (2023). “Reevaluating the Dunning-Kruger effect: A response to and replication of Gignac and Zajenkowski (2020).” Intelligence, 96, 101717. DOI: 10.1016/j.intell.2022.101717

Gignac, G.E. & Zajenkowski, M. (2020). “The Dunning-Kruger effect is (mostly) a statistical artefact: Valid approaches to testing the hypothesis with individual differences data.” Intelligence, 80, 101449. DOI: 10.1016/j.intell.2020.101449

Harari, Y.N. (2011). Sapiens: De animales a dioses. Debate.

Kahneman, D. (2011). Pensar rápido, pensar despacio. Debate.

Kruger, J. & Dunning, D. (1999). “Unskilled and unaware of it: How difficulties in recognizing one’s own incompetence lead to inflated self-assessments.” Journal of Personality and Social Psychology, 77(6), 1121–1134. DOI: 10.1037/0022-3514.77.6.1121

Tetlock, P.E. (2005). Expert Political Judgment: How Good Is It? How Can We Know? Princeton University Press.

Wikipedia / The Conversation (2022). “September 2022 United Kingdom mini-budget.” Múltiples fuentes documentando el episodio Truss.

 

teoría de la escalada Irán guerra Previous post El profeta del algoritmo y la guerra real: teoría de la escalada, Irán y los límites del gurú geopolítico
A young man standing before a military recruitment office door. Behind him, a long shadow in the shape of a golden skyscraper is cast on the pavement. Other young men of similar age wait in line. Style: dramatic political illustration, stark contrast between gold and grey tones, no faces visible, symbolic composition. No text." Next post “Recluten a Barron”: cuando los veteranos exigen que la familia Trump pague su deuda con el ejército