¿Elegiste ver ese vídeo o te lo impusieron? El caso Charlie Kirk y cómo los algoritmos moldean lo que sentimos, pensamos y compartimos en redes sociales

Un asesinato retransmitido, un algoritmo descontrolado y millones de personas atrapadas en un ciclo de exposición emocional. Así funciona el poder invisible de las redes sociales modernas.
Los algoritmos no solo muestran lo que quieres ver, sino también lo que quieren que sientas Los algoritmos no solo muestran lo que quieres ver, sino también lo que quieren que sientas
Los algoritmos no solo muestran lo que quieres ver, sino también lo que quieren que sientas. El caso Charles Kirk vuelve a plantear una pregunta clave: ¿hasta qué punto controlamos nuestra atención en las redes sociales? Foto: Reuters / Christian Pérez

El pasado miércoles, Charlie Kirk, una de las figuras más influyentes del movimiento conservador estadounidense, cayó abatido por un disparo durante un evento en Utah. Lo que debería haber sido un suceso trágico con cobertura mediática tradicional se convirtió, gracias al algoritmo de X (antes Twitter), en una experiencia psicodigital masiva. Millones de usuarios vieron —y volvieron a ver— los vídeos del momento exacto del disparo. En directo, en bucle, sin filtros. Sin que nadie lo pidiera. Y sin que nadie pudiera frenarlo.

Pero ¿por qué ocurre esto? ¿Por qué los algoritmos de redes sociales priorizan, repiten y amplifican contenidos traumáticos hasta convertirlos en omnipresentes? La respuesta tiene menos que ver con la información… y más con nuestro cerebro.

La lógica de la atención: cuando el algoritmo explota nuestras emociones

Los algoritmos de plataformas como X, TikTok o Facebook están diseñados para maximizar el “engagement”, es decir, captar y retener nuestra atención. Y si hay algo que nuestro cerebro no puede ignorar, es el peligro, el shock o la tragedia.

“Estas plataformas están diseñadas para ser adictivas, utilizando recompensas intermitentes y provocando respuestas emocionales como la rabia, la ansiedad o el miedo, que prolongan nuestro tiempo de conexión”, explica la profesora Neta Alexander, experta en medios y algoritmos. Esto se traduce en que los contenidos más extremos o sensacionalistas no solo captan más clics, sino que también son promovidos automáticamente por los sistemas de recomendación.

Y lo más inquietante: no somos nosotros quienes elegimos ver esos vídeos. Es el sistema quien decide mostrarlos.

La tormenta tras el disparo: cómo X convirtió una tragedia en espectáculo viral

Tras la confirmación del asesinato de Kirk, los algoritmos de X comenzaron a mostrar incesantemente los vídeos del tiroteo grabados por asistentes al evento. Muchos usuarios afirmaron haberlos visto “sin buscarlos”, mientras otros se quejaban de no poder evitar que el contenido apareciera repetidamente en sus timelines.

Lo que ocurrió fue un ejemplo perfecto de “contagio complejo”, un fenómeno estudiado por el profesor Filippo Menczer: cuanto más veces vemos un contenido, más probable es que lo adoptemos, lo comentemos o lo compartamos. Incluso aunque nos perturbe.

Es un bucle psicológico que los algoritmos conocen bien. A más interacción, más visibilidad. Y a más visibilidad, más impacto emocional.

Como analicé en Una pandemia de desinformación (The Facts, 2022), durante la crisis sanitaria de la COVID-19 los algoritmos de redes sociales jugaron un papel clave en la expansión y normalización de contenidos manipuladores. Lejos de ser herramientas neutras, estos sistemas de recomendación funcionaron como amplificadores de todo aquello que provocaba mayor respuesta emocional: miedo, sospecha, indignación. Eso explica por qué los vídeos sobre teorías conspirativas, supuestos tratamientos milagrosos o bulos antivacunas no solo circularon más, sino que fueron priorizados en los feeds. No era un fallo técnico, era diseño algorítmico orientado a maximizar la permanencia del usuario.

Por ejemplo, un estudio publicado por Vosoughi et al. (2018) en Science, ya había demostrado que la desinformación tiene un 70% más de probabilidades de ser compartida que la información veraz. Durante la pandemia, estos patrones se intensificaron. Según datos recogidos por el Centre for Countering Digital Hate, hasta el 65% de las interacciones sobre contenido antivacunas en Facebook provenían de solo doce cuentas —lo que demuestra no solo la viralidad, sino la concentración del fenómeno. Y un análisis del MIT Media Lab mostró que las fake news sobre COVID-19 alcanzaban a más usuarios y lo hacían más rápido que los comunicados oficiales de organismos sanitarios. De hecho, un análisis anterior encontró que los rumores falsos alcanzaban ciertos umbrales de audiencia mucho más rápido que los verdaderos

La consecuencia fue un entorno digital donde el algoritmo no solo mostraba información errónea, sino que la organizaba en bucles de refuerzo: una vez dentro de la lógica conspirativa, las siguientes recomendaciones llevaban a más contenido del mismo tipo. En otras palabras, el algoritmo no solo sugería lo que querías ver, sino lo que más te alteraba. Y lo hacía sin filtros ni contexto. Lo vimos con la vacuna, lo vimos con la ivermectina, y lo volvemos a ver ahora con la exposición masiva a vídeos de violencia.

Cuando la libertad de expresión es en realidad manipulación de la exposición

Uno de los grandes malentendidos sobre las redes sociales es pensar que funcionan como un “ágora digital” o “plaza pública”, donde todas las ideas compiten en igualdad de condiciones. Elon Musk, al adquirir X, llegó a decir que su plataforma sería “la plaza del pueblo” de la era digital.

Pero esta visión olvida un detalle clave: las plazas públicas no tienen algoritmos. En X, TikTok o Facebook, no todas las voces se escuchan por igual. Lo que se ve depende de patrones opacos de programación que deciden qué contenido se muestra, a quién y en qué momento.

“El valor de una idea en redes sociales no refleja su calidad, sino su rendimiento dentro del algoritmo”, resume Asha Rangappa, profesora en Yale. Es decir: no gana la verdad, gana lo que más se comparte.

El algoritmo como nuevo censor (invisible y sin ideología)

Aunque las plataformas alegan proteger la libertad de expresión, lo cierto es que sus algoritmos actúan como filtros selectivos. No censuran directamente —no bloquean lo que se dice— pero sí deciden quién lo ve y quién no.

“Los algoritmos de recomendación no restringen el contenido, pero sí determinan qué es visible. Y eso interfiere con la libertad de expresión de forma sin precedentes”, argumentan los profesores Kai Riemer y Sandra Peter, autores del concepto de “sociedad algorítmica”.

Así, mientras gobiernos debaten cómo moderar discursos de odio o noticias falsas, la raíz del problema no está en lo que se publica, sino en cómo se distribuye. El caso de Kirk lo demuestra: un acto violento se convirtió en contenido viral no por decisión humana, sino por cálculo automático.

La repetida exposición a contenidos violentos tiene consecuencias reales. Ansiedad, insomnio, desensibilización… y, en el caso de los jóvenes, incluso conductas autolesivas.

Estudios liderados por investigadores de Yale revelan que el 46% de los adolescentes estadounidenses están “conectados casi constantemente”, y que el consumo excesivo de redes sociales está vinculado a depresión, ansiedad y aislamiento social. La clave está en cómo los algoritmos explotan nuestros puntos débiles.

“Los algoritmos están diseñados para mantenernos enganchados, incluso si eso significa hacernos daño”, advierte el psiquiatra Marc Potenza.

Las campañas de manipulación: no solo virales, también coordinadas

A este caldo de cultivo hay que añadir un ingrediente más: la manipulación intencionada. Investigaciones recientes han documentado cómo gobiernos extranjeros (Rusia, China, Irán) crean redes de cuentas falsas que explotan el algoritmo para diseminar desinformación, radicalizar opiniones o amplificar el caos.

En simulaciones computacionales, se ha demostrado que basta con infiltrar unas pocas cuentas falsas en una red social para degradar la calidad de la información que reciben los usuarios en más de un 50%. Y si esas cuentas además publican contenido emocional o conspirativo, el deterioro puede alcanzar el 70%.

¿Conclusión? Las mismas herramientas que muestran un vídeo de un asesinato en bucle también pueden ser usadas para manipular unas elecciones.

¿Podemos hacer algo?

Frente a este panorama inquietante, los expertos plantean distintas vías para recuperar el control. Una de ellas es exigir transparencia: que las plataformas revelen cómo funcionan realmente sus algoritmos. Otra opción es introducir mecanismos que dificulten la viralidad automática, como los CAPTCHAs o pequeños retrasos que nos obliguen a pensar antes de compartir.

También se habla de la importancia de la educación algorítmica, es decir, enseñar a los usuarios a reconocer cuándo están siendo manipulados y cómo proteger su atención. El politólogo Francis Fukuyama, por ejemplo, propone una solución más técnica: el uso de middleware, sistemas intermedios que permitan a los usuarios decidir cómo quieren que se les muestre el contenido, en lugar de dejar esa decisión en manos de las plataformas.

Y por supuesto, siempre queda lo más sencillo y quizá lo más efectivo: recuperar opciones humanas. Usar redes en modo cronológico, limitar el tiempo de uso, apagar el móvil antes de dormir… o simplemente, decidir no mirar.

Sin duda alguna, el caso de Charles Kirk ha puesto frente al espejo a millones de usuarios. No solo por el horror de lo ocurrido, sino por la forma en que fue consumido. Sin buscarlo. Sin quererlo. Pero sin poder dejar de verlo.

Ese es el verdadero poder de los algoritmos. No deciden lo que decimos, pero sí lo que sentimos.

Y lo que sentimos… les da beneficios.