Investigadores de Binghamton University y la State University of New York han desarrollado un sistema de Inteligencia Artificial (IA) diseñado para mapear las interacciones entre el contenido y los algoritmos en plataformas digitales. Este avance busca reducir la propagación de información dañina o engañosa, una problemática creciente en un entorno donde las redes sociales son la principal fuente de información para muchos usuarios.
El estudio, publicado el 17 de julio de 2025, pone de relieve cómo los algoritmos pueden amplificar contenido polarizante y teorías conspirativas, especialmente cuando este contenido provoca una carga emocional. Los investigadores sugieren que su marco de IA podría ayudar a identificar y eliminar fuentes de desinformación, promoviendo a su vez la diversidad informativa en las plataformas.
El fenómeno de la cámara de resonancia
El fenómeno de la “cámara de resonancia” en redes sociales se refiere a la tendencia de los usuarios a recibir y compartir información que refuerza sus propias creencias. Thi Tran, coautor del estudio y profesor adjunto en la Facultad de Administración de la BU, indica que “el entorno en línea ofrece las condiciones ideales para que se active ese efecto”. Esto se debe a la rapidez con que se comparte información y a cómo las plataformas optimizan la entrega de contenido basado en las interacciones de los usuarios.
Los investigadores llevaron a cabo una encuesta aleatoria entre 50 estudiantes universitarios, quienes reaccionaron a cinco afirmaciones erróneas relacionadas con la vacuna contra la COVID-19. A pesar de que el 90% de los encuestados expresó que seguiría vacunándose, el 70% indicó que compartiría información falsa en redes sociales, lo que demuestra la complejidad de la dinámica de desinformación.
Reconocer la desinformación y su impacto
El estudio señala un aspecto crucial: muchas personas pueden identificar afirmaciones falsas, pero todavía se sienten impulsadas a buscar pruebas adicionales antes de rechazarlas. “Todos queremos transparencia informativa, pero cuanto más expuesto estés a cierta información, más creerás que es cierta, incluso si es inexacta”, enfatizó Tran.
La investigación, titulada “Ecos Amplificados: Un Estudio de Contenido Generado por IA y Cámaras de Eco Digitales”, se presentó en una conferencia organizada por la Sociedad de Ingenieros de Instrumentación Fotoóptica (SPIE). Los autores, además de Tran, incluyen a Seden Akcinaroglu, Nihal Poredi, y Ashley Kearney, quienes destacan la necesidad de emplear la misma tecnología que utilizan los difusores de desinformación para contrarrestar sus efectos y fomentar un contenido confiable.
La implementación de este tipo de IA en plataformas como Meta o X podría representar un paso significativo hacia la mitigación de la desinformación, promoviendo un ecosistema digital más saludable y diverso. A medida que la tecnología avanza, la responsabilidad de crear un entorno informativo confiable recae tanto en los desarrolladores como en los usuarios.