Un equipo de investigadores de la Binghamton University y la State University of New York ha desarrollado un sistema de Inteligencia Artificial (IA) con el potencial de mapear las interacciones entre el contenido y los algoritmos en las plataformas digitales, buscando mitigar la propagación de información engañosa o perjudicial. Este avance fue presentado en un artículo por Anthony Borrelli el 17 de julio de 2025, y traducido para su difusión.
El fenómeno de la “cámara de resonancia” se ha vuelto cada vez más evidente en las redes sociales, donde los usuarios se ven atrapados en un ciclo de contenido similar que refuerza sus creencias, independientemente de su veracidad. La investigación sugiere que los algoritmos actuales, enfocados en maximizar la interacción, amplifican teorías conspirativas y desinformación, especialmente cuando el contenido es emocionalmente cargado.
Propuesta de un sistema de IA
Los investigadores proponen un marco de IA que permitiría a los usuarios y administradores de plataformas como Meta o X identificar y eliminar fuentes de desinformación. Este sistema facilitaría la promoción de una variedad de fuentes informativas, contrarrestando así el efecto de la cámara de eco.
Según Thi Tran, coautor del estudio y profesor adjunto de sistemas de información de gestión, “el entorno en línea ofrece las condiciones ideales para que se active este efecto debido a la rapidez con la que compartimos información”. Tran enfatiza la importancia de cuestionar la veracidad de lo que se consume, ya sea generado por humanos o por IA.
El estudio también destaca cómo las plataformas digitales optimizan la entrega de contenido según las métricas de interacción. Esto puede llevar a que los usuarios solo interactúen con información que refuerza sus sesgos, filtrando así diversas perspectivas. Para validar esta teoría, se realizó una encuesta con 50 estudiantes universitarios que reaccionaron a afirmaciones erróneas relacionadas con la vacuna contra la COVID-19.
Resultados de la encuesta y sus implicaciones
Los participantes respondieron a cinco afirmaciones falsas sobre la vacuna, entre ellas que las vacunas se utilizan para implantar códigos de barras en la población y que representan mayores riesgos para los niños que el propio virus. Los resultados mostraron que el 90% de los encuestados continuarían vacunándose después de escuchar estas afirmaciones, mientras que el 70% compartiría dicha información en redes sociales.
Un 60% de los participantes identificó las afirmaciones como falsas, pero un 70% expresó la necesidad de más investigación para confirmar su falsedad. Estos resultados destacan un aspecto crucial de la dinámica de la desinformación: aunque muchos pueden reconocer información errónea, a menudo se sienten obligados a buscar más pruebas antes de descartarla.
Tran concluye que “todos queremos transparencia informativa, pero cuanto más expuesto estés a cierta información, más creerás que es cierta, incluso si es inexacta”. La investigación propone que, en lugar de depender únicamente de verificadores de datos, se puede utilizar la misma IA que se emplea para difundir desinformación para reforzar contenido confiable.
El artículo de investigación, titulado “Ecos Amplificados: Un Estudio de Contenido Generado por IA y Cámaras de Eco Digitales”, fue presentado en una conferencia organizada por la Sociedad de Ingenieros de Instrumentación Fotoóptica (SPIE) y cuenta con la colaboración de otros académicos como Seden Akcinaroglu, Nihal Poredi y Ashley Kearney.