Investigadores de la Binghamton University (BU) y la State University of New York (SUNY) han desarrollado un sistema de Inteligencia Artificial (IA) que promete mitigar la propagación de contenido engañoso en las redes sociales. Este avance se da en un contexto donde la información errónea se difunde con rapidez, especialmente en plataformas digitales que priorizan interacciones.
El estudio, publicado el 17 de julio de 2025, destaca cómo las plataformas digitales, al optimizar la entrega de contenido según las interacciones de los usuarios, pueden amplificar la difusión de teorías conspirativas. Esto se debe a que el contenido emocional o polarizador tiene más probabilidades de ser compartido, formando lo que se conoce como una “cámara de resonancia”.
La importancia de una IA contrarrestante
El marco de IA propuesto tiene como objetivo permitir que tanto usuarios como operadores de plataformas, como Meta o X, identifiquen y eliminen fuentes de desinformación. “El entorno en línea favorece la creación de esta dinámica porque la información se comparte con rapidez”, afirmó Thi Tran, coautor del estudio y profesor de sistemas de información de gestión en la BU.
Tran enfatizó que, aunque la IA puede usarse para propagar desinformación, también puede ser diseñada para promover fuentes informativas diversas. “La creación de la IA es obra de las personas; así como hay personas buenas y malas, también la IA puede ser utilizada para fines positivos o negativos”, añadió.
Los investigadores realizaron una encuesta a 50 estudiantes universitarios sobre afirmaciones falsas relacionadas con la vacuna contra la COVID-19. Los resultados revelaron que, aunque el 90% de los encuestados continuaría vacunándose, el 70% compartió que podría difundir la información errónea en redes sociales, lo que pone de relieve la necesidad de una verificación más robusta.
Un enfoque proactivo contra la desinformación
El estudio también destacó que, aunque muchos participantes pudieron identificar la información falsa, sentían la necesidad de buscar más pruebas antes de rechazarla completamente. Esto muestra un aspecto crucial de la desinformación: la repetición de ciertos mensajes puede llevar a que las personas crean firmemente en ellos, independientemente de su veracidad. “Todos deseamos transparencia informativa”, concluyó Tran, “pero cuanto más expuestos estemos a cierta información, más probable es que la consideremos cierta”.
El artículo de investigación, titulado “Ecos Amplificados: Un Estudio de Contenido Generado por IA y Cámaras de Eco Digitales”, fue presentado en una conferencia organizada por la Sociedad de Ingenieros de Instrumentación Fotoóptica (SPIE) y fue coautorado por Seden Akcinaroglu, Nihal Poredi y Ashley Kearney.
