Fuente: Freepik
En el contexto actual de la comunicación digital, la proliferación de comentarios tóxicos en redes sociales se convierte cada día más en un desafío tanto para los periodistas como para las plataformas que buscan mantener un debate saludable. El estudio «Aplicación de herramientas de IA como metodología para el análisis de la toxicidad en redes sociales: Estudio de caso de la política española en Twitter» reflexiona sobre cómo el uso de Inteligencia Artificial está redefiniendo el panorama de la moderación de contenidos y los retos éticos que esto plantea para el periodismo.
Según el estudio, el concepto de «fake news» se popularizó durante la elección de Trump, pero Wardle y Derakhshan amplían la idea para incluir contenido manipulado o dañino, abarcando tanto las noticias falsas como el discurso de odio, el acoso y el cyberbullying. Por lo tanto, al hablar de toxicidad en línea también estaríamos refiriéndonos a la desinformación.
Fuente: Pixabay
Combatir este entorno que plaga el Internet actualmente es una responsabilidad ética de los periodistas, con base en principios como la búsqueda de la verdad, la defensa de la justicia social y la protección de voces vulnerables. El periodismo tiene la misión de fomentar un debate basado en hechos, y proteger la integridad del discurso democrático. Al tomar medidas contra la toxicidad, se fortalece la credibilidad de la profesión y se promueve un entorno informativo saludable. En este sentido, la IA puede resultar una herramienta valiosa para ayudar a cumplir con esta responsabilidad.
Fuente: Pixabay
La IA como herramienta para detectar la toxicidad y la desinformación
En el estudio se utilizó la herramienta Perspective API, una inteligencia artificial diseñada para identificar comentarios tóxicos, en este caso, en X o Twitter. Se analizaron más de 43.000 tuits relacionados con políticos españoles, y los resultados revelaron que la conversación sobre temas políticos en Twitter presenta la toxicidad como rasgo intrínseco, independientemente de la ideología política del creador del tuit. Por ejemplo, alrededor de una de cada tres respuestas son insultos (34%).
Curiosamente, se descubrió que los usuarios reales son los principales generadores de toxicidad en estas conversaciones. En los hilos analizados, con un promedio de 21% de usuarios ficticios, solo el 9% de las respuestas tóxicas fueron emitidas por bots.
Moderación de contenido y la responsabilidad ética de los medios
La utilización de IA para moderar contenido plantea preguntas éticas fundamentales para el periodismo. Si bien herramientas como Perspective API ayudan a identificar y filtrar comentarios tóxicos, también existe el riesgo de sesgos en la moderación. Por ejemplo, el estudio menciona que ciertos términos relacionados con la identidad, como “negro”, «feminista», “mujer”, “gay” o «musulmán», pueden recibir puntuaciones de toxicidad más altas debido a su frecuente asociación con críticas abusivas en línea.
Este tipo de sesgo algorítmico puede llevar a una moderación injusta o desproporcionada que afecta la libertad de expresión. Los periodistas y los medios deben ser conscientes de estas limitaciones y trabajar para garantizar que la implementación de estas tecnologías no perpetúe discriminaciones o censure injustamente ciertas voces.
Fuente: Freepik
La toxicidad y la desinformación se han convertido en herramientas comunes para manipular la conversación pública, especialmente en temas políticos. En un entorno donde las noticias falsas tienen un 70% más de probabilidades de ser compartidas que las verdaderas, el desafío para los periodistas es monumental. Como profesionales, tienen la responsabilidad de no solo informar con precisión, sino también de educar al público sobre cómo identificar y combatir estos fenómenos. Esto incluye ser transparentes acerca de las fuentes utilizadas, verificar la autenticidad de la información antes de su publicación y desafiar activamente las narrativas falsas que puedan surgir.
Los dilemas éticos del uso de la IA en el periodismo para detectar la toxicidad
El uso de inteligencia artificial en el periodismo, especialmente en la moderación de contenido, trae consigo una serie de dilemas éticos que deben ser considerados. Estas tecnologías pueden ser una herramienta poderosa para filtrar el contenido dañino y fomentar un debate más saludable, pero siguen siendo herramientas en fase experimental y con errores de sesgo.
Es fundamental que los periodistas no deleguen completamente su responsabilidad en las máquinas. Aunque la IA puede ayudar a identificar patrones y a medir la toxicidad, la interpretación final de lo que constituye un contenido inapropiado debe ser evaluada desde una perspectiva humana y ética. La labor periodística profesional para lograr un debate informado, respetuoso y libre de manipulación, que maximice la equidad, sigue teniendo su lugar estrella.
FDO: Lucía Domínguez, Noelia Gómez e Ismary Oviedo