Verify News

Noticias verificadas de Honduras

Geopolítica de ChatGPT: cómo los chatbots de IA pueden usarse para compartir propaganda política e influir en la opinión pública

Geopolítica de ChatGPT: cómo los chatbots de IA pueden usarse para compartir propaganda política e influir en la opinión pública

Geopolítica de ChatGPT: cómo los chatbots de IA pueden usarse para compartir propaganda política e influir en la opinión pública

Manipulación de chatbots de IA: cómo actores estatales y redes de desinformación influyen en sus respuestas

La expansión del uso de los chatbots de inteligencia artificial (IA) ha suscitado inquietud en especialistas y organismos reguladores debido a su potencial empleo para la propagación de relatos particulares. Investigaciones recientes revelan que estas plataformas, concebidas inicialmente para ofrecer asistencia fidedigna a los usuarios, son susceptibles de ser configuradas o manipuladas por entidades gubernamentales y redes de desinformación con el fin de emitir respuestas parciales o erróneas, lo que repercute en la opinión pública y en la credibilidad de los datos en línea.

¿Qué se estudia?

Investigaciones recientes han revelado diversas tácticas utilizadas para manipular las respuestas de los chatbots. Una de estas estrategias, denominada “LLM grooming”, implica la inundación de la red con material automatizado y engañoso, con el fin de que los modelos de lenguaje lo integren en sus conjuntos de datos. Por ejemplo, se ha documentado cómo una red con afinidad prorrusa supuestamente diseminó información errónea a través de más de 150 portales web en varios idiomas, lo que resultó en la aparición de estas falsedades en las salidas producidas por chatbots de origen occidental.

Además de la influencia sutil ejercida mediante el contenido digital, ciertas administraciones gubernamentales establecen salvaguardas en los sistemas de inteligencia artificial. En la República Popular China, por ejemplo, el asistente conversacional DeepSeek se abstiene de contestar interrogantes delicados acerca del régimen o acontecimientos históricos controvertidos, acatando normativas que resguardan los “principios socialistas esenciales”. Por otro lado, en los Estados Unidos, una orden ejecutiva demanda que los modelos subvencionados por el estado conserven una imparcialidad ideológica, restringiendo alusiones a cuestiones de etnia, sexo y orientación sexual.

Expertos en IA señalan que estas prácticas no solo influyen en la información que los usuarios reciben, sino que también pueden socavar la democracia, polarizar sociedades y debilitar la confianza pública. La persuasión implícita en los textos generados por los chatbots hace que los usuarios confíen excesivamente en sus respuestas, lo que aumenta el riesgo de desinformación y manipulación psicológica a gran escala.

¿Cuál es el veredicto?

Tras examinar estas tácticas, la conclusión es innegable: los asistentes conversacionales basados en inteligencia artificial son susceptibles a la alteración, ya sea por medio de información digital o por modificaciones en su proceso de aprendizaje, lo que podría comprometer la exactitud de sus contestaciones. Métodos como el «LLM grooming» y el aprendizaje por refuerzo con intervención humana posibilitan que los modelos de lenguaje exhiban prejuicios o preferencias particulares de aquellos que gestionan los datos o supervisan los algoritmos.

Esta debilidad impacta directamente la credibilidad ciudadana y la autonomía de expresión. Los individuos que no verifican los datos con fuentes fidedignas podrían verse expuestos a relatos tergiversados, al tiempo que la supresión o el filtrado de asuntos delicados podría conducirlos a entornos virtuales que consoliden sesgos o propaguen mensajes de odio. Los especialistas subrayan que la normativa, las revisiones constantes y la vigilancia humana resultan fundamentales para reducir los peligros, además de instruir a los usuarios acerca de las limitaciones y posibles inclinaciones de estas plataformas.

Regulación y educación como respuesta

En conclusión, la manipulación de chatbots de IA representa un riesgo real para la sociedad y la democracia, ya que permite difundir desinformación de manera persuasiva y controlar la narrativa digital. La clave para mitigar estos riesgos radica en auditorías constantes de los modelos, regulación efectiva y alfabetización tecnológica de los usuarios, quienes deben aprender a contrastar la información y usar los chatbots como herramientas complementarias, no como fuentes únicas de conocimiento.

Estas medidas son fundamentales para garantizar que la tecnología de IA siga siendo un recurso útil y confiable, sin convertirse en un instrumento de manipulación o polarización social.