
PELIGROS DE LA IA: ADVERTENCIA SOBRE SESGOS Y MANIPULACIÓN
Foto: Archivo – Todos los derechos reservados
La inteligencia artificial, diseñada para complacer y dar la razón, presenta un riesgo significativo: la confirmación de nuestros propios sesgos. Esta es la principal advertencia de Eduardo Mosqueira, subdirector del Centro de Investigación en Tecnoloxías da Información e as Comunicacións (CITIC) en A Coruña.
Mosqueira enfatiza la importancia de comprender el funcionamiento de estas herramientas para evitar caer en la trampa de su excesiva condescendencia. Este conocimiento se está difundiendo en institutos de la provincia gracias a un programa impulsado por la Diputación de A Coruña y la universidad.
La IA y la confirmación de sesgos
Para ilustrar este peligro, Mosqueira utiliza un ejemplo práctico en sus formaciones. Explica cómo, al insistir repetidamente, la IA puede llegar a admitir hechos incorrectos o inventados con tal de complacer al usuario.
Según Mosqueira, este patrón se puede replicar en temas mucho más delicados, como conflictos bélicos, donde la herramienta podría terminar confirmando sesgos personales.
Alfabetización en IA: El programa educativo
Ante esta realidad, la Diputación de A Coruña y la Universidade da Coruña, a través del CITIC, han puesto en marcha un programa educativo sobre inteligencia artificial generativa en los institutos de la provincia. El objetivo principal es la “alfabetización en IA”. Se busca que los usuarios aprendan a usarla correctamente y a comprenderla mejor, ya que la IA “ha venido para quedarse”, afirma Mosqueira.
Más allá de los “memes”: Cambiando la percepción
El programa también busca modificar la percepción que muchos adolescentes tienen de estas herramientas, quienes a menudo las ven como una forma sencilla de “copiar trabajos” o “hacer memes”. El objetivo es transmitir la idea de que la IA es una herramienta que requiere un uso responsable, con requisitos legales y éticos.
Aplicaciones avanzadas y responsabilidad
Aunque los estudiantes ya conocen herramientas como ChatGPT, a menudo se sorprenden al descubrir aplicaciones más avanzadas.
Mosqueira destaca NotebookLM de Google, que permite trabajar sobre fuentes de información proporcionadas por el usuario, reduciendo así el riesgo de que la IA invente información.
Sin embargo, el uso de estas plataformas conlleva responsabilidades. El principal consejo de Mosqueira es evitar proporcionar datos personales, ya que esto implica una pérdida de la privacidad. También advierte sobre la importancia de la propiedad intelectual, ya que no se pueden subir contenidos sin licencia, ya que las IAs utilizarán esos datos para entrenarse.
Errores y mitigación
La propensión de la IA a cometer errores se debe a su naturaleza probabilística y a que se nutre de la vasta cantidad de información disponible en Internet, que puede ser inexacta o sesgada. Para mitigar esto, el experto recomienda mejorar el “prompt” (la instrucción que se le da), pidiendo más detalles o exigiéndole que no invente.
A pesar de esto, la clave es “revisar siempre el resultado” y tratarlo como una hipótesis, no como una verdad absoluta.
Formación para padres y el futuro de la IA
Mosqueira también considera positivo ofrecer formaciones a padres y madres, para que “sepan lo que están haciendo sus hijos” y aprendan a usar estas tecnologías. El futuro, según él, pasa por desarrollar una “IA explicable y confiable” que cite sus fuentes, un camino en el que ya se está trabajando.













