
Foto: Archivo – Todos los derechos reservados
Cuando la IA deja de ser privada: Implicaciones de usar conversaciones para publicidad
Tras la irrupción de ChatGPT, el temor principal era el impacto en el empleo. Sin embargo, tres años después, la automatización no ha causado el apocalipsis laboral esperado. La verdadera revolución de la inteligencia artificial (IA) se está desarrollando en un ámbito más íntimo y personal.
En 2026, millones de personas utilizan la IA como confidentes, asesores personales o apoyo emocional. Es la alternativa a un compañero de trabajo, un profesor particular o un psicólogo disponible las 24 horas. Este espacio se percibe como seguro para expresar ideas, incluso aquellas consideradas políticamente incorrectas, o para abordar dudas existenciales.
Diariamente, se generan largas conversaciones entre personas y máquinas, tanto escritas como a través de herramientas de voz. Estas interacciones, que pueden variar desde consultas fiscales hasta discusiones emocionales, revelan información valiosa. Sin embargo, la intimidad automatizada que ofrece la IA plantea un problema: para las empresas que la desarrollan, “íntimo” no siempre significa “privado”.
El auge de la publicidad en la IA
La posibilidad de que los datos sensibles recopilados por la IA se utilicen para publicidad personalizada siempre ha existido, pero se ha vuelto más real en 2026. El anuncio de OpenAI de que ChatGPT incluirá anuncios en los próximos meses ha generado preocupación.
Durante 2025, Sam Altman, CEO de OpenAI, modificó su discurso sobre la publicidad a medida que esta se volvía más necesaria para su empresa, que ha invertido fuertemente en computación. La publicidad pasó de ser “el último recurso” a una posibilidad atractiva, con Altman elogiando el modelo de negocio de Meta (matriz de Instagram, Facebook y WhatsApp).
Meta ya utiliza datos de su IA para publicidad personalizada, creando perfiles de usuarios basados en su comportamiento digital. Con el cambio de OpenAI, Google, con su modelo Gemini, también se enfrenta a la posibilidad de incluir anuncios, aunque por ahora se remite a su política actual de no usar conversaciones con Gemini para publicidad.
La inclusión de la IA en la publicidad no es solo un paso más en la personalización. Su potencial radica en el carácter íntimo que tiene para los usuarios. Estas conversaciones, consideradas privadas por muchos, son una “mina de datos de categoría especial”, según el abogado especialista en protección de datos, Jorge García Herrero, ya que reflejan información personal sensible como salud, ideología o condición.
De la segmentación a la persuasión: Riesgos potenciales
Las críticas a las redes sociales por algoritmos adictivos y fomento de sentimientos extremos son consecuencias del modelo publicitario que ha dominado Internet. Este modelo incentiva mantener al usuario enganchado para recopilar más datos y mostrar más anuncios.
El riesgo de combinar publicidad e IA es la introducción de estos incentivos en una tecnología poderosa. Como advierte Ricard Martínez, director de la cátedra de Privacidad y Nuevas Tecnologías de la Universidad de Valencia, la IA permite una interacción conversacional que revela las intenciones del usuario con mayor precisión.
Aunque un anuncio oportuno puede ser efectivo, la IA desdibuja los límites. Una recomendación de una aerolínea en una conversación con un chatbot genera una duda: ¿cómo influye el contexto de confianza en el que se desarrolla la conversación? Según Martínez, la “humanización del producto” puede llevar a la manipulación.
Esta preocupación se intensifica cuando se discuten temas sociales o políticos, o cuando los usuarios son menores de edad. En los chatbots, los anuncios se insertan dentro del razonamiento del usuario. Martínez recuerda que el Reglamento de Inteligencia Artificial de la UE prohíbe técnicas manipuladoras para alterar el comportamiento.
Jorge García Herrero advierte que el conocimiento obtenido para “personalizar la experiencia publicitaria” puede usarse para sesgar respuestas o persuadir al usuario. OpenAI asegura que la integridad de ChatGPT está garantizada y que sus respuestas se basan en información objetiva, aunque planea cobrar precios altos por la publicidad en ChatGPT.
Nueva higiene digital: Recomendaciones y regulación
Las instituciones están tomando nota de esta situación. La Agencia Española de Protección de Datos (AEPD) ha publicado una guía sobre cómo interactuar con la IA de forma segura, recomendando no facilitar datos personales como nombre completo o DNI. Para minimizar la huella digital, sugiere usar correos electrónicos alternativos o borrar el historial de conversaciones.
La AEPD también destaca la importancia de proteger las imágenes, tanto propias como de terceros, que se introducen en estos sistemas. Recuerda que los sistemas de IA son falibles y pueden ofrecer respuestas erróneas, por lo que se debe mantener una actitud crítica ante sus consejos.
En España, la Comisión Nacional de los Mercados y la Competencia (CNMC) tiene poder para exigir transparencia sobre los sistemas de recomendación y publicidad de las grandes plataformas. La nueva Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) aplicará el Reglamento europeo de IA y evaluará el riesgo de sistemas como los chatbots.
El reto de la legislación ante la IA
La guía de la AEPD se centra en el usuario, pero los expertos coinciden en que la IA puede desbordar la legislación. Ricard Martínez señala que las autoridades actuaron de forma reactiva ante prácticas como el escaneo de correos electrónicos para publicidad, y advierte que si siguen siendo “profundamente reactivas”, la IA traerá nuevos problemas que no se mitigarán durante años.
La IA rompe muchas de las categorías de protección establecidas por las leyes, ya que no es solo un sistema de recomendación, un espacio publicitario o una plataforma de contenido. Martínez aboga por que las autoridades de protección de datos y las de inteligencia artificial sean proactivas y permitan una disciplina de mercado que garantice los derechos de las personas.
Este reto se agrava por la opacidad de la IA, incluso para sus creadores. Descubrir casos de manipulación será complicado y requerirá auditorías de terceros. La IA conversacional es un cruce de caminos entre intimidad, negocio publicitario y derechos fundamentales. Cuanto más útil se vuelve, más valiosos son los datos que genera y más incentivos hay para explotarlos.
Si la regulación llega tarde, el matrimonio entre publicidad e IA podría condicionar silenciosamente las decisiones de millones de personas antes de que se pueda auditar lo que ha pasado dentro de la “caja negra”.













