Una demanda federal en California acusa a ChatGPT de compartir datos sensibles de usuarios, incluyendo consultas y correos, con Google y Meta. Esto se habría realizado mediante tecnología de rastreo para análisis y publicidad sin consentimiento de los consumidores.
Cómo una demanda federal expuso la canalización de datos
El foco de un nuevo escándalo recae sobre la inteligencia artificial ChatGPT de OpenAI, tras la presentación de una demanda federal en California. Esta acción legal señala a la plataforma por supuestamente enviar datos confidenciales de usuarios, como consultas directas, direcciones de correo electrónico e identificadores de cuenta, hacia Meta y Google. La acusación detalla que esta transferencia se habría materializado a través del uso de tecnología de rastreo.
Esta metodología de rastreo fue empleada con fines de análisis y publicidad, sin haber obtenido el consentimiento explícito de los usuarios. La canalización de preguntas personales y detalles de cuentas hacia Meta y Google se tradujo en que estas redes publicitarias pudieron alcanzar a miles de millones de personas diariamente.
El impacto de la exposición y las repercusiones globales
La demanda busca compensación monetaria por los daños ocasionados a los afectados, así como una orden judicial que detenga la continuidad de estas prácticas por parte de ChatGPT. Es relevante destacar que, en el marco de esta demanda, ni Meta ni Google son señalados directamente por malas prácticas. La principal acusación se centra en la operación de ChatGPT.
Este incidente se suma a preocupaciones previas. Canadá, por ejemplo, ha acusado a ChatGPT de la recopilación ilegal de datos personales de sus ciudadanos, lo que refuerza el patrón de escrutinio sobre las políticas de privacidad de la inteligencia artificial.

Vulnerabilidades sistémicas: Un patrón de riesgo en la IA
La situación de ChatGPT no parece ser un caso aislado en el panorama de la inteligencia artificial. A principios de mayo de 2026, el MDEA Networks Institute, un centro de investigación en redes de datos y tecnología con sede en Madrid, España, publicó hallazgos cruciales. Su estudio detectó agujeros significativos que comprometen directamente la privacidad de los usuarios.
Estos agujeros no solo afectan la transmisión de datos por parte de ChatGPT a Google y Meta, sino que también se extienden a otras plataformas de inteligencia artificial prominentes. Las IA de Anthropic y Grok también fueron identificadas con vulnerabilidades similares, sugiriendo un riesgo sistémico en la gestión de la privacidad de datos en el sector.



