OpenAI ha reconocido un incidente de seguridad que ha expuesto datos de parte de sus clientes de API tras una intrusión sufrida por Mixpanel, la empresa de analítica web que utilizaba para medir el uso en la interfaz de su plataforma de desarrollo. La compañía insiste en que el ataque no ha comprometido su infraestructura central ni los contenidos generados mediante sus modelos de inteligencia artificial.
La tecnológica ha trasladado a los usuarios afectados que el alcance de la brecha se limita a información identificativa y técnica, mientras que credenciales, información de pago y conversaciones con sus modelos permanecen a salvo. Aun así, expertos en ciberseguridad y protección de datos en Europa advierten de que la filtración abre la puerta a campañas de phishing más elaboradas y plantea dudas sobre el cumplimiento estricto del Reglamento General de Protección de Datos (RGPD).
Cómo se produjo la brecha y a quién afecta
Según la cronología facilitada por la empresa, el incidente se originó el 9 de noviembre de 2025, cuando Mixpanel detectó acceso no autorizado a parte de sus sistemas. Días después, el 25 de noviembre, el proveedor comunicó a OpenAI qué registros se habían visto implicados, permitiéndole concretar el impacto real y empezar a notificar a las organizaciones afectadas.
OpenAI subraya que no se trata de una intrusión en sus propios servidores, sino en la infraestructura de Mixpanel, utilizada para recopilar métricas de uso en la web platform.openai.com, el entorno donde desarrolladores y empresas gestionan sus claves de API y monitorizan el rendimiento de los modelos. En otras palabras, el problema se sitúa en la llamada «cadena de suministro» tecnológica, un punto especialmente sensible para cualquier servicio en la nube.
La compañía distingue con claridad entre los perfiles afectados: el incidente se circunscribe a usuarios de la plataforma de API, especialmente aquellos que emplean los servicios para proyectos profesionales o corporativos. Los usuarios que solo utilizan ChatGPT u otros productos de consumo no estarían impactados, aunque muchos hayan recibido igualmente correos de aviso por parte de la empresa.
Este enfoque comunicativo, que ha llevado a OpenAI a informar de forma amplia incluso a cuentas no directamente comprometidas, busca reforzar la transparencia. Sin embargo, ha generado cierta confusión entre quienes solo usan ChatGPT, al recibir advertencias que no siempre dejan claro si su información concreta figura entre los datos expuestos.
Qué datos han quedado expuestos
Los documentos internos y correos enviados a los clientes detallan que la información filtrada pertenece al ámbito de la analítica, es decir, datos que Mixpanel recogía para elaborar estadísticas sobre el uso de la interfaz de la API. Aunque se trata de un volumen de datos considerable, OpenAI insiste en que es limitado en cuanto a su sensibilidad.
Entre los elementos potencialmente comprometidos figuran el nombre asociado a la cuenta de API y la dirección de correo electrónico utilizada para registrarla. Esta combinación ya permite vincular identidades reales con cuentas técnicas, algo especialmente relevante cuando se trata de desarrolladores que operan en nombre de empresas europeas o administraciones públicas.
La filtración incluye además información técnica sobre el dispositivo y el entorno de acceso: sistema operativo, tipo y versión del navegador, así como el sitio web de referencia (referrer) desde el que se llegó a la plataforma. Estos datos, aunque en principio se emplean para mejorar la usabilidad y el rendimiento del servicio, también pueden ser aprovechados por atacantes para perfilar a sus objetivos.
Otro bloque de datos expuesto afecta a identificadores internos de cuentas de usuario u organización dentro del ecosistema de OpenAI. Estos ID, utilizados para la gestión de permisos y facturación, no permiten por sí solos entrar en las cuentas, pero sí pueden ayudar a cartografiar las relaciones entre usuarios, equipos y proyectos técnicos.
En lo relativo a la localización, OpenAI confirma que se ha visto comprometida la ubicación aproximada basada en la información proporcionada por el navegador, normalmente a nivel de ciudad, región y país. Esta combinación de datos geográficos, técnicos e identificativos da a los atacantes una base sólida para construir campañas de ingeniería social dirigidas a organizaciones europeas concretas, especialmente en sectores que están adoptando la IA generativa a gran escala.
Qué datos se han salvado de la brecha
Uno de los aspectos más sensibles en cualquier incidente de este tipo es la posible exposición de contenidos generados por los usuarios. En este caso, la compañía afirma que no se han visto comprometidos los chats, prompts ni respuestas enviados a través de ChatGPT o de la API. Mixpanel no almacenaba estas interacciones, por lo que no formaban parte de los registros filtrados.
OpenAI también asegura que no se han expuesto contraseñas, claves de API ni credenciales de acceso a los servicios. Esto resulta clave para contener el impacto inmediato, ya que reduce el riesgo de accesos directos a las cuentas o a los proyectos de desarrollo alojados sobre su plataforma.
La empresa detalla además que no se han visto afectados datos de pago, como números de tarjeta o información bancaria, ni copias de documentos de identidad empleados para verificaciones de seguridad. Tampoco constan como comprometidos los registros de uso de la API, que suelen incluir información más detallada sobre las peticiones realizadas a los modelos.
Desde el punto de vista de cumplimiento normativo en la Unión Europea, el hecho de que no se hayan filtrado datos de categorías especialmente sensibles (salud, orientación sexual, opiniones políticas, etcétera) reduce la gravedad jurídica del incidente, aunque no la elimina. La combinación de identificadores, correos y patrones de uso puede seguir siendo muy valiosa para atacantes que busquen comprometer sistemas empresariales.
En cualquier caso, la propia empresa reconoce que, pese a que no hay evidencias de acceso a los sistemas centrales, la brecha pone de manifiesto la necesidad de revisar cómo se comparten y anonimiza la información con terceros, un aspecto que preocupa especialmente a los reguladores europeos.
Respuesta de OpenAI: ruptura con Mixpanel y refuerzo de la seguridad
Tras recibir el informe forense detallado de Mixpanel el 25 de noviembre, OpenAI decidió desconectar inmediatamente todas las integraciones de este proveedor de sus entornos de producción. La compañía ha confirmado que ya no utiliza sus herramientas de analítica en ninguno de sus servicios activos, lo que supone un corte inmediato de la vía por la que se produjo la filtración.
Además del cese de la colaboración, se ha puesto en marcha una revisión en profundidad de la seguridad de toda su cadena de proveedores externos. El objetivo declarado es elevar el listón de requisitos técnicos y organizativos que deben cumplir las empresas con las que comparte datos de clientes, algo que encaja con las exigencias de responsabilidad proactiva y diligencia debida del RGPD en la UE.
En paralelo, los equipos de seguridad de la empresa están notificando directamente a las organizaciones afectadas y a sus administradores, con instrucciones concretas sobre las medidas de protección recomendadas. Las comunicaciones, enviadas por correo electrónico, incluyen resúmenes de la información expuesta y recordatorios sobre las prácticas básicas de ciberseguridad.
La decisión de comunicar la incidencia incluso a usuarios que no han sufrido directamente la filtración responde, según la compañía, a un esfuerzo por ser «todo lo transparente posible». Esta estrategia, aunque ha causado alguna alarma innecesaria entre usuarios de ChatGPT que no utilizan la API, también evita que se acuse a la empresa de ocultar información en un momento de fuerte escrutinio sobre el uso de datos en la industria de la IA.
Informes especializados apuntan a que entre las organizaciones afectadas podría haber grandes compañías tecnológicas con presencia global, lo que refuerza la importancia de la gestión de riesgos en entornos empresariales que integran modelos de IA generativa en procesos críticos.
Riesgo de phishing y ataques de ingeniería social
Más allá del acceso directo a los sistemas, la principal preocupación ahora es que la combinación de nombres, correos y datos de contexto termine alimentando nuevas campañas de phishing e intentos de suplantación de identidad dirigidos a empresas y desarrolladores.
Con la información obtenida, un atacante puede construir correos electrónicos muy verosímiles que aparenten proceder del soporte de la plataforma o de servicios vinculados, solicitando por ejemplo la verificación de la cuenta, la actualización de claves o la revisión de supuestos cambios en las políticas de uso. En el contexto europeo, donde muchas organizaciones están integrando la API de OpenAI en productos y servicios comerciales, el potencial de daño es significativo.
Por este motivo, la compañía recomienda a los usuarios que traten con especial cautela cualquier mensaje inesperado que alegue ser de OpenAI, sobre todo si incluye enlaces, archivos adjuntos o solicitudes de información sensible. La empresa recuerda que no pide contraseñas, claves de API ni códigos de verificación por correo, SMS ni chat.
Expertos consultados por medios europeos apuntan a que las organizaciones deben reforzar la formación de sus equipos técnicos y de negocio frente a estas amenazas, integrando el incidente en sus simulacros de phishing y en sus políticas internas de respuesta ante correos sospechosos.
El consejo se extiende también a quienes gestionan proyectos de IA en pymes y startups, donde la combinación de menor músculo técnico y alta dependencia de proveedores externos puede convertirse en un caldo de cultivo ideal para ataques basados en ingeniería social avanzada.
Impacto en Europa y dudas sobre el cumplimiento del RGPD
El incidente se produce en un momento en el que la Unión Europea está afinando su marco regulatorio sobre inteligencia artificial y redoblando el control sobre las transferencias internacionales de datos. En este contexto, el uso que OpenAI hacía de Mixpanel ha despertado interrogantes adicionales entre especialistas en protección de datos.
Voces del sector señalan que la recogida sistemática de direcciones de correo y datos de ubicación para fines analíticos podría entrar en conflicto con el principio de minimización del RGPD, que obliga a limitar al máximo los datos personales tratados para cada propósito concreto. La pregunta de fondo es si toda la información afectada era realmente necesaria para mejorar el producto.
Responsables de equipos de seguridad en empresas europeas de ciberseguridad apuntan que, aunque es habitual recurrir a proveedores de analítica, las organizaciones deberían extremar las medidas de anonimización antes de enviar datos a terceros. En su opinión, cada dato identificable que sale del perímetro directo de la empresa abre un punto adicional de exposición que, como demuestra este caso, puede ser explotado por atacantes.
En el ámbito europeo, los encargados del tratamiento están obligados a firmar contratos muy detallados con sus proveedores, especificando finalidades, medidas técnicas y obligaciones de seguridad. Si la investigación concluye que la información transferida a Mixpanel excedía lo estrictamente necesario, no se descarta que autoridades de protección de datos de países miembros puedan abrir procedimientos de supervisión.
Este episodio llega, además, en un contexto en el que el despliegue de modelos de IA en sectores regulados —como finanzas, sanidad o administración pública— se acelera en buena parte de Europa. Las organizaciones que estaban valorando integrar la API de OpenAI deberán ahora revisar con lupa las cláusulas de tratamiento de datos y las garantías contractuales ofrecidas por el proveedor.
Recomendaciones para usuarios y empresas que usan la API
En sus comunicaciones oficiales, la empresa insiste en varias medidas concretas para reducir el impacto potencial de la filtración. La primera es habilitar la autenticación multifactor (MFA) en todas las cuentas vinculadas a la API, de manera que incluso si un atacante lograra hacerse con credenciales por otros medios le resultara mucho más difícil acceder.
Se recomienda igualmente revisar con detalle la lista de aplicaciones y servicios que tienen acceso a la cuenta, tanto a nivel individual como organizativo. Este tipo de auditoría interna permite detectar integraciones antiguas, tokens que ya no se utilizan o permisos excesivos que conviene revocar.
Para empresas y equipos europeos que gestionan proyectos de IA, resulta aconsejable actualizar las políticas internas de seguridad para incluir referencias específicas a incidentes con terceros proveedores de analítica. Esto implica revisar quién puede crear claves de API, cómo se almacenan y qué procedimientos se siguen ante alertas de seguridad como la ahora notificada.
Otra buena práctica pasa por mantener un registro claro de todos los proveedores externos que intervienen en el tratamiento de datos vinculados a la IA, detallando qué información recibe cada uno y con qué garantías. Esta cartografía no sólo ayuda a cumplir el RGPD, sino que también facilita tomar decisiones rápidas cuando surge un incidente en la cadena de suministro.
Por último, numerosos especialistas invitan a las organizaciones a aprovechar este episodio como oportunidad para reforzar la cultura de ciberseguridad: informar de forma transparente a los equipos, revisar configuraciones y documentar las lecciones aprendidas. En un entorno en el que el uso de la IA se está normalizando, ignorar este tipo de advertencias es, en la práctica, dejar la puerta entreabierta a futuros ataques.
El caso de la filtración asociada a Mixpanel muestra hasta qué punto la confianza en los grandes proveedores de inteligencia artificial depende también de la solidez de sus socios y de la forma en que gestionan los incidentes. Aunque los sistemas centrales y las conversaciones se hayan mantenido intactos, la exposición de datos de contacto, contexto técnico y ubicación recuerda que cada pieza del engranaje cuenta cuando se trata de proteger la privacidad y la seguridad de quienes trabajan con IA a diario.