OpenAI elimina las recomendaciones tipo anuncio de ChatGPT tras la polémica

  • OpenAI ha desactivado las sugerencias de apps en ChatGPT que muchos usuarios confundieron con publicidad.
  • La compañía insiste en que no existían acuerdos comerciales ni pruebas de anuncios pagados en el servicio.
  • Las pruebas buscaban recomendar aplicaciones del ecosistema ChatGPT, pero el formato se percibió como anuncios encubiertos.
  • OpenAI revisará el diseño y la transparencia de estas funciones antes de plantearse su posible regreso.

Interfaz de ChatGPT sin publicidad

Durante los últimos días, se ha visto obligada a intervenir de forma tajante en una de las controversias más sonadas alrededor de ChatGPT: la aparición de recomendaciones de aplicaciones que, para buena parte de los usuarios, parecían anuncios en toda regla. Lo que empezó con unas cuantas capturas en redes sociales terminó generando un debate masivo sobre si la empresa había decidido introducir publicidad en su asistente conversacional sin avisar.

La compañía ha salido al paso y lo ha hecho con una medida contundente: desactivar por completo el sistema de sugerencias que originó la polémica. Aunque OpenAI insiste en que nunca se trató de anuncios pagados, el formato elegido y la forma en que se mostraban estos mensajes han cruzado una línea delicada en la percepción de los usuarios, especialmente entre quienes pagan una suscripción mensual y esperaban una experiencia libre de cualquier rastro publicitario.

Cómo empezó la polémica con las “recomendaciones” en ChatGPT

Polémica por sugerencias de apps en ChatGPT

El origen del conflicto fue aparentemente sencillo: varios usuarios comenzaron a recibir en medio de sus conversaciones recomendaciones de apps de terceros que incluían enlaces directos a servicios como Peloton, Booking.com, Canva, CapCut, Spotify o Target. Estas sugerencias aparecían incrustadas en la interfaz de ChatGPT de una forma muy similar a un bloque de publicidad contextual, sin una etiqueta clara que indicara que se trataba de un experimento.

Las capturas se difundieron con rapidez y, poco a poco, se instaló la idea de que ChatGPT había empezado a mostrar publicidad encubierta, incluso a quienes pagan por el servicio Pro. Algunos usuarios denunciaban que estos mensajes no guardaban relación con lo que estaban preguntando al modelo, lo que reforzaba la impresión de tratarse de promociones insertadas sin criterio.

El malestar creció con especial fuerza entre la comunidad más técnica y los suscriptores de pago, que llegaron a plantearse cancelar su cuenta al considerar que la experiencia dejaba de ser neutral. El caso llamó la atención de medios tecnológicos internacionales, que recogieron tanto las quejas como las versiones de la empresa para intentar aclarar qué estaba sucediendo exactamente dentro de la plataforma.

En paralelo, la discusión se mezcló con otra preocupación latente: un posible giro hacia un modelo de monetización basado en anuncios, aprovechando que ChatGPT concentra ya cientos de millones de usuarios semanales y se ha convertido en un punto de consulta tan habitual como los grandes buscadores.

OpenAI
Artículo relacionado:
OpenAI acelera ingresos, busca 500.000 millones y blinda su infraestructura

Qué decía OpenAI que estaba probando realmente

Pruebas experimentales en ChatGPT

Según la explicación oficial de la compañía, sistema experimental pensado para dar visibilidad a las aplicaciones integradas en el ecosistema ChatGPT. Desde la introducción de las apps y herramientas conectadas al modelo, OpenAI explora formas de sugerir extensiones y servicios que puedan resultar útiles según el contexto de la conversación.

En teoría, la idea era que, si el usuario pedía algo relacionado con ejercicio físico, organización de viajes o edición de vídeo, proponerle aplicaciones compatibles con las que completar la tarea. No había, insisten sus responsables, acuerdos comerciales ni pagos de por medio: se trataba de un mecanismo de descubrimiento de apps desarrollado sobre su propio SDK.

El problema es que, en la práctica, el sistema no estaba lo bastante afinado. no tenían sentido en muchos contextos, lo que rompía la lógica de la conversación y hacía que parecieran meros impactos comerciales. Usuarios que charlaban de un tema sin relación terminaban viendo sugerencias de Peloton o de tiendas concretas sin una justificación clara.

Daniel McAuley, responsable de datos de ChatGPT, reconoció que la falta de relevancia convirtió estas sugerencias en una experiencia «mala o confusa». Explicó que el objetivo a medio plazo es que el asistente pueda señalar apps con las que interactuar directamente —por ejemplo, reservar alojamientos, editar una imagen o gestionar documentos—, pero admitió que, en su estado actual, el sistema no cumplía con ese propósito sin generar dudas.

Admisión de errores y decisión de desactivar el sistema

Ante la escalada de críticas, cargos relevantes dentro de OpenAI tuvieron que salir públicamente a dar explicaciones. Mark Chen, director de investigación de la compañía, declaró que entendía la preocupación y que la empresa no podía ignorar cómo se percibía el comportamiento del sistema más allá de sus intenciones técnicas.

Chen fue claro al admitir que parezca un anuncio debe tratarse con cuidado y que, en este caso, se habían quedado “cortos” a la hora de diseñar la experiencia. A raíz de esa reflexión, confirmó que la empresa había optado por desactivar por completo este tipo de sugerencia mientras trabajan en aumentar su precisión y en ofrecer al usuario controles más claros para reducirla o apagarla si no le resulta útil.

Con todo, el propio Chen matizó que el problema no se limita a un simple malentendido del público. el diseño concreto de estos módulos se parecía demasiado al de un bloque de publicidad tradicional, de modo que la frontera entre una recomendación contextual y un anuncio encubierto quedaba peligrosamente difuminada.

El mensaje que OpenAI intenta trasladar ahora es doble: por un lado, no hay anuncios ni acuerdos comerciales detrás de estas sugerencias; por otro, se han tomado en serio el malestar de la comunidad y han optado por retirar el sistema antes de volver a lanzarlo con un enfoque distinto y, previsiblemente, con un etiquetado más claro.

Confianza del usuario, transparencia y futuro de la monetización

El incidente tiene lugar en un momento en el que el modelo de negocio de las grandes IAs generativas está bajo la lupa. El mantenimiento y entrenamiento de sistemas como ChatGPT requiere una infraestructura costosa: enormes centros de datos, consumo energético muy superior al de una búsqueda tradicional y recursos humanos especializados. Hasta ahora, OpenAI se ha financiado principalmente mediante planes de suscripción y acuerdos empresariales, pero no es ningún secreto que el debate sobre la publicidad está sobre la mesa.

De hecho, en los últimos meses se han analizado versiones beta de la aplicación de ChatGPT para Android en las que aparecían referencias de código a posibles funciones relacionadas con anuncios, especialmente vinculadas a experiencias de búsqueda dentro del propio chatbot. Términos como «search ad» o «ad features» han avivado la especulación sobre un futuro en el que la versión gratuita pudiera financiarse parcialmente mediante publicidad.

OpenAI ha tratado de separar esta cuestión estructural de la polémica actual. esas referencias forman parte de pruebas internas y no de un despliegue inminente de anuncios dirigidos a los usuarios. Al mismo tiempo, desde direcciones ejecutivas se ha dejado caer en más de una ocasión que no se descarta recurrir a la publicidad como vía de ingresos en algún momento, sobre todo para quienes utilizan ChatGPT sin pagar.

En este contexto, la reacción a las sugerencias de apps sirve casi de termómetro: la sensibilidad de los usuarios ante cualquier elemento que se parezca a un anuncio es notable, sobre todo cuando se integra dentro de una conversación que se supone imparcial. Esto complica el diseño de cualquier futura solución de monetización que pase por introducir mensajes patrocinados o recomendaciones comerciales.

Si la empresa decide retomar estas funciones, todo apunta a que tendrá que hacerlo con mucho más énfasis en la transparencia: etiquetas visibles, separación clara entre respuesta del modelo y contenido promocional, y controles sencillos para que el usuario decida hasta qué punto quiere ver este tipo de contenido en su día a día.

Impacto para usuarios en Europa y retos regulatorios

Para los usuarios europeos, la discusión tiene un matiz añadido. la normativa de la Unión Europea en materia de protección de datos, publicidad y servicios digitales es especialmente estricta con las prácticas que puedan confundirse con publicidad encubierta o que impliquen perfiles opacos del usuario para fines comerciales.

Si en el futuro ChatGPT integrara anuncios de forma abierta, OpenAI tendría que adaptarse al Reglamento General de Protección de Datos (RGPD), además de a exigencias del Reglamento de Servicios Digitales y a las recomendaciones emergentes sobre sistemas de IA de alto impacto. Cualquier sistema que mezcle recomendaciones automatizadas y publicidad personalizada sin explicaciones claras se arriesgaría a un escrutinio intenso por parte de reguladores y autoridades de consumo.

Por ahora, la compañía asegura que los usuarios europeos seguirán viendo, en algunos casos, sugerencias de apps dentro de los experimentos, pero siempre sin componente económico asociado. La expectativa es que, tras la retirada del sistema más polémico, próximas pruebas se lancen de forma más limitada y con mayor énfasis en explicar qué se está mostrando y por qué.

En un entorno en el que la confianza se ha convertido en un activo crítico para los servicios de IA, episodios como este refuerzan el mensaje de que cualquier paso hacia la publicidad tendrá que estar muy medido. No basta con que técnicamente no haya dinero de por medio: la percepción del usuario, especialmente en Europa, pesa tanto o más que la arquitectura interna del sistema.

Al final, lo ocurrido con ChatGPT deja una lección bastante clara: la línea que separa una ayuda contextual de un anuncio encubierto es muy fina. OpenAI ha optado por echar el freno y eliminar las sugerencias que se prestaban a confusión, consciente de que una sola función mal planteada puede erosionar un vínculo de confianza construido durante años. A partir de ahora, cualquier intento de reintroducir recomendaciones de apps o explorar formatos publicitarios tendrá que demostrar, negro sobre blanco, que pone la claridad y la experiencia del usuario por delante de la tentación de monetizar a cualquier precio.


Síguenos en Google News