Gemini se prepara para crear canciones a partir de texto

  • Google trabaja en una herramienta de Gemini para generar música a partir de indicaciones de texto dentro de la app.
  • Las referencias en el APK de Android apuntan a la función MUSIC_GENERATION_AS_TOOL y a una sección musical en “My Stuff”.
  • La tecnología se apoyaría en Lyria, el modelo musical de Google ya disponible vía API, ahora orientado al usuario final.
  • Persisten dudas sobre fecha de lanzamiento, disponibilidad en Europa y modelo de acceso (gratuito o ligado a planes premium).

Gemini generará canciones a partir de texto

Ver una escena de acción en silencio es como comer pan sin sal: la música es la que pone nervio y personalidad a lo que vemos, pero no todo el mundo sabe componer una banda sonora desde cero. En ese hueco se quiere colar Google, que lleva un tiempo trasteando con modelos musicales dentro de su ecosistema y ahora prepara un paso más ambicioso con Gemini.

Varios análisis recientes del código de la aplicación de Gemini para Android apuntan a una nueva función capaz de generar canciones a partir de texto. No hay anuncio oficial todavía, pero las referencias técnicas son bastante claras: la compañía está preparando una herramienta musical integrada en el asistente, pensada para que cualquiera pueda crear pistas de audio sin necesidad de estudios de grabación, instrumentos ni software complejo.

De experimentos aislados a función nativa en la app de Gemini

Hasta ahora, Google había dejado entrever su interés por la música generada con IA en proyectos más discretos, como ciertas características de la app de Grabadora en los móviles Pixel más recientes o pruebas acotadas en combinación con modelos de vídeo como Veo. En esos casos, la IA intervenía para acompañar imágenes o clips, pero no existía una herramienta musical claramente integrada en el día a día del usuario.

Eso empieza a cambiar con lo que se ha encontrado al destripar el APK de la versión 17.2.51.sa.arm64 de la app de Gemini para Android. En el código aparecen menciones explícitas a una utilidad interna bautizada como “MUSIC_GENERATION_AS_TOOL”, denominación que encaja con una nueva capacidad específica para crear música dentro del asistente. El hecho de que esta referencia ya figure en la aplicación, aunque aún no visible para el público, indica que el desarrollo se encuentra en una fase relativamente avanzada.

Junto a esta herramienta, se han detectado también nuevas referencias a una categoría dedicada a la música en la sección “My Stuff” (Mis cosas) de Gemini. Esta área, pensada para agrupar lo que el usuario genera con la IA (textos, imágenes y otros contenidos), pasaría a incluir también composiciones sonoras. De este modo, sería posible guardar, organizar y reproducir las pistas generadas sin salir de la propia app, algo especialmente cómodo para reutilizar fragmentos en vídeos, pódcast o presentaciones.

La novedad clave es que la música dejaría de ser un experimento aislado para convertirse en una capacidad nativa más del asistente, al mismo nivel que la generación de imágenes o la redacción de textos. Dentro del ecosistema de Gemini, la creatividad pasaría a moverse en tres frentes principales: imagen, palabra escrita y ahora también audio, todo centralizado en una única interfaz.

Herramienta musical de Gemini

El papel de Lyria y la experiencia previa de Google en música con IA

Este movimiento no surge de la nada. Google lleva tiempo trabajando con modelos específicos para composición musical mediante inteligencia artificial. Entre ellos destaca Lyria, un sistema diseñado para crear piezas instrumentales y controlar su evolución en tiempo real, que hasta ahora se ha ofrecido principalmente a través de la API de Gemini y en proyectos piloto con desarrolladores.

Gracias a Lyria, ya es posible que aplicaciones de terceros permitan a sus usuarios generar, dirigir y reproducir música instrumental de forma interactiva, como ocurrió con la banda creada por IA. Sin embargo, estas capacidades quedaban, en la práctica, algo alejadas del usuario medio: requerían integrar la API, diseñar una interfaz propia y, en muchos casos, contar con cierto bagaje técnico. La nueva función apuntada en Gemini cambiaría ese enfoque al llevar esta tecnología directamente a la aplicación móvil.

En el ecosistema de Google, Lyria también se ha utilizado como complemento de modelos como Veo, centrado en la generación de vídeo, para crear bandas sonoras ajustadas a clips generados por IA. Con la integración musical en Gemini, esa posibilidad de acompañar imágenes con audio sintético quedaría a un toque de pantalla, sin necesidad de acudir a servicios separados ni manipular configuraciones complejas, algo que conecta con debates sobre problemas de la IA en YouTube.

La clave de este giro está en la accesibilidad. En lugar de exigir conocimientos de programación o producción, la idea es que cualquier persona pueda solicitar canciones, melodías o fondos sonoros mediante descripciones en lenguaje natural. Desde creadores de contenido que buscan música de fondo para sus vídeos hasta estudiantes que quieren una pista para concentrarse o hacer deporte, el abanico potencial de usos es amplio tanto en España como en el resto de Europa.

A nivel de estrategia, que Gemini incorpore esta función refuerza la apuesta de Google por un asistente que actúe como centro creativo unificado. La compañía compite no solo en el terreno de las respuestas conversacionales, sino también en el de las herramientas que ayudan a producir contenido multimedia, un espacio donde la música generada por IA puede marcar diferencias frente a otros servicios.

Cómo podría funcionar la generación de canciones a partir de texto

Aunque la interfaz final aún no se ha hecho pública, las referencias encontradas y el paralelismo con otras funciones de Gemini permiten imaginar un esquema de uso bastante claro. Lo más probable es que el usuario tenga que escribir un prompt describiendo el tipo de música que desea, de forma similar a como se piden imágenes. Por ejemplo: “tema de rock ochentero motivador para entrenar”, “banda sonora épica para un tráiler” o “música electrónica suave para estudiar por la noche”.

A partir de esa descripción, el asistente combinaría su capacidad de interpretar lenguaje natural con el modelo musical subyacente, generando una pieza que se ajuste al estilo, al ambiente y, posiblemente, a la duración indicada. La experiencia se parecería mucho a la de las herramientas de generación de imágenes ya conocidas: el usuario escribe unas líneas, espera unos segundos y recibe un resultado listo para escuchar.

El código analizado también sugiere que podrían existir controles básicos para afinar el resultado: quizá ajustes de intensidad, instrumentos predominantes, presencia o no de voz sintética o variaciones sobre una misma idea musical. No hay detalles confirmados, pero encajaría con el enfoque de Google de ofrecer una interfaz sencilla con opciones mínimas pero prácticas.

Otra pieza importante es la categoría de música dentro de “My Stuff”. Desde ahí, los usuarios podrían guardar diferentes versiones de un tema, organizar sus proyectos sonoros y reproducirlos cuando quieran, como si se tratara de una pequeña biblioteca musical personal creada con IA. Este espacio también facilitaría volver a trabajar sobre una base anterior o compartir fragmentos en otros servicios del ecosistema de Google.

Sea cual sea el diseño final, la intención parece clara: llevar al audio la misma inmediatez que ya se ofrece en la generación de imágenes y texto. Si el sistema resulta lo bastante intuitivo, es probable que muchos usuarios integren la creación musical en sus conversaciones habituales con Gemini, ya sea para mandar un mensaje con una melodía personalizada o para acompañar proyectos más elaborados.

Limitaciones, acceso y posibles filtros por derechos de autor

Las cadenas de texto encontradas en la aplicación también dejan entrever posibles restricciones de acceso en función del tipo de cuenta. No se descarta que la nueva herramienta de música quede inicialmente vinculada a suscripciones de pago, como las de Gemini Advanced o planes de Google One con funciones de IA ampliadas, de forma que los usuarios gratuitos tengan un acceso limitado o entren más tarde.

En paralelo, todo apunta a que se implantarán filtros para evitar la generación de canciones demasiado parecidas a obras comerciales ya existentes o la imitación de voces de artistas concretos sin permiso. La industria musical lleva meses especialmente pendiente de la irrupción de la IA, y en Europa, además, el marco regulatorio en materia de derechos de autor y uso de datos obliga a ser prudentes con este tipo de herramientas.

Es razonable pensar que la función impondrá barreras cuando el usuario intente pedir algo como “canción igual que tal artista” o “voz idéntica a tal cantante” sin permiso; de hecho, es probable que Google aplique políticas contra la música generada por IA para evitar abusos. La propia normativa comunitaria exige transparencia en los modelos de IA y cuidado con los contenidos protegidos, por lo que Google deberá equilibrar la flexibilidad creativa con el respeto a la propiedad intelectual si quiere desplegar la herramienta sin sobresaltos legales en la Unión Europea.

Además de las limitaciones por derechos, quedaría por ver si se introducen topes en la duración de las pistas o en el número de canciones que se pueden generar en un determinado periodo, algo habitual en servicios de IA avanzados. Estas restricciones podrían servir tanto para controlar el consumo de recursos como para gestionar la carga en los servidores mientras la función se asienta.

Para los usuarios finales, especialmente creadores de contenido en España y en el resto de Europa, el punto clave será entender en qué condiciones pueden reutilizar la música que genere Gemini. Si la compañía aclara que las pistas se pueden usar libremente en redes sociales, pódcast o proyectos comerciales, la herramienta puede convertirse en un recurso muy atractivo frente a bancos de audio tradicionales o soluciones de terceros.

Música generada por IA con Gemini

Estado del desarrollo, despliegue y posible impacto en Europa y España

Por el momento, todo lo que se sabe procede de análisis de la aplicación y filtraciones técnicas. Google no ha comunicado públicamente ni la fecha de lanzamiento ni el aspecto definitivo de esta función musical. El hecho de que ya aparezca referenciada en la versión 17.2.51.sa.arm64 de la app apunta a que el proyecto está vivo, pero también a que sigue en fase de pruebas internas.

Sigue siendo una incógnita si la compañía optará por un despliegue escalonado por países o si intentará lanzar la herramienta de forma más o menos simultánea en los principales mercados. En el caso concreto de la Unión Europea, las exigencias del futuro marco regulatorio de IA y las normas vigentes sobre propiedad intelectual podrían influir tanto en los plazos como en las características disponibles en cada región.

Para usuarios en España, la llegada de esta función abriría una alternativa integrada en el entorno de Google frente a plataformas que ya ofrecen pistas personalizadas generadas por IA. El hecho de poder trabajar directamente desde la app de Gemini, sincronizar las creaciones con la cuenta de Google y tenerlas accesibles desde distintos dispositivos supondría una ventaja práctica frente a servicios externos dispersos.

Todavía no está claro tampoco qué modelo económico elegirá Google. La compañía podría ofrecer una versión gratuita limitada en calidad o número de pistas, reservando la experiencia más completa para quienes paguen una suscripción, o bien situar la generación musical desde el principio en la categoría de funciones premium. De esa decisión dependerá en gran medida que esta tecnología llegue al gran público o se quede en manos de quienes ya pagan por herramientas avanzadas de IA.

Si finalmente se confirma la integración y se resuelven las cuestiones legales, no sería raro ver a corto plazo a creadores de contenido en español incorporando música generada por Gemini a vídeos cortos, pódcast, materiales educativos o presentaciones corporativas. Igual que hoy se usan asistentes de IA para redactar guiones, resumir documentos o generar imágenes, la composición musical podría convertirse en un paso más dentro de ese flujo creativo digital.

Todo apunta a que estamos ante el intento de Google de acercar la composición a cualquier persona con un móvil en el bolsillo: una función con la que bastará escribir unas líneas para que Gemini devuelva una canción lista para sonar, siempre que la compañía logre pulir la experiencia, aclarar el encaje legal y decidir cómo la pone en manos de los usuarios de España, Europa y el resto del mundo.

Spotify etiquetará canciones creadas con inteligencia artificial
Artículo relacionado:
Spotify etiquetará canciones creadas con inteligencia artificial

Síguenos en Google News