Índice
¿Qué IAs de generación de imágenes tenemos en la actualidad?
No son precisamente pocas las empresas tecnológicas han invertido todo tipo de recursos para lograr una inteligencia capaz de crear arte. Haciendo un repaso rápido, estas son las más relevantes:
- Dall-E: es la propuesta de OpenAI. Esta empresa ha publicado numerosos modelos a lo largo de los últimos dos años. La primera variante de Dall-E se puede utilizar de forma gratuita. La segunda, que es infinitamente más potente, se puede utilizar desde su web oficial haciendo un pequeño pago por cada generación.
- Midjourney: fue la segunda que llegó. Es una IA realmente potente, siendo su fuerte la creación de imágenes artísticas. Algunos que hemos estado publicando en El Output durante los últimos dos meses están ilustrados por imágenes generadas por esta IA. Su única pega es que es de pago —y no es precisamente barata—.
- Stable Diffusion: es un modelo de código abierto. Actualmente, es la IA más accesible que existe, pues se puede utilizar de forma totalmente gratuita.
Stable Diffusion: la mejor IA que puedes usar para generar imágenes
Si os soy sincero, yo personalmente prefiero Midjourney por su comodidad y resultados artísticos. Sin embargo, Stable Diffusion ha conseguido en un par de meses ponerse a otro nivel. Tanto, que ya supera con creces a las alternativas de pago.
Al ser un modelo abierto, Stable Diffusion no está limitado a un equipo de desarrollo. En su lugar, cualquier programador de este planeta con los conocimientos necesarios puede aportar su granito de arena. A pesar de que este software fue lanzado hace muy poco, existen ya muchísimas aplicaciones que permiten sacarle muchísimo partido.
Las principales características de Stable Diffusion son las siguientes:
- text-to-image: es el modo básico de uso. Escribes un prompt y la IA generará una imagen acorde a la descripción.
- image-to-image: genera una imagen en base a otra que aportemos nosotros. Las posibilidades de esta función son ilimitadas, pudiendo crear una fotografía ultrarrealista de algo tan simple como el dibujo de un niño.
- Ejecución en local: solo es necesario un ordenador con tarjeta Nvidia con soporte Cuda. Se recomienda usar una GPU con un mínimo de 4 GB de VRAM, aunque existen modelos modificados que permiten usarlo con hardware menos potente.
- Sin censura: utilizando el modelo en local —o modificando ciertos parámetros en Colab—, se puede usar este software sin limitaciones.
- Entrenamiento personalizado: aunque no es un proceso fácil, existe un software paralelo, DreamBooth, que sirve para que podamos entrenar un modelo personalizado de Stable Diffusion con las imágenes que nosotros queramos. Gracias a esto, puedes tener un modelo capaz de generar imágenes con tu cara, cosa que no pueden hacer hasta el momento ninguna de las otras IA que compiten contra esta tecnología.
- Apps de terceros: cada semana se lanzan nuevas apps que hacen uso de esta inteligencia artificial. Hay utilidades para usar Stable Diffusion en Windows con varios tipos de interfaces gráficas, así como plugins para Photoshop.
Sé el primero en comentar