Cuando hablamos sobre la generación de imágenes con inteligencia artificial, nos solemos quedar en el plano artístico. Pocas veces hemos hablado de las posibilidades de sacar beneficio a las imágenes generadas por programas como Midjourney, Dall-E o Stable Diffusion. Sin embargo, era de traca que tarde o temprano, los bancos de microstock se iban a llenar de imágenes generadas por redes neuronales. Hasta ahora, casi ninguna de estas empresas se había pronunciado sobre el tema. Getty Images ha tomado la delantera con una decisión que va a dar mucho que hablar.
Getty se opone a la Inteligencia Artificial
Getty Images parece tenerlo claro. No quieren ni una imagen más en su catálogo que haya sido generada por una IA. Según los responsables de Getty, a partir de ahora, mirarán con lupa las imágenes que se suban a su plataforma y se rechazarán todas las que tengan indicios de haber sido generadas por una inteligencia artificial. Además, revisarán el contenido que se ha subido en las últimas semanas para eliminar todas aquellas que han pasado el filtro.
Para Getty, el problema de las IAs está precisamente en la forma que tienen de generar contenido. Las IAs en sí no poseen imágenes, por lo que no copian absolutamente nada. Simplemente, convierten miles de millones de fotografías e ilustraciones en simples metadatos que utilizan más tarde para ‘dibujar’. Sin embargo, los programas sí han sido entrenados con imágenes que tienen derechos de autor. Según este banco de imágenes, rechazar este tipo de contenido es una forma de curarse en salud para cuando las leyes acaben diciendo la última palabra.
La licencia comercial es otro tema polémico
¿Qué derechos tiene sobre una imagen una persona que simplemente ha introducido una línea de texto en un programa? Depende del programa que esté usando. Tanto el software de OpenAI como Midjourney han dejado claro que el usuario que genera el contenido es el propietario de los derechos de la imagen final. Incluso con derecho a la explotación comercial.
Pero no son todas iguales en este tema. Stable Diffusion no permite la explotación de las imágenes, pero eso da exactamente igual. ¿Quién se va a parar a analizar con qué IA ha sido generada una imagen?
Lo comido por lo servido
Cuando vimos la velocidad a la que avanzaba este mundillo, tuvimos claro que los bancos de stock estaban en la peor posición posible. Muchas empresas van a poder ahorrar mucho dinero en imágenes generándolas en lugar de comprando las licencias en línea a través del stock.
Como colaborador ocasional en algunos de estos bancos de imágenes, creo que esto que está ocurriendo con las IAs es en cierta medida un poco de justicia divina. La mayoría de bancos de microstock se han portado bastante mal con los colaboradores, especialmente desde la pandemia. Se han vuelto más exigentes a la hora de aprobar contenido y han comenzado a pagar mucho menos. Era obvio que algunos colaboradores iban a utilizar la IA para tratar de inflar sus portfolios y rascar más ventas.
Y la cosa no queda aquí. ¿Qué ocurre si se sube una fotografía que es totalmente real, pero a la que se le ha añadido una textura o un elemento que sí ha sido generado por IA? O mejor aún: ¿Qué pasaría si, para evitar enviar los temidos ‘Model Release’, sustituimos a la gente que sale en una foto por caras generadas por inteligencia artificial? Los bancos de stock lo van a tener bastante complicado a partir de ahora.