La IA generativa está revolucionando industrias, con una controversia comprensible.
A principios de este mes, Danny Postma, fundador de Headlime, una startup de textos de marketing impulsada por IA que fue adquirida recientemente por Jasper, anunció Deep Agency, una plataforma que describe como un “estudio fotográfico y agencia de modelos con IA”. Utilizando inteligencia artificial que genera arte, Deep Agency crea y ofrece “modelos virtuales” para alquilar a partir de $29 por mes (por tiempo limitado), lo que permite a los clientes colocar los modelos contra fondos digitales para realizar sus sesiones de fotos.
“¿Qué es la agencia profunda? Es un estudio fotográfico, con algunas diferencias importantes”, explicó Postma en un serie de tuits. «No Camaras. Ninguna gente real. Sin ubicación física… ¿Para qué sirve esto? Un montón de cosas, como la automatización de contenido para personas influyentes en las redes sociales, modelos para anuncios de especialistas en marketing y fotografía de productos de comercio electrónico».
Deep Agency se encuentra en la fase de prueba de concepto, es decir… un poco complicado. Hay muchos artefactos en los rostros de los modelos, y la plataforma coloca barandillas (intencionales o no) alrededor de las cuales se pueden generar físicos. Al mismo tiempo, la creación de modelos de Deep Agency es extrañamente difícil de controlar; intente generar una modelo femenina vestida con un traje particular, como el de un oficial de policía, y Deep Agency simplemente no puede hacerlo.
Sin embargo, la reacción al lanzamiento fue rápida y mixta.
Algunos usuarios de Twitter aplaudió la tecnología, expresando interés en usarla para modelar ropa y marcas de indumentaria. Otros acusado Postma de seguir un modelo de negocio “profundamente poco ético”, eliminando fotografías y retratos de otras personas y vendiéndolos con fines de lucro.
La división refleja el debate más amplio sobre la IA generativa, que continúa atrayendo niveles asombrosos de financiación y al mismo tiempo plantea una serie de cuestiones morales, éticas y legales. Según PitchBook, las inversiones en IA generativa alcanzarán los 42.600 millones de dólares en 2023 y se dispararán hasta los 98.100 millones de dólares en 2026. Pero empresas como OpenAI, Midjourney y Stability AI están actualmente envueltas en demandas por sus tecnologías de IA generativa, que algunos acusan de replicar los trabajos de artistas sin compensarlos justamente.
Deep Agency parece haber tocado especialmente una fibra sensible debido a la aplicación (y las implicaciones) de su producto.
Postma, que no respondió a una solicitud de comentarios, no se avergüenza del hecho de que la plataforma podría competir con modelos y fotógrafos del mundo real y tal vez dañar sus medios de vida. Si bien algunas plataformas como Shutterstock han creado fondos para compartir con los artistas los ingresos del arte generado por IA, Deep Agency no ha dado ese paso y no ha dado señales de que tenga la intención de hacerlo.
Casualmente, sólo unas semanas después del debut de Deep Agency, Levi’s anunció que se asociaría con el estudio de diseño LaLaLand.ai para crear modelos personalizados generados por IA para «aumentar la diversidad de modelos que los compradores pueden ver usando sus productos». Levi’s enfatizó que planeaba utilizar modelos sintéticos junto con modelos humanos y que la medida no afectaría sus planes de contratación. Pero generó dudas sobre por qué la marca no reclutó más modelos con las diversas características que busca, dada la dificultad que históricamente han tenido estos modelos para encontrar oportunidades en la industria de la moda. (Según una encuesta, en 2016, el 78% de los modelos en los anuncios de moda eran blancos).
En una entrevista por correo electrónico con TechCrunch, Os Keyes, candidato a doctorado en la Universidad de Washington que estudia la IA ética, observó que el modelaje y la fotografía (y las artes en general) son áreas particularmente vulnerables a la IA generativa porque los fotógrafos y artistas carecen de estructuras estructurales. fuerza. Son en su mayoría contratistas independientes y mal pagados de grandes empresas que buscan reducir costos, señala Keyes. Los modelos, por ejemplo, a menudo tienen que pagar altas comisiones de agencia (~20%), así como gastos comerciales, que pueden incluir boletos de avión, alojamiento grupal y los materiales promocionales necesarios para conseguir trabajos con los clientes.
“La aplicación de Postma está, si funciona, de hecho diseñada para derribar aún más a los trabajadores creativos ya precarios y, en su lugar, enviar el dinero a Postma”, dijo Keyes. «Eso no es realmente algo para aplaudir, pero tampoco es tremendamente sorprendente… El quid de la cuestión es que, desde el punto de vista socioeconómico, herramientas como esta están diseñadas para extraer y concentrar aún más las ganancias».
Otros críticos están en desacuerdo con la tecnología subyacente. Los sistemas de generación de imágenes de última generación, como el que utiliza Deep Agency, son lo que se conoce como «modelos de difusión», que aprenden a crear imágenes a partir de indicaciones de texto (por ejemplo, «un dibujo de un pájaro posado en el alféizar de una ventana») a medida que abrirse camino a través de datos de entrenamiento extraídos de la web. Lo que está en juego en la mente de los artistas es la tendencia de los modelos de difusión a esencialmente copiar y pegar imágenes (incluido contenido protegido por derechos de autor) a partir de los datos que se utilizaron para entrenarlos.
Las empresas que comercializan modelos de difusión han afirmado durante mucho tiempo que el “uso justo” las protege en caso de que sus sistemas hayan sido entrenados con contenido bajo licencia. (Consagrada en la ley estadounidense, la doctrina del uso justo permite el uso limitado de material protegido por derechos de autor sin tener que obtener primero el permiso del titular de los derechos). Pero los artistas alegan que los modelos infringen sus derechos, en parte porque los datos de capacitación se obtuvieron sin su autorización o consentimiento. .
«La legalidad de una startup como esta no está del todo clara, pero lo que sí está claro es que su objetivo es dejar a mucha gente sin trabajo», dijo Mike Cook, especialista en ética de la IA y miembro del grupo de investigación abierto Knives and Paintbrushes. dijo a TechCrunch en una entrevista por correo electrónico. «Es difícil hablar de la ética de herramientas como ésta sin abordar cuestiones más profundas relacionadas con la economía, el capitalismo y los negocios».
No existe ningún mecanismo para que los artistas que sospechan que su arte se utilizó para entrenar el modelo de Deep Agency eliminen ese arte del conjunto de datos de entrenamiento. Eso es peor que plataformas como DeviantArt y Stability AI, que brindan formas para que los artistas opten por no contribuir con arte para entrenar IA generadora de arte.
Deep Agency tampoco ha dicho si considerará establecer un reparto de ingresos para los artistas y otras personas cuyo trabajo ayudó a crear el modelo de la plataforma. Otros proveedores, como Shutterstock, están experimentando con esto, recurriendo a un fondo combinado para reembolsar a los creadores cuyo trabajo se utiliza para entrenar modelos artísticos de IA.
Cook señala otra cuestión: la privacidad de los datos.
Deep Agency ofrece a los clientes una forma de crear un modelo de «gemelo digital» cargando alrededor de 20 imágenes de una persona en varias poses. Pero cargar fotos en Deep Agency también las agrega a los datos de entrenamiento para los modelos de nivel superior de la plataforma, a menos que los usuarios las eliminen explícitamente después, como se describe en los términos del acuerdo de servicio.
La política de privacidad de Deep Agency no dice exactamente cómo la plataforma maneja las fotos cargadas por los usuarios, ni siquiera dónde las almacena. Y aparentemente no hay forma de evitar que actores deshonestos creen un gemelo virtual de alguien sin su permiso, un temor legítimo a la luz de los desnudos deepfake no consensuales para los que se han utilizado modelos como Stable Diffusion.
“Sus condiciones de uso en realidad establecen que ‘usted comprende y reconoce que otras personas pueden crear generaciones similares o idénticas utilizando sus propias indicaciones’. Esto me resulta bastante divertido porque la premisa del producto es que todo el mundo puede tener modelos de IA personalizados que sean únicos en todo momento”, afirmó Cook. “En realidad, reconocen la posibilidad de que puedas obtener exactamente la misma imagen que otra persona y que tus fotos también se envíen a otros para su uso potencial. No puedo imaginar que a muchas grandes empresas les guste la perspectiva de cualquiera de estas cosas”.
Otro problema con los datos de entrenamiento de Deep Agency es la falta de transparencia en torno al conjunto original, dice Keyes. Es decir, no está claro en qué imágenes se entrenó el modelo que impulsa a Deep Agency (aunque las marcas de agua desordenadas en sus imágenes dan pistas). – lo que deja abierta la posibilidad de sesgo algorítmico.
Un creciente conjunto de investigaciones ha revelado estereotipos raciales, étnicos, de género y de otro tipo en la IA generadora de imágenes, incluido el popular modelo Stable Diffusion desarrollado con el apoyo de Stability AI. Este mes, investigadores de la startup de IA Hugging Face y la Universidad de Leipzig publicaron una herramienta que demuestra que modelos como Stable Diffusion y DALL-E 2 de OpenAI tienden a producir imágenes de personas que parecen blancas y masculinas, especialmente cuando se les pide que representen a personas en posiciones de autoridad. .
Según Chloe Xiang de Vice, Deep Agency solo genera imágenes de mujeres a menos que compres una suscripción paga, un sesgo problemático desde el principio. Además, escribe Xiang, la plataforma tiende a inclinarse hacia la creación modelos femeninas rubias y blancas incluso si seleccionas una imagen de una mujer de una raza o semejanza diferente en el catálogo pregenerado. Cambiar la apariencia de un modelo requiere realizar ajustes adicionales no tan obvios.
«La IA generadora de imágenes tiene un defecto fundamental porque depende de la representatividad de los datos con los que se entrenó la IA generadora de imágenes», dijo Keyes. «Si incluye predominantemente a personas blancas, asiáticas y negras de piel clara, toda la síntesis del mundo no proporcionará representación para las personas de piel más oscura».
A pesar de los evidentes problemas con Deep Agency, Cook no cree que esta o herramientas similares desaparezcan pronto. Simplemente hay demasiado dinero en ese espacio, dice, y no se equivoca. Más allá de Deep Agency y LaLaLand.ai, nuevas empresas como ZMO.ai y Surreal están asegurando grandes inversiones de capital de riesgo para tecnología que genera modelos de moda virtuales, al diablo con la ética.
“Las herramientas aún no son lo suficientemente buenas, como puede ver cualquiera que utilice la versión beta de Deep Agency. Pero es sólo cuestión de tiempo”, afirmó Cook. «Los empresarios e inversores seguirán golpeándose la cabeza contra oportunidades como ésta hasta que encuentren una manera de hacer que una de ellas funcione».
Pcenter.es – #Deep #Agency #muestra #los #peligros #aplicar #industria #moda
Síguenos en YouTube: @PCenterES