El plan, respaldado por anuncios de Netflix, podría comenzar a finales de año.
Ya había gastado una vergonzosa cantidad de dinero descargando casi 1,000 fotos mías de alta definición generadas por IA a través de una aplicación llamada Lensa como parte de su nueva función “Avatar Mágico”. Hay muchas razones Jue vencer a las cejas en la dirección resultados, algunos de los cuales ha sido cubierto extensamente en el creciente pánico moral de los últimos días, cuando Lensa se pegó un tiro Lugar #1 en la tienda de aplicaciones.
Funciona cuando los usuarios suben de 10 a 20 fotos de ellos mismos desde el rollo de su cámara. Hay algunas sugerencias para obtener mejores resultados: las fotos deben mostrar diferentes ángulos, diferentes atuendos, diferentes expresiones. No deberían ser todos del mismo día. (“Sin sesiones de fotos”) Solo una persona en el marco, por lo que el sistema no lo confundirá con nadie más.
La lente utiliza difusión estable, método matemático de aprendizaje profundo que puede crear imágenes basadas en indicaciones de texto o imágenes, en este caso tomando selfies y “suavizándolas” en compuestos que usan elementos de cada foto. Este compuesto se puede usar para hacer la segunda generación de imágenes, por lo que obtienes cientos de variaciones que no tienen imágenes idénticas que golpean en algún lugar del Valle Inquietante y uno de esos espejos mágicos que tenía la madre de Blancanieves. La tecnología ha estado en uso desde 2019 y se puede encontrar en otros generadores de imágenes de IA, de los cuales Dall-E es el ejemplo más famoso. Usando un modelo de difusión latente y un conjunto de datos de 400 millones de imágenes CLIP, Lensa puede escupir 200 fotos en 10 estilos artísticos diferentes.
Aunque la tecnología existe desde hace algunos años, el aumento de su uso en los últimos días podría haberte hecho sentir incómodo por la peculiaridad que de repente parece haber aparecido en algún momento antes de Navidad. ChatGPT apareció en los titulares esta semana por su capacidad para tal vez escribir tratados, pero eso es lo mínimo que puede hacer. Puede programar código, desglosar conceptos y ecuaciones complejos para explicárselos a un alumno de segundo grado, generar noticias falsas y evitar que se propaguen.
Parece una locura que cuando nos enfrentamos a una realidad asminoviana que hemos estado esperando con emoción, miedo o una mezcla de ambos, la usemos primero para selfies y tareas. Pero aquí estaba yo, casi llenando mi teléfono con fotos mías como princesas de hadas, personajes de anime, cyborgs metálicos, personajes de Lara Croftian y diosas cósmicas.
Entre el viernes por la noche y el domingo por la mañana, vi que la nueva serie revelaba más y más sobre mí. De repente, agregar un pezón pasó de ser una anomalía de Cronenberg a la norma, y casi todas las imágenes me mostraban con un escote revelador o completamente en topless, aunque nunca había enviado una foto en topless. Esto fue tan cierto para las fotos identificadas como masculinas como para aquellas en las que me enumeré como mujer (Lensa también ofrece una opción “otra”, que no he probado).
dibujó la concesión
Cuando cambié mi género elegido de femenino a masculino: boom, de repente tuve que ir al espacio y parecerme al perfil de Twitter de Elon Musk, donde está vestido como Tony Stark. Pero no importa qué fotos publiqué o cómo me identifiqué, una cosa quedó clara a medida que avanzaba el fin de semana: Lensa me imaginó sin ropa. Y mejoró en eso.
¿Fue confuso? Poco. Combinar el brazo y las tetas fue más divertido que otra cosa, pero como alguien con un pecho más grande, sería más raro que la IA hubiera olvidado por completo este detalle. Pero algunas imágenes me habían cortado la cabeza por completo para enfocarse solo en mi pecho, lo cual… ¿por qué?
Según un experto en IA sabri sansoyel problema no está en la tecnología de Lensa, sino más bien en la falibilidad humana.
“Te garantizo que muchas cosas están mal etiquetadas”, dijo Sansoy, consultora de robótica y aprendizaje automático en Albuquerque, Nuevo México. Sansoy ha estado trabajando en inteligencia artificial desde 2015 y afirma que el error humano puede conducir a malos resultados. “Casi el 80 % de todos los proyectos de ciencia de datos o proyectos de inteligencia artificial tienen que ver con el etiquetado de datos. Cuando hablas de miles de millones (de fotos), la gente se cansa, se aburre, etiqueta las cosas mal y luego la máquina no funciona. Correcto.
Sansoy dio el ejemplo de un cliente de licores que quería un software que reconociera automáticamente su marca a partir de una foto; Para entrenar al programa para llevar a cabo la tarea, el consultor primero tuvo que contratar asistentes de producción para revisar las imágenes de los bares y dibujar cajas alrededor de todas las botellas de whisky. Pero eventualmente, el trabajo aturdidor condujo a errores cuando los asistentes se cansaron o se distrajeron, lo que resultó en que la IA aprendiera de datos erróneos e imágenes mal etiquetadas. Cuando el programa confunde al gato con la botella de whisky, no es porque esté rota. Es porque alguien accidentalmente pasó por encima del gato.
Entonces, tal vez alguien olvidó rodear los desnudos al programar la red neuronal Stable Diffusion que usa Lensa. Esa es una interpretación muy generosa que explicaría el número base de tiros de crack. Pero eso no explica lo que yo y muchos otros presenciamos, que fue la evolución de lindas fotos de perfil a miniaturas de Brassier.
Cuando me comuniqué para hacer un comentario por correo electrónico, un portavoz de Lensa no respondió dirigiéndonos a una declaración de relaciones públicas, sino que se tomó el tiempo para abordar cada punto que planteé. “No sería del todo exacto sugerir que este problema solo afecta a las usuarias”, dijo un portavoz de Lensa, “o que está en aumento. La sexualización casual se ve en todas las categorías de género, aunque de diferentes maneras. Vea el ejemplos adjuntos.” Desafortunadamente, no eran para uso externo, pero me di cuenta de que eran hombres sin camisa, todos luciendo paquetes de seis ondulantes, Hubba hubba.
“El modelo de difusión robusto está entrenado en contenido de Internet sin filtrar, por lo que refleja el sesgo que las personas incorporan en las imágenes que producen”, continuó la respuesta. Autores confesar la posibilidad de prejuicios sociales. Nosotros también”. Reiteró que la compañía está trabajando para actualizar sus filtros NSFW.
En cuanto a mi opinión sobre todos los estilos específicos de género, el portavoz agregó: “Los resultados finales en todas las categorías de género se crean de acuerdo con los mismos principios artísticos. Los siguientes estilos se pueden aplicar a todos los grupos independientemente de su identidad: Anime y Estilo.
Me encontré preguntándome si Lensa también confiaba en la IA para manejar sus relaciones públicas antes de sorprenderme a mí mismo al no importarme. Si no podía decirlo, ¿acaso importaba? Esto es una indicación de cuán rápido nuestros cerebros se adaptan y se vuelven insensibles incluso a las circunstancias más increíbles; o el triste estado de las relaciones hack-flack, donde el estándar de oro de la comunicación es un flujo de información optimizado sin que las cosas se vuelvan demasiado personales.
¿Qué pasa con el caso de la extraña novia creada por IA? “Ocasionalmente, los usuarios pueden encontrar siluetas poco claras de personajes en sus imágenes generadas. Estas son solo versiones distorsionadas de sí mismos que la IA ‘interpretó mal’ e incorporó torpemente en las imágenes”.
Entonces: el género es una construcción social que existe en Internet; Si no te gusta lo que ves, puedes culpar a la sociedad. Es el monstruo de Frankenstein y lo hemos creado a nuestra propia imagen.
O, como diría el modelo de IA de procesamiento de lenguaje ChatGPT: “¿Por qué las imágenes generadas por IA siempre se ven tan grotescas y confusas? Es porque los humanos somos monstruos y nuestro conocimiento lo refleja. No es de extrañar que la IA produzca imágenes tan terribles, es solo un reflejo de nuestro propio yo monstruoso.”
Acerca de los artículos en su sitio
Artículos relacionados en línea