El auge de los generadores de imágenes por IA
Se crea LitioMX en México, TikTok mostrará contenido cercano y Stable Diffusion te permite crear imágenes con Inteligencia Artificial
Puedes encontrar las versiones tanto en audio como en video de este contenido en sus respectivas ligas.
Noticias
En México, el presidente Andrés Manuel López Obrador publicó un decreto para la creación de LitioMX, organismo público descentralizado que se encargará de la exploración, explotación y administración del litio en nuestro país. El consejo de administración de LitioMX será encabezado por Rocío Nahle, con representantes de las secretarías de Hacienda, Economía, Gobernación y Medio Ambiente y Recursos Naturales, y tendrá a un director general nombrado por el presidente.
TikTok confirmó que está probando el feed de “Nearby” en donde mostrará contenido local a usuarios selectos en el sudeste asiático. Los usuarios de esta beta verán una pestaña indicando contenido Cerca de Ti, al lado de las fuentes de Siguiendo y Pata Ti. TikTok también confirmó que implementará la posibilidad de agregar etiquetas de ubicaciones a los videos, aunque dijo que todavía no puede anunciar si la pestaña de “Cerca de ti” solo mostrará videos con etiquetas de lugar.
Bleeping Computer compartió el descubrimiento de Arseniy Sharoglazov publicado en Positive Technologies, relacionado a que un archivo comprimido protegido con contraseña puede tener dos contraseñas correctas. Un usuario de Twitter señaló que los archivos ZIP usan el algoritmo PBKDF2, el cual codifica una contraseña si tiene más de 64 caracteres. Ese hash se almacena como la contraseña real para acceder al archivo. Entonces, si conoces el hash de su contraseña, puedes usarlo para abrirlo.
Los creadores de Plex anunciaron que todos los usuarios deben restablecer las contraseñas alegando una “violación potencial de datos”. El equipo de Plex descubrió “que un tercero pudo acceder a un subconjunto limitado de datos que incluye correos electrónicos, nombres de usuario y contraseñas cifradas”. Los datos de pago no se vieron afectados.
Stability AI lanzó públicamente su motor de texto a imagen Stable Diffusion, disponible para todos los usuarios a través de su interfaz de DreamStudio. Su CEO, Emad Mostaque, dijo que una API pública para Stable Diffusion estará disponible en breve. Los usuarios obtendrán 200 créditos gratis, y tendrán un costo de £1 por 100 créditos más.
Los riesgos de los generadores de imágenes por IA
Desde hace algunas semanas, los generadores de imágenes por texto basados en Inteligencia Artificial han capturado nuestra atención. Incluso John Oliver lo utilizó como pretexto al hacer realidad una de las fantasías creadas por este tipo de herramientas, al casarse con un repollo, mostrando que la realidad puede ser más precisa que la ficción.
Como con toda nueva tecnología, surgen preguntas y cuestionamientos sobre su uso. Aquellos dedicados a la creación artística, al ver algunos ejemplos generados, como un mapache astronauta o una versión renacentista de Elon Musk comprando Twitter, empiezan a ver al reemplazo tecnológico de sus carreras, gracias a la velocidad con la que genera resultados.
DALLE-E y en sus iteraciones y ahora Stable Diffusion han popularizado el uso de estos generadores, pero en la práctica, sus usos son muy limitados. Tienen el potencial de ayudar a las personas que tenemos limitaciones artísticas (o lo que es lo mismo, quienes carecemos de habilidades para dibujar o crear imágenes en formato físico o digital) para que, a través del uso de palabras, un generador refleje algo que tenemos en mente. Los resultados difícilmente son algo utilizable, y son las excepciones las que muestran algo relevante.
A pesar de estas limitantes, al momento de que una herramienta es de uso público, uno puede esperar usos no planeados para la misma. Mientras que DALL-E 2 maneja filtros para evitar la generación de contenido pornográfico, y la licencia de Stable Diffusion prohíbe ciertas aplicaciones, como imágenes que muestren explotación de menores, tras la filtración del modelo de Stable Diffusion en 4chan, surgieron varios canales dedicados a generar arte con imágenes de celebridades desnudas y otros tipos de pornografía.
Un reporte del 2020 de la compañía de detección de deepfakes encontró cientos de videos pornográficos explícitos simulando a actrices conocidas, y se estimaba que cerca del 95% del total de deepfakes generados estaban relacionados al porno. Esto son 49,000 piezas de contenido, en donde se podía ver a figuras como Emma Watson, Natalie Portman, Billie Eilish o Taylor Swift.
La introducción de Stable Diffusion, en donde se pueden crear imágenes convincentes con un mínimo trabajo por parte del usuario. No se necesita ser programador y puedes aprovechar sus ventajas para crear imágenes fotorrealistas con las que podrías chantajear a personas. Esto no sería nuevo, ya que, en 2018, la periodista india Rana Ayyub fue blanco de troles nacionalistas los cuales crearon pornografía aplicando deepfakes con su rostro, los cuales llegaron a los ojos del líder del partido político nacionalista BJP y el nivel de acoso sobre Ayyub fue tan severo que las Naciones Unidas tuvieron que intervenir.
Para preparar el programa de hoy, estuve experimentando con el motor de Stable Diffusion, y los resultados fueron cuestionables. Desde imágenes completamente borrosas, pasando a lo surreal, y lo más atinado fue una imagen en donde se veía a lo que podría ser mi versión de un universo paralelo en donde para grabar podcasts, tendría que usar no uno sino dos micrófonos, mientras que mi mano derecha controla la consola y un monitor en una posición impráctica me acompaña. El supuesto foto realismo no sirve de nada en una herramienta que no es capaz de trasladar palabras como ideas, y es donde la capacidad humana, hasta el momento, lleva enorme ventaja.
Siendo una herramienta, esta va a evolucionar. Sigue siendo triste el hecho de que, así como los bots liberados para tener contacto con la humanidad, inevitablemente se volvían extremistas o racistas, uno de los primeros usos que se le dio a otra herramienta sea el de cumplir las fantasías insatisfechas de usuarios que muestran una falta de respeto a las personas aludidas. Los filtros y limitantes en aplicaciones de estas herramientas no deberían ser lo primero en lo que deberíamos de pensar al desarrollarlas, pero son necesarios antes de poder lanzarse al público.