El problema de los Fake Nudes
Filtran información de periodistas mexicanos, Apple permite tiendas de apps de terceros, y proliferan los Fake Nudes en X
Puedes encontrar las versiones tanto en audio como en video de este contenido en sus respectivas ligas.
En México se filtró información personal de 300 periodistas que cubren las Mañaneras del mandatario López Obrador, de acuerdo con un reporte de la empresa de ciberseguridad Silikn. El material supuestamente filtrado incluye datos como identificaciones oficiales, claves del Registro Federal de Contribuyes, correos, direcciones, teléfonos y fotografías. El INAI informó que está haciendo un análisis sobre la información que se hizo pública tras la filtración. Se desconoce el origen del ataque.
Max llegará oficialmente a América Latina el 27 de febrero, renombrando la plataforma de HBO Max para solo conservar el apellido. Si eres de los que contaban con planes con promoción, estos permanecen, y los costos serán 149 pesos al mes por el plan básico con anuncios, 199 por el plan estándar y 249 pesos por el plan platino, el cual incluye resoluciones 4K y audio Dolby Atmos. Los planes anuales cuentan hasta con un 30% de descuento.
Apple está haciendo cambios importantes en su App Store para la Unión Europea. Desde marzo, los desarrolladores podrán ofrecer aplicaciones para iPhones o iPads en tiendas alternativas, haciendo posible comprar no solo en la App Store de Apple. La gran manzana impondrá un proceso de revisión para las aplicaciones que se vendan fuera de su tienda enfocándose en la integridad de la plataforma y buscando proteger a los usuarios de la descarga de malware. Las nuevas tiendas tendrán que pagar una tarifa a Apple de 50 centavos de euro por instalación anual a la aplicación. Esta tarifa aplica después de alcanzar el millón de descargas al año.
Los herederos del comediante George Carlin están buscando la eliminación de un especial de comedia de una hora generado por IA que usa la imagen de Carlin, y presentaron una demanda por infracción a derechos de autor en contra de Dudesy, la compañía detrás de la creación del especial “George Carlin: Feliz de estar muerto”, el cual imita la voz y estilo del comediante. La denuncia se presentó el jueves en el tribunal federal de Los Ángeles y alega usos no licenciados ni consentidos de la imagen del fallecido. Además de la eliminación del material se busca una compensación por daños y perjuicios.
Esta semana una cantidad abrumadora de imágenes generadas por IA con contenido sexualmente explícito en donde se usa la imagen de la cantante Taylor Swift estuvo circulando en X, llegando a tener hasta más de 45 millones de vistas y 24 mil comparticiones antes de que la cuenta que las compartía, verificada, por cierto, fuera suspendida. Las imágenes se compartieron originalmente en un grupo de Telegram en donde usuarios comparten imagen sexualmente explícito generado por IA creado en Microsoft Designer. Por su parte, el CEO de Microsoft, Satya Nadella, comentó que este tipo de usos es “alarmante y terrible”
Cuando la artificialidad sobrescribe a la realidad
Hace algunos días en X expresaba mi frustración en cómo los motores de búsqueda cada vez se han vuelto más inútiles, y esto ahora se ha incrementado dramáticamente, ya que, si busca imágenes, o encuentras ligas a Pinterest, o imágenes generadas por inteligencia artificial, y en texto todo está invadido por páginas que buscan tener mejor posicionamiento por SEO o ligas a YouTube que no dan respuesta directa. La búsqueda de respuestas directas a preguntas concretas se está volviendo cada vez más complicada.
Esta semana, una de las notas más mencionadas fue la proliferación de imágenes hechas con generadores basados en inteligencia artificial, en donde se abusaba de la imagen de la popular cantante Taylor Swift, y las imágenes mostraban contenido sexualmente explícito. Esto no es algo nuevo, y desde los collages rudimentarios con recortes de revistas, pasando por el Photoshop, y ahora con asistencia de DALL-E en herramientas con fines más productivos como Microsoft Designer, en donde los usos dados a la herramienta son muy distintos a cómo fue implementada.
Una de las alertas que se levantaron ante la facilidad y proliferación de herramientas generadoras de imagen era que estas se podrían usar para generar noticias falsas, las cuales promoverían desinformación en varios sectores. Curiosamente, los casos más emblemáticos han sido desde inofensivos, como con el Papa con su chamarra acolchada, hasta los que reflejan un gran problema, como los fake nudes de Swift.
Mientras que el caso de Swift gana notoriedad gracias a su fama, y a que se difundió en la decadente plataforma antes conocida como Twitter, en donde la cuenta que estuvo posteando estas imágenes no fue suspendida hasta muchas horas después, no es el único ni es exclusivo. El sector femenino siempre ha sido particularmente vulnerable, y la generación de contenido explícito con imágenes de compañeras de escuela, trabajo, o cualquier persona con la que fantasee un enajenado pueden ser alteradas para reflejar una fantasía, haciendo un uso no permitido de la imagen ajena, y causando un daño a la persona cuya imagen ha sido usada sin su consentimiento ni conocimiento.
Es aquí en donde el manejo de políticas y restricciones entra en juego y se muestra nuevamente la complejidad de dar acceso público a estas herramientas. Aquí ya hemos mencionado previamente como OpenAI obligó a Google a liberar herramientas que ellos ya tenían desarrolladas de mejor manera años antes, y fue debido a que sopesaban estas consecuencias que Google restringía su uso.
Mientras que muchos pueden defenderse alegando “libertad creativa” o “libertad de expresión”, el uso de imagen ajena es un tema delicado y cuidadoso. Los supuestos liberales ven estas limitantes fastidiosas sin considerar las consecuencias de usos por personas con menos ética le pueden dar. El tener una herramienta generadora de imagen puede ser increíblemente útil cuando no encuentras una manera de plasmar lo que quieres, o no tienes el talento para hacerlo por ti mismo. En otros casos tenemos casos grises, como la imagen que muestro en portada, en donde hago un uso permitido de una imagen que emula a una figura conocida, aunque en el texto explícitamente tiene el título de “Taylor Swift Gagged at Pool 82”. La imagen muestra una situación que, si bien no es ofensiva, dudo que sea permitida por la figura pública en quien está basada.
Y es aquí en donde podrían venir regulaciones y legislaciones que coapten los usos de estas herramientas, tratando de limitar la caja de pandora. No es necesario crear una ley que impida el uso de apariencias o estilos, ya que estos no se pueden registrar ni patentar, pero cuando estos usos van en detrimento de una figura o no son permitidos, ya hay instrumentos que pueden limitarlos.
Como seres humanos tendemos a creer más fácilmente aquello con lo que estamos de acuerdo y aquello que deseamos. La proliferación de estos fake nudes y que ganaran más notoriedad que fake news relacionadas a temas políticos muestra que seguimos muy atados a nuestros instintos básicos relacionados más con el eros y el tanatos, que con la realidad que existe a nuestro alrededor. Es triste que se tenga que plantear como solución el manejo de legislaciones o limitaciones, pero los usuarios muestran una falta de ética y responsabilidad con el uso de imagen ajeno. ¿Qué tan cómodo te sentirías tú si usaran tu imagen para alterarla, mostrarte en situaciones con las que no estás de acuerdo, y se difundieran sin tu conocimiento?
Para una revisión más a detalle, en inglés, visita Daily Tech News Show en donde encontrarás notas y ligas de interés.
Si quieres saber más sobre los inicios del auge de los generadores de imágenes, revisa nuestro episodio 191, en donde encontrarás más información.