Las IAs reescribiendo la historia
Hackean el portal del empleo, Showmax le gana a Netflix y Google restringe la generación de imágenes en Gemini
Puedes encontrar las versiones tanto en audio como en video de este contenido en sus respectivas ligas.
En México, un ataqué al Portal del Empleo del gobierno federal vulneró los datos que podrían afectar a 12 millones de usuarios registrados. Esto fue reportado por el experto en ciberseguridad Víctor Ruíz, quien mencionó que los datos filtrados incluyen información como nombres, fechas de nacimiento y direcciones hasta formación académica, datos económicos y CURPS. De acuerdo con el reporte, esta información ha sido puesta a la venta en BreachForums, un foro de intercambio de información entre ciberdelincuentes.
Netflix es la plataforma más popular para ver streaming, pero en África, Showmax tiene el dominio. Esta plataforma, la cual tiene acuerdos de coproducción con HBO o Comcast, así como acuerdos de distribución de varias ligas de futbol a nivel mundial. En noviembre pasado, la plataforma africana registró 2.1 millones de suscriptores en el continente, en comparación con 1.8 millones de Netflix. El enfoque en la producción y los intereses locales son la clave de su crecimiento, ya que el sobre promocionar el contenido nacional ayudó a su crecimiento, de acuerdo con Jason Kkoju, emprendedor e inversionista en tecnología y cine. Esta promoción de más no solo es al publicitar títulos locales en su plataforma, sino al ayudar a realizadores a establecer lazos de co-producción entre ellos.
11 países trabajaron en conjunto en la Operación Cronos, dando como resultado el arresto de dos operadores del ransomware LockBit, así como la recuperación de las claves para desbloquear archivos cifrados de sus víctimas. Las autoridades además confiscaron más de 200 criptobilleteras. Este operativo fue encabezado por la Agencia Nacional contra el Crimen del Reino Unido, coordinada por la Europol y Eurojust. Por su parte organismos como el FBI, la NCA y la policía japonesa desarrollaron una herramienta de descifrado de LockBit 3.0 para que usuarios afectados por este ransomware puedan desbloquear sus archivos. La herramienta está disponible en nomoreransom.org.
En Indonesia, el presidente promulgó una ley que exige que las plataformas digitales le paguen a los medios de comunicación por el contenido proporcionado. Dicha regulación entra en vigor en 6 meses, pero Meta cree que dicha ley no le exige pagarle a los medios por el contenido que ellos publican voluntariamente en sus plataformas, de acuerdo al director de políticas públicas de Meta para el Sudeste Asiático, Rafael Frankel.
Google anunció que desactivó el generador de imágenes de personas en Gemini, mientras actualiza el modelo para que produzca resultados históricamente más precisos. Esto viene después de que la Gran G se disculpara por “no atinar en el blanco”, después de que Gemini generara soldados alemanes de la época nazi o a los fundadores de Estados Unidos con diversidad racial, incluyendo a personas de color en sus imágenes.
Reescribiendo la historia con “Inteligencia” Artificial
Este jueves Google anunció que deshabilitó el generador de imágenes dentro de Gemini. ¿La razón? Al tratar de ofrecer resultados más inclusivos en la generación de imágenes, estuvieron sobrecompensando al incluir diversidades étnicas en sus resultados.
Esto parece más divertido, especialmente cuando solicitabas imágenes de los fundadores de Google y en lugar de los caucásicos Larry Page y Serguéi Brin, mostraba resultados de personas con razgos asiáticos. Todos sabemos que en Asia hay gran educación en ciencias, y para un usuario desinformado, esto podría parecer tener sentido. El problema viene cuando solicitabas imágenes de otras épocas y tenías resultados en donde los fundadores de Estados Unidos ya incluían a mujeres afrodescendientes, o si pedías generar una imagen del ejército alemán de finales de los años treinta, hasta nativos americanos vestidos como apaches podrían aparecer.
¿Por qué es que Google originalmente tenía esta función habilitada? Los modelos basados en IA son entrenados con la información existente. Hay sesgos en dicha información en donde cosas tan sencillas como los colores de piel no se registran bien, o hay un género con mayor dominio. Si buscas una imagen de “ejecutivo exitoso de los 80’s”, seguro encontrarás a un hombre blanco, heterosexual y anglosajón ya que esta es la imagen típica de la época. El problema es que al tratar de actualizar a tiempos modernos, en donde hay una mayor representación, dichos resultados seguirían presentes.
Hay sesgos que son intencionales y otros no tanto. La manera en que las herramientas fotográficas registraban los tonos de piel daban mejor resultado a pieles blancas, porque al momento de desarrollar esta tecnología, quienes estaban en laboratorio haciendo pruebas tenían esta tonalidad. Al probarlo con mayor diversidad de usuarios, tonos oscuros de piel presentaban problemas, pero esto no se detectó desde el inicio. No es algo que se hubiera hecho intencionalmente sino basado en la experiencia de los usuarios y después se mejoró gracias a la experiencia de usuarios.
Por otro lado, los modelos generadores se basan en datos predictivos que vienen de su entrenamiento. Por esto tienden a alucinar y ofrecer resultados falsos, ya que no les interesa mostrar información correcta, sino únicamente mostrar información que basada en ciertas probabilidad, pueda ser la siguiente en aparecer.
Google está revisando los parámetros de sus herramientas, y si bien esto parece más una anéctoda divertida, queda pendiente el hecho de que muchos usuarios confían de más en los resultados ofrecidos por herramientas, desde el mismo buscador de la Gran G, hasta los modelos de lenguaje como ChatGPT. Estas reescrituras de la historia cada vez podrían tener más preponderancia, especialmente en tiempos en donde como el oroboros, los modelos generativos ya se alimenta de contenido generados por ellos mismos, y si en estos tienen errores, estos se multiplicarán. Nosotros como usuarios debemos tener una mayor responsabilidad para discernir entre lo que encontramos, aunque nosotros mismos somos falibles, al favorecer la información que refuerza nuestras creencias, aunque dicha información pueda estar equivocada.
Si quieres saber sobre usos maliciosos de los generadores de imágenes, revisa nuestro episodio 348 en donde encontrarás más información.