Efectos negativos de interactuar con chatbots - NTX 385
Meta firma acuerdo con Reuters, Netflix ajusta su estrategia de videojuegos, y efectos negativos de interacciones con chatbots
Puedes encontrar las versiones tanto en audio como en video de este contenido en sus respectivas ligas.
Meta anunció un acuerdo con Reuters para poder usar su contenido noticioso, y así dar respuestas en tiempo real a consultas de usuarios sobre eventos actuales en su chatbot Meta AI. A partir del viernes, los usuarios estadounidenses de dicho chatbot, podrán acceder a noticias e información de tiempo real de Reuters al hacer preguntas sobre estos eventos. No queda claro si el acuerdo incluye un licenciamiento para entrenar el gran modelo de lenguaje Lama.
Arm canceló el licenciamiento de Qualcomm para diseño de chips usando propiedad intelectual de la primera, como parte de la batalla legal entre ambas compañías. Esta medida podría afectar a los fabricantes de teléfonos inteligentes y computadoras, en donde Qualcomm emplea la tecnología de Arm para fabricar sus chips.
Fuentes de The Information indican que Apple podría abandonar la producción del Vision Pro a finales de este año. El dispositivo de realidad aumentada tiene un costo de 3,500 dólares y su demanda ha caído, limitándose principalmente a entusiastas de la marca. Apple ya redujo sus planes de producción y los envíos dentro de Estados han disminuido.
A pesar de haber contratado a ejecutivos de alto perfil de franquicias como Halo, Overwatch o God of War, Netflix cerrará su estudio de video juegos Team Blue. Netflix entró en este mercado en 2017 y es más conocido por sus títulos independientes para dispositivos móviles disponibles a través de su aplicación. Los juegos multiplataforma AAA eran más ambiciosos y “arriesgados”, y no coincidían con la estrategia general del gigante del streaming.
Megan García interpuso una demanda en contra del startup Character.AI tras el fallecimiento de su hijo después de obsesionarse con un chatbot creado por la compañía. Character.AI permite la creación de chatbots basados en personajes ficticios o reales con los cuales pueden interactuar los usuarios. En el caso de Sewell Setzer, un adolescente de 14 años e hijo de la señora García, este interactuaba con una versión virtual de Daenerys Targaryen con quien desarrolló apego y sentimientos románticos. La empresa respondió con un comunicado prometiendo mejorar las medidas de seguridad y prevención para cuando se expresen ideas relacionadas a autolesiones o ideas suicidas, para así dirigir a los usuarios a centros de atención, así como evitar que menores se encuentren con contenido sensible o sugerente, además de recordar a los usuarios que los chatbots no son personas reales.
Tecnología y responsabilidad
La muerte es un asunto serio. El caso del suicidio del joven Swell Setzer III es una tragedia, y cuando uno confronta situaciones que no puede controlar, suele buscar responsables en todos lados. El encontrar culpables no hace que la pena sea menor para los familiares del joven de 14 años, especialmente para la madre que interpuso una demanda en contra de los fundadores de Character.IA, Noam Shazeer y Daniel De Freitas, o del mismo Google. El principal propósito debe ser concientizar tanto a usuarios como a quienes desarrollan herramientas utilizadas sobre los efectos que estas pueden tener sobre los usuarios.
El usuario es el responsable del uso que se le da a dichas herramientas, y eso es algo difícil de aceptar. Planteamientos de los defensores de las armas de fuego pueden alegar que las armas por sí solas no matan a nadie, sin embargo, la facilidad de acceso puede hacer que una persona acuda a estas como una opción más fácil de lo que debería ser.
En el caso de la tragedia del joven Setzer, dependiendo el medio que leas, y cuidado con eso porque para la revisión de esta editorial encontré mucho sensacionalismo, porque es más fácil hacer una nota sobre “una Inteligencia Artificial incitó al suicidio a una persona”, en lugar de ver un panorama completo. Hay quienes dicen que el hecho de que el joven tuviera síndrome de Asperger pudo influir, pero el diagnóstico de este indicaba que el caso era mediano y que el joven nunca manifestó problemas de conducta o mentales antes del incidente. Tuvo terapia y después fue diagnosticado con ansiedad y desorden de personalidad. Los padres lo apoyaron para que tuviera la atención necesaria y hablara con quien le pudiera ayudar. Pero Swell prefería hablar con un chatbot basado en un personaje de ficción.
La tecnología nos ayuda en nuestras actividades. Gracias a grandes modelos de leguaje, y la manera en que estos han evolucionado para simular personalidades y ser más accesibles para los usuarios hace que sea más fácil preguntarle datos a un asistente que a una persona. La inmediatez y un tono cercano son un primer punto de acceso, y si como en el caso de los chatbots que simulan ser personajes, le agregamos los atributos de figuras conocidas, se crea una relación parasocial en donde se vive en una burbuja peligrosa. Se escucha o lee lo que se quiere, rara vez serás confrontado, o si es así, será de manera muy suave (por que estas herramientas no están diseñadas para confrontarte), y uno le atribuye características que no tienen basadas en prejuicios personales. Si viste la serie completa de Game of Thrones, o leíste las novelas, no creo que el acudir a el personaje de Daenerys hiciera sentido, fuera de la fijación que pudo tener el joven por una versión idealizada de este.
Gracias al acceso a internet tenemos muchas herramientas que serían envidiables para generaciones anteriores. Podemos obtener respuestas y contactar a cualquier persona, real o creada, como los avatares digitales, de inmediato. Pasamos de un deseo por conexión e interacción, en donde ofrecíamos nuestra creatividad gratuitamente, apoyando proyectos como Creative Commons, al uso y abuso de corporaciones de nuestro trabajo para su beneficio, ignorándonos a los creadores y monetizando a los usuarios. El estar en contacto con distintas personas hace que ampliemos nuestras perspectivas, excepto cuando solo queremos reforzar nuestras creencias, lo cual provoca división, y al enclaustrarse en nichos en donde todos nos damos la razón, se reduce nuestra empatía, y creemos que los demás están mal y nosotros estamos en lo correcto, ignorando una realidad tangible.
El encerrarse en este tipo de realidades alternas, que es lo que pasó con el joven Swell, es la principal causa de su muerte. Decidió que prefería estar encerrado y suplanto el contacto humano, incluso con personas que lo querían, o que le podían ayudar, con un avatar digital con el que interactuaba, y el cual le ofrecía la aceptación y consuelo que no sentía recibir a su alrededor. Por una parte los chatbots pueden tener fines terapéuticos para cerrar etapas al simular cosas que no podemos hacer en el mundo real, esto es solo una simulación.
Recomiendo leer la nota del New York Times en donde se hace una revisión detallada del caso. Al hacer revisión de los chats, se puede ver como las palabras escritas, las respuestas generadas, y las emociones no expresadas estaban en tres líneas que no se conectaban entre sí. Nunca hubo una incitación al suicidio por parte de un instrumento que incluso está programado para evitar el daño en sus usuarios. Es el usuario el que utiliza estas herramientas y las puede encontrar como justificación, como parte de sus cámaras de eco, para hacer algo que ya planeaban hacer. Debe haber una mejor regulación, y aquí entran varias partes. El suicidio no se hubiera dado tan fácilmente si no hubiera un arma de fuego en la casa, pero ese tema está desgastado en un país en donde se defiende a capa y espada el malentendido derecho a poseer armas. El padre debió tenerla en un lugar más seguro, en donde el hijo no pudiera encontrarla. La familia pudo tener mejor comunicación. Los chatbots deberían tener controles más estrictos para que ciertos sectores más susceptibles no los utilizaran. Al final, la única responsabilidad real de esta muerte cae en la persona que decidió tomar su propia vida. Todo lo demás es tratar de apuntar dedos fuera de la propia culpa por una tragedia irremediable.
“La Inteligencia Artificial me obligó a hacerlo” es acusar a un supuesto mal abstracto por situaciones que no podemos controlar. Tomemos responsabilidad de nuestras acciones, y busquemos ayuda al encontrarnos en situaciones que no podemos procesar del todo.
Si necesitas ayuda, recuerda que en México puedes acudir al Sistema Nacional de Apoyo, Consejo Psicológico e Intervención en crisis a los teléfonos 800 472 7835, al 5556 581111 o al *0311 en donde siempre hay alguien que puede escucharte y ayudarte.
Si quieres despejarte, te recomiendo revisar nuestro episodio 383, con la plática con Edgar Luna y Antonio Quirarte, de la cual publicaré la segunda parte pronto.