Meta se enfoca en atender a usuarios
Twitter incorpora podcasts, Obrador ordena instalar el doble de antenas para red Altán y Meta busca atenderte de manera personalizada
Puedes encontrar las versiones tanto en audio como en video de este contenido en sus respectivas ligas.
Noticias:
Twitter anunció que comenzará a integrar podcasts en su pestaña rediseñada de Spaces, disponible para usuarios de habla inglesa tanto en iOS como en Android. Spaces ahora incluirá centros personalizados llamados “Estaciones” en donde se agrupa el contenido de acuerdo con el tema. Estos centros incluirán podcasts populares, así como salas de Spaces en vivo y previamente grabadas.
Waze de Google cerrará su servicio de viajes compartidos a partir del próximo mes. Este servicio se lanzó en 2016 en Estados Unidos, Brasil e Israel. Google citó los cambiantes patrones de uso de vehículos durante la pandemia para justificar el cierre.
En su conferencia de prensa mañanera, el presidente López Obrador reveló que dio indicaciones a la CFE para instalar 5,000 antenas, en lugar de las 2,500 que tenían planeadas, para ampliar la cobertura de Altán Redes, y así poder tener cobertura en el 80% del territorio del país. En este momento, la Red Compartida de Altán cubre el 70% de México y la meta es llegar al 92% de la población para 2028. La instalación de antenas por parte de la Comisión permitiría que Altán se enfoque en cubrir los últimos rincones al llegar a comunidades alejadas.
Instagram actualizó la configuración de su plataforma para que ahora los nuevos usuarios menores de 16 años tengan la configuración más restrictiva para contenidos en la aplicación, y solicite a los usuarios adolescentes existentes el hacer lo mismo. En junio, Instagram introdujo configuraciones en torno al “contenido sensible” que permite a los usuarios el optar por ver más o menos contenido de este tipo. Los menores de 18 años podían elegir entre “igual” o “menos” en el lanzamiento, y ahora los menores de 16 años tendrán preseleccionada la opción de “menos”.
Fuentes de Bloomberg dicen que Meta está “dedicando mucho tiempo” desarrollando el área de atención al cliente, enfocándose en brindar asistencia a los usuarios cuando se eliminen cuentas o publicaciones. Este movimiento se debe en parte a los comentarios de su Junta de Supervisión, la cual informó que el año pasado recibió casi un millón de apelaciones relacionadas con la moderación de contenidos dentro de Facebook.
Los problemas con la moderación de contenidos
Publicar contenidos, ya sea en texto, audio, video, o solo reciclar memes, es algo increíblemente fácil de hacer el día de hoy. Debido a esto es que la moderación de contenido se complica, ya que, a cada minuto, se publican miles de videos y millones de piezas de contenido las cuales no necesariamente.
Si eres una plataforma, es más complicado, ya que no importa lo que hagas o no hagas, recibirás críticas sobre lo mucho que censuras o lo poco que revisas la presencia de contenido ofensivo que es publicado dentro de tu sistema. No importa la cantidad de filtros que tengas, revisiones automatizadas, o la contratación de miles de personas viendo con atención todo lo que se publica, en ventanas limitadas de tiempo. El usuario que quiere publicar algo, lo quiere de manera inmediata y sin censura. El consumidor solo busca aquello con lo que tiene afinidad, y es más fácil que critique como ofensivo algo con lo que no está de acuerdo, a que lo catalogue como tal por el hecho de ser, efectivamente, ofensivo.
El uso de herramientas automatizadas tiene cierto grado de efectividad y es perfectible. Instagram no te permite la presencia de pezones en las fotos, aunque estés publicando material para concientizar sobre las campañas de prevención del cáncer de mama. Imágenes de relevancia histórica, como un grupo de niños corriendo de un ataque de napalm en vietnam son catalogados como “pornografía infantil en Facebook”. Y a pesar de estos filtros excesivos, todos los días se comparte contenido no apto para todo público en esas y más plataformas.
¿Qué puede hacer un usuario con una queja legítima para que atiendan su caso cuando su contenido, el cual no viola las normas de conducta de la plataforma, es borrado o su cuenta eliminada? Eso es lo que busca solucionar meta al enfocarse en la atención a usuarios. La plataforma es la de mayor expansión en el internet en este momento, y debe de asignar recursos considerables para esto. No es suficiente la presencia y redireccionamiento a través de bots, y su Junta de Supervisión, la cual fue formada por Meta, aunque dice ser completamente independiente a la compañía, busca que se soluciones. No queda claro qué medidas se pueden tomar, y por el momento ofrece “asistencia en vivo” para quienes han visto sus cuentas afectadas.
Meta tiene bajo su control distintas plataformas, como Instagram, Facebook, WhatsApp y Horizon VR, por lo que el ofrecer atención personalizada es algo poco viable, a menos que se decidan en contratar a una tercera parte de la población mundial para atender al resto. Sin embargo, esto es una medida vista con mejores ojos a lo que pasa en YouTube, en donde casos que van desde el Gabriel Montiel, hasta el equipo de Corridor Crew vieron sus canales afectados y en algunos casos eliminados y se veían incapaces de recibir atención por parte de un humano en los momentos cruciales en donde un tercero se había apoderado de sus cuentas. Si desde el principio hubieran sido atendidos por un humano.
La moderación de contenido tiene muchas implicaciones y trae muchos problemas. Como sociedad, no estamos listos para vivir en un entorno en donde haya moderación por parte de los usuarios, y donde las “noticias falsas” y “realidades alternas” son constantes. Así como en las publicaciones es necesaria la presencia de un editor, en las redes sociales, con todo y las libertades con las que contamos, es necesaria una revisión, así como una atención en caso de que se cometan fallas en el sistema que busca prevenir la presencia de contenido que viola las reglas de las plataformas.