Mark Zuckerberg aún no ha salido del pozo y ya tiembla de nuevo el suelo bajo sus pies. Diferentes medios de comunicación estadounidenses han publicado información basada en documentos internos de Facebook a los que han tenido acceso, y la imagen de la compañía no queda precisamente en buen lugar.

Hablamos de los llamados ‘Facebook Papers’, una serie de informes entregados por el asesor legal de Frances Haugen, la exempleada de la compañía de Zuckerberg que se ha convertido ahora en foco de todas las miradas al filtrar más de 10.000 páginas de documentos internos de la empresa a la Comisión de Valores y Bolsa. La ingeniera también testificó ante el Congreso de Estados Unidos denunciando las prácticas del gigante tecnológico.

Un consorcio de 17 organizaciones de noticias estadounidenses ha revisado una ‘versión redactada’ de estos documentos, informa CNN, y ha comenzado a publicar una serie de artículos que ofrecen “una visión profunda de la cultura interna de Facebook, su enfoque de la desinformación y la moderación del discurso de odio, la investigación interna sobre su algoritmo de newsfeed, la comunicación interna relacionada con el 6 de enero [el asalto al Capitolio de EE. UU. de este 2021] y más”, dice el medio de comunicación.

Este no es, sin embargo, un ‘golpe nuevo’ para Facebook: The Wall Street Journal ya publicó anteriormente varias informaciones basadas en estos documentos, ya que Haugen los filtró al medio de comunicación cuando todavía quería permanecer en el anonimato. Los artículos de este consorcio de organizaciones de noticias que ahora han salido a la luz se basan en gran parte del mismo informe interno.

“Los dirigentes de la empresa saben cómo hacer que Facebook e Instagram sean más seguros, pero no hacen los cambios necesarios porque han antepuesto sus astronómicos beneficios a las personas. Es necesario que el Congreso actúe. No resolverán esta crisis sin su ayuda”, dijo Haugen en su testimonio ante el Congreso a principios de este mes.

La política de anteponer los resultados económicos a la seguridad en la red, la falta de control frente a la desinformación o la ausencia de medidas de precaución internas justo antes del asalto al Capitolio son algunas de las cuestiones que se destacan en las nuevas publicaciones sobre la red social.

Se hace hincapié en la falta de preparación de Facebook ante el movimiento Stop the Steal, que jugó un papel fundamental en la insurrección del 6 de enero en el Capitolio de EE. UU., y en cómo este usaba la plataforma para organizarse. Los documentos afirman que la compañía solo entró en acción “después de que el movimiento se tornó violento”.

En el comienzo de la pandemia de la COVID-19, Zuckerberg habría rechazado una recomendación de los investigadores de la empresa para limitar la viralización de informaciones falsas. La propuesta era limitar el empuje que el algoritmo les daba a los contenidos compartidos en múltiples oportunidades, porque estaba probado que el contenido ‘recompartido’ en serie solía estar relacionado con desinformación. De hecho, las primeras pruebas demostraron que era posible reducir en un 38% las noticias falsas sobre el coronavirus. Sin embargo, Zuckerberg se habría opuesto porque cambiar el algoritmo podría implicar una concesión sobre MSI (Meaningful Social Interaction), la principal métrica utilizada por Facebook.

También se conoció, según las denuncias, que los empleados de Facebook dieron la voz de alarma en repetidas ocasiones por la incapacidad de la compañía para frenar la difusión de mensajes que incitan a la violencia en “países de riesgo” como Etiopía, donde una guerra civil ha hecho estragos durante el último año, según muestran documentos internos vistos por CNN.

El gigante de las redes sociales clasifica este país africano dentro de “su nivel de máxima prioridad” para los territorios en riesgo de conflicto, pero los documentos revelan que los esfuerzos de moderación de Facebook “no fueron suficientes para hacer frente a la avalancha de contenidos incendiarios en su plataforma”.

Entre las nuevas revelaciones destaca también que la compañía de Zuckerberg apenas dedica recursos a combatir la información falsa fuera de EE. UU. -según un informe elaborado por la propia empresa, en 2020 el 84% de las actuaciones contra información falsa en Facebook e Instagram ocurrieron en el país norteamericano-, por lo que su efectividad es casi nula en países en vías de desarrollo como India, en este momento el territorio con más usuarios de la plataforma del mundo.

Según esos documentos, la compañía de Zuckerberg también ha sabido, al menos desde 2018, de la existencia de traficantes de personas que utilizaban sus plataformas de esta manera. De hecho en 2019 Apple llegó a amenazar con retirar el acceso de Facebook e Instagram a la App Store, una plataforma de la que el gigante de las redes sociales depende para llegar a cientos de millones de usuarios cada año.

Los propios empleados de Facebook manifestaron en comunicaciones internas su escepticismo sobre la posibilidad de que, en el futuro, la red social llegue a poder identificar de forma eficaz la mayoría de los contenidos de odio en la plataforma. Según las estimaciones de un empleado, los sistemas automáticos de control eliminan contenidos que solo generan el 2% de las visualizaciones de discursos de odio en la plataforma, mientras que las estimaciones de otro grupo de empleados en marzo de este año elevan ese porcentaje a entre el 3% y el 5%. Zuckerberg dijo en 2020 ante el Congreso de EE. UU. que la compañía remueve “el 94% del discurso de odio que encuentra”.

Existe una variación significativa en los recursos de moderación de contenido que Facebook ofrece a los diferentes países, según criterios que no son públicos ni están sujetos a revisión externa. Para EE. UU. y otros países considerados de ‘alto riesgo’ de violencia política o inestabilidad social, la compañía ofrece un conjunto mejorado de servicios diseñados para proteger el discurso público. Entre estos se incluye traducir el servicio y sus estándares comunitarios a los idiomas oficiales, la construcción de clasificadores de inteligencia artificial para detectar discursos de incitación al odio y desinformación en esos idiomas y equipos de personal para analizar el contenido viral y responder rápidamente a los engaños y la incitación a la violencia las 24 horas del día y los 7 días de la semana.

En otros países, sin embargo, ni siquiera tienen los estándares comunitarios de la empresa traducidos a todos sus idiomas oficiales. Los clasificadores de aprendizaje automático para detectar el discurso de odio y otros daños no están disponibles. Los socios de verificación de hechos no existen.

Para una empresa normal, es poco controvertido asignar recursos de manera diferente según las condiciones del mercado. Pero dado el papel clave de Facebook en el discurso cívico, que prácticamente reemplaza a Internet en algunos países, las disparidades son motivo de preocupación.

Por ejemplo, los ‘Facebook Papers’ afirman que la compañía carecía de clasificadores de información errónea en Myanmar, Pakistán y Etiopía, países designados como de mayor riesgo el año pasado. También carecía de clasificadores de discursos de odio en Etiopía, que como decíamos se encuentra en medio de un sangriento conflicto civil.

Así, los ‘Papeles de Facebook’ afirman de varias maneras que la compañía ha antepuesto sus ganancias a la seguridad y la desinformación, lo que ha hecho que ahora caiga todavía más presión sobre su CEO, el cual ya se encontraba en cierto modo contra las cuerdas por toda la polémica previa que ya habían generado estos documentos.

Si bien los documentos son, en general, polémicos, puede que lo que ha generado mayor controversia sea la posición que la compañía de Zuckerberg adopta y mantiene con respecto a los menores. La propia Haugen aseguró ante el Congreso que “los productos de Facebook perjudican a los niños”.

Pero además los papeles revelan que los adolescentes huyen de Facebook -aun así, la compañía anunció ayer unos beneficios de 25.048 millones de euros de enero a septiembre, un 62% superiores a los conseguidos en el mismo periodo del año anterior-.

De esta forma, uno de los mayores problemas de la plataforma de Zuckerberg es que está sufriendo un serio problema de envejecimiento: según los documentos internos filtrados, desde 2019 el porcentaje de usuarios adolescentes de Facebook ha bajado un 13% y, de hecho, esperan que la cifra caiga un 45% más en los siguientes dos años. Y más aún: el informe revela que cuanto más joven es el usuario menos interactúa regularmente con la aplicación, y los usuarios más atados a la red social son las personas más adultas.

Lo más sorprendente es que esta lucha no es solo de Facebook. El problema ha calado hondo en la empresa, y por ejemplo esta misma tendencia se está viendo en Instagram. Los menores de 17 años en adelante están empezando a reducir su interacción con Instagram, pese a lo popular que es la aplicación y más de un 60% de los usuarios que empiezan su cuenta lo hacen de forma privada.

Los propios documentos afirman que el hecho de que muchos de los 2.000 millones de usuarios diarios que tiene la aplicación no sean jóvenes “ahuyenta” a los mismos de la plataforma. Según una presentación del director de productos de Facebook, Chris Cox, la mayoría de los adultos jóvenes “perciben a Facebook para personas de entre 40 y 50 años”. La compañía también busca culpables fuera y acusa a plataformas como TikTok o Clubhouse de robar protagonismo a Facebook entre los menores.

Con este panorama, los registros para creación de nuevas cuentas de usuarios de menores de 18 años disminuyeron un 26% con respecto al año anterior.

Es por ello que la respuesta de Facebook se está enfocando a crear productos que puedan gustar al público más joven, desde plataformas dedicadas exclusivamente para ellos como el polémico Instagram Kids a funcionalidades dentro de sus ya activas redes sociales como ‘Reels’ en Instagram -una clara copia de TikTok-.

La compañía se defendió de todas estas publicaciones insistiendo en un comunicado en que “la premisa de todas estas historias es falsa”, porque, aunque Facebook sea un negocio que trata de lograr beneficios, la idea de que lo hacen a costa de la seguridad o el bienestar de las personas “es una mala interpretación”.

Sobre los hechos del Capitolio, Andy Stone, portavoz de Facebook dijo: “La responsabilidad de la violencia que ocurrió el 6 de enero recae en quienes atacaron nuestro Capitolio y quienes los alentaron. Tomamos medidas para limitar el contenido que buscaba deslegitimar la elección, incluyendo el etiquetado de las publicaciones de los candidatos con el último recuento de votos después de que el Sr. Trump declaró prematuramente la victoria, pausar la nueva publicidad política y eliminar el grupo original #StopTheSteal Group en noviembre”.

Sobre las denuncias de explotación humana, Stone aseguró que la compañía prohíbe “la explotación humana en términos muy claros”. “Llevamos muchos años combatiendo la trata de personas en nuestra plataforma y nuestro objetivo sigue siendo impedir que cualquiera que busque explotar a otros tenga un hogar en nuestra plataforma”.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Get Free Traffic