
Inquietantes informaciones parecen demostrar que Facebook hace lo que sea por aumentar su audiencia, inclusive no censurar discursos de odio, escenas de violencia explícita y hasta contenido sexista
Una investigación periodística acaba de revelar que Facebook permitió contenido violento en su red social en aras de aumentar las audiencias, inclusive en países que estaban plena guerra civil, como Siria.
Sin embargo, esas informaciones, sumadas en las que los directivos de la red social de Mark Zuckerberg, está haciendo que la red social se tenga que enfrentar a la peor crisis de reputación de su relativamente corta historia.
Las consecuencias parece que van a ser más dañinas que las que provocaron también una fuerte crisis existencial, como fue la revelación que miles de perfiles de Facebook habían sido utilizados por Cambridge Analytica.
Conviene recordar que se achaca a esa pequeña consultora el haber logrado orientar el voto de miles de británicos para lograr que el BREXIT se consumara.
El momento de la verdad

Facebook se enfrenta en estos momentos a un proceso que definirá como será como red social en los próximos años, ya que un varapalo reputacional podría hacer que variase su rumbo para lograr seguir contando con la confianza de sus millones de usuarios.
Para cualquiera que transite habitualmente por Facebook está meridianamente claro que, aunque la red social no abone los mensajes de odio, es cierto que cuando menos los tolera para lograr mayores audiencias.
Además, esos mensajes de odio se difunden desde perfiles que se encuentran sumergidos en la violencia, muchos de ellos sufriendo guerras civiles y en donde la emisión de esos mensajes pone en serio peligro a las personas.
Sobre todo, en Estados Unidos

El país que gobernara Donald Trump es donde mayor extensión tienen las noticias falsas y los mensajes de odio.
Como muestra un botón: fueron los cometarios incendiarios de Donald Trump en Facebook y Twitter lo que enardecieron a sus mesnadas que se dirigieron a asaltar el Capitolio, una acción que ha costado varios muertos.
La red social de Mark Zuckerberg también ha está involucrada en la extensión de los infundios de los negacionistas de la pandemia de SARS-CoV-2 que asola el mundo y de permitir la emisión de las soflamas de los antivacunas.
Sin embargo, también hay otros países en los cuales Facebook ha exacerbado el odio, siendo el caso más relevante el de India, donde los ultranacionalistas hindús publican sus panfletos, sin control en la red social.
Por lo general los ultranacionalistas hindús lanzan sus noticias falsas con la intención de provocar problemas con la cercana Pakistán y también para lograr la sumisión de la población, por raza o religión, no hindú.
Los papeles de Facebook

Todas estas conductas, cuando menos dudosas, de Facebook se han hecho públicas después de la revelación de lo que se ha bautizado como los «papeles de Facebook», en donde se descubre que la red social no somete a ningún proceso de moderación sus contenidos.
La compañía supedita todas sus políticas a seguir creciendo: actualmente tiene presencia en 190 países, se puede leer en más de 160 idiomas y tiene 2.800 millones de usuarios mensuales.
A pesar de ello, carece de los medios para analizar localmente la información que se publica en esos 190 países, por lo que es habitualmente utilizado como espacio de lucha dialéctica para muchos grupos humanos.
Por si esto fuera poco, Facebook lleva desde el 2019 reduciendo el presupuesto para la contratación de moderadores, dejándose la mayor parte de la moderación en manos de bots de software.
Una pobre inteligencia artificial

Es un secreto a voces que la inteligencia artificial (IA) que utiliza Facebook es muy pobre y sus esfuerzos son vanos en moderar comentarios que tengan que ver con discurso del odio o inclusive con la muestra de material sexual explícito.
Además, en Facebook existen unos cinco millones de perfiles VIP a los cuales no se les aplica las normas de moderación por lo que generalmente desde esos perfiles se puede decir cualquier cosa sin miedo a serles aplicado un correctivo.
Entre esos privilegiados se encontrarían conspicuos miembros de la ultraderecha norteamericana y personajes ligados de una u otra manera a Donald Trump, como es Steve Banon el editor de Breibart News.
En la antigua Birmania y en la nueva Tigray

Myanmar ha sido uno de los países donde muchos empleados de Facebook han encontrado brechas de seguridad, y en donde el discurso del odio ha tenido consecuencias prácticas.
Facebook ha sido acusado de permitir en su red social una campaña, producida por la ultraderecha y nacionalistas birmanos, que está en parte detrás del genocidio que se está produciendo sobre la minoría rohinyá.
Algo parecido ha sucedido en Etiopía, en donde existe una guerra del gobierno etíope contra los secesionistas de la región de Trigray, una zona en la cual se está viviendo una auténtica guerra civil.
En ambos países, muchos de los mensajes de odio están escritos en dialectos regionales, por lo que los moderadores de Facebook se muestran inoperantes para desactivarlo, sobre todo porque no los comprenden.
Los principales problemas de la moderación

Los problemas para realizar una moderación eficaz son muchos, siendo uno de los principales que los moderadores no tienen suficiente conocimiento de la lengua en la que trabajan para poder entender todo el contenido.
Al mismo tiempo, como ya hemos indicado, la IA que utiliza Facebook para la moderación es de baja calidad por lo cual se le escapan muchos contenidos que por vulnerar las leyes de los países donde se emiten deberían ser denunciadas y borradas.
Por otro lado, la ratio de moderación que termina en retirada de contenido está entre el 3% y el 5% en lo que tiene que ver con el discurso del odio, y solo un 0,6% cuando el contenido es violento.
La mayor parte de la información que ha filtrado la prensa provienen de la declaración ante un comité del Parlamento Británico de Frances Haugen, una antigua directiva de Facebook.
A pesar de ello en Facebook se subraya que para favorecer la seguridad de sus usuarios se han invertido 13.000 millones de dólares y en ello trabajan 40.000 empleados de su equipo humano.
Fuente – EL PAÍS
Imagen – Stock Catalog / UK in France / King of the Death / Ian Lamont / Maciej Janiec / Lim Ashley / United Nations Office on Drugs and Crime