Junta de Supervisión de Facebook
Este texto se ocupa de la Junta de Supervisión de Facebook.
Junta de Supervisión de Facebook (Meta): Sobrepasando límites
Mark Zuckerberg creó el panel para investigar cómo gestiona su empresa las publicaciones controvertidas. Ahora sus miembros quieren transformar el funcionamiento de las plataformas sociales.
Dentro de la Junta de Supervisión de Facebook
En la mañana del jueves 30 de junio de 2022, dos grandes autobuses de lujo llegaron a un gran hotel de Menlo Park, California. En el camino de entrada se arremolinaban los miembros, el personal y los administradores del Consejo de Supervisión. Creado hace dos años por Facebook, ahora Meta, este augusto gaggle existe para cuestionar las acciones más controvertidas de la empresa. Los miembros del consejo, que ya habían pasado incontables horas en videollamadas y correos electrónicos, pasaban su primera semana juntos en persona. Los autobuses partieron, llevando a los 23 compañeros de Zoom a la sede de Meta, a 6 km de distancia.
El grupo se dirigió a través del gigantesco complejo diseñado por Gehry a un verde anfiteatro al aire libre conocido como el Bowl. Sheryl Sandberg, la directora de operaciones saliente de Meta, saludó a la multitud bajo el calor del mediodía. El siguiente fue Nick Clegg, presidente de asuntos globales de la empresa. Clegg se mostró casi sorprendente en sus efusivos elogios a la junta directiva. Estaba respondiendo a las preguntas de los miembros cuando, de repente, las grandes pantallas del Bowl se iluminaron con un rostro familiar.
El rostro inexpresivo de Mark Zuckerberg miraba a los sudorosos visitantes. Aunque Zuckerberg había querido personalmente que existiera este órgano de supervisores -que le supervisaban a él-, nunca se había reunido con todos sus miembros actuales. El fundador y consejero delegado de Meta no compartió su ubicación, pero una suposición justa habría sido que se encontraba en su retiro de la isla hawaiana, donde había pasado gran parte del año anterior. Mirando fijamente a su webcam, Zuckerberg felicitó a la junta por su trabajo hasta el momento. La libertad de expresión, dijo, siempre ha formado parte de la misión de su empresa, pero a veces la gente utiliza su voz para poner a otros en peligro. Meta no debería tomar tantas decisiones sobre la libertad de expresión por sí sola. Zuckerberg terminó su charla con un apoyo incondicional. “Esto ha sido importante para mí desde el principio”, dijo, “y estoy comprometido con la junta a largo plazo”.
De hecho, unas semanas después, Meta anunció que daría a la junta 150 millones de dólares -más del doble de su compromiso original- para mantener el proyecto en marcha hasta 2025. Hasta el momento, la junta ha recibido casi 2 millones de apelaciones sobre contenidos y se ha pronunciado sobre 28 de ellas. Ha hecho 119 recomendaciones a Meta. Sus fallos han tenido que ver con cinturones de wampum, blackface y la retirada de Facebook de un ex presidente de EE UU.
No es un Fracaso Total
Algunos críticos consideran que el Consejo de Supervisión es un ejercicio de “lameculos” corporativo realizado por un puñado de marionetas de Meta. Si la empresa no quiere tomar una decisión controvertida, puede presionar a la junta para que adopte una postura al respecto y, convenientemente, cargar con las culpas. Emi Palmor, miembro de la junta directiva que en su día fue directora general del Ministerio de Justicia de Israel, dice que con frecuencia se le acercan en el supermercado personas que buscan apoyo técnico para las aplicaciones de Meta. “Queremos asesinar a la persona que eligió el nombre de Junta de Supervisión”, dice. “Es un término inexplicable”.
Pero desde que empezó a ver casos en otoño de 2020, la junta se ha ganado el respeto a regañadientes de las organizaciones de derechos humanos y de los expertos en moderación de contenidos que prestan atención a su trabajo. “La gente pensaba que sería un fiasco total”, dice Evelyn Douek, una profesora de derecho de Stanford que sigue de cerca a la junta. “Pero en algunos aspectos reales, ha aportado algo de responsabilidad a Facebook”. Meta, por su parte, declara la victoria. “Estoy absolutamente encantada, encantada, encantada con el progreso”, dice Clegg. El planteamiento de los casos por parte de la junta “es exactamente lo que cabe esperar entre una plataforma de medios sociales y una entidad de supervisión independiente”.
La verdad es más complicada, y los elogios efusivos de Clegg y el alentador mahalo de Zuckerberg ponen nerviosos a los miembros de la junta. Si una de las empresas más transgresoras del mundo piensa que la supervisión va de maravilla, ¿cómo de estupenda puede ser la junta? Suzanne Nossel, miembro que también es directora ejecutiva de la organización sin ánimo de lucro de literatura y derechos humanos PEN America, cree que es demasiado pronto para hacer una valoración. “Acabamos de empezar a descubrir cómo hacer este trabajo”, dice.
La junta ha averiguado una gran cosa: tiene la oportunidad, con salvedades, de alterar la forma en que los Goliats de Internet tratan el discurso de miles de millones de personas.
Incluso después de más de dos décadas de medios sociales, la forma en que las plataformas patrullan sus pasillos puede parecer arbitraria e interesada. Algoritmos imperfectos y ejércitos de moderadores poco formados y sobrecargados de trabajo toman decisiones que alteran la vida. La gente se apresura a impugnarlas, presentando millones de recursos cada mes. Indagan en las páginas de ayuda, discuten con bots y, la mayoría de las veces, se rinden frustrados. Las políticas que supuestamente equilibran la libertad de expresión y la seguridad fueron elaboradas por empresas cuyas prioridades son el crecimiento y el beneficio. “La plataforma no se diseñó pensando en la integridad”, afirma Jamal Greene, profesor de Derecho en Columbia y uno de los copresidentes de la junta. “Se diseñó pensando en el alcance”.
Nadie quiere que el gobierno intervenga y dicte sentencias sobre los posts más atrevidos. Pero la expresión en línea sigue siendo expresión, y la gente espera algunos derechos en torno a ella. La Junta de Supervisión es una primera puñalada para garantizar esas libertades y, en su forma más ambiciosa, una oportunidad para frenar un poco el caos. Pero cuanto más se adentran los miembros de la junta en los temas, más se encuentran chocando contra los límites de lo que Meta les permitirá hacer.
El gran experimento de la Junta de Supervisión comenzó en un paseo en bicicleta. En enero de 2018, Noah Feldman, profesor de la Facultad de Derecho de Harvard, estaba de visita en la zona de la Bahía y se alojaba en casa de su amiga Sheryl Sandberg. Un día, pedaleaba por las estribaciones locales cuando su mente se volvió hacia Facebook. El problema del Empleador de medios sociales de su anfitrión, pensó, era que, decidiera lo que decidiera sobre un determinado contenido, alguien se enfadaría con la empresa. Quizá podría beneficiarse de una separación de poderes. Al final de su paseo tenía una sugerencia para Sandberg: Facebook debería crear su propia versión del Tribunal Supremo, un órgano independiente que examinara las mayores quejas sobre las decisiones de la empresa.
Sandberg le llevó la idea a Zuckerberg, que llevaba meses siendo aporreado sobre la expresión en su plataforma y ahora pensaba en la “gobernanza” como forma de señalar que no era el dictador de la expresión mundial. Abrazó el concepto. En junio de ese año, nos reunimos con Zuckerberg en la sede de Facebook para dar un paseo por sus jardines de 9 acres en la azotea. Mientras paseábamos, compartió su visión de un organismo independiente que tomaría decisiones vinculantes sobre los contenidos. “Tenemos que averiguar el mecanismo de nombramiento, pero ellos no dependen de mí”, dijo. “No es probable que sean empleados de Facebook”. Comprendió entonces que tendría que ahuyentar la impresión de que los supervisores eran sus lacayos.
El modus operandi de Zuckerberg para las nuevas iniciativas es confiar en sus leales lugartenientes de siempre para hacerlas realidad. En este caso, Facebook recurrió a un equipo interno de empollones de la gobernanza. Estaba encabezado por Brent Harris, un abogado con experiencia en trabajo climático y medioambiental, y Heather Moore, que había trabajado en la Fiscalía de EE UU en Newark, Nueva Jersey. Ambos dijeron que lo vieron como una oportunidad de ayudar a la gente de la plataforma. (Harris dirige ahora un grupo de gobernanza en Meta que incluye al equipo de apoyo de la junta).
Para una empresa que una vez presumió de moverse con rapidez, Facebook estableció su junta con la cautelosa deliberación de una burocracia ferroviaria gubernamental del siglo XIX. La aceptación no fue universal. “Éramos escépticos sobre si obtendríamos muchos beneficios”, dice Monika Bickert, que dirige la política global de contenidos. (Serían sus normas las que cuestionaría la junta.) Pero el equipo siguió adelante, organizó una serie de talleres y solicitó sugerencias a personas ajenas a la empresa sobre cómo debería funcionar la junta. Algunos participantes acabarían ocupando sus puestos.
Para 2020, Facebook había creado la junta como un fideicomiso independiente con una subvención de 130 millones de dólares. La empresa pagaría a un máximo de 40 miembros del consejo salarios de seis cifras por lo que se estimaba que serían 15 horas de trabajo a la semana. Un personal a tiempo completo apoyaría el esfuerzo, como los secretarios judiciales de los jueces del Tribunal Supremo. Un extenso estatuto establecía las reglas básicas. El grueso de las actividades de la junta consistiría en gestionar los desacuerdos sobre publicaciones individuales. Tal vez Facebook o Instagram hubieran eliminado el post de alguien por violar sus términos, y el usuario quisiera impugnar esa decisión. La junta podría pronunciarse sobre las publicaciones, pero no sobre los anuncios, los algoritmos o los grupos. (Esas cosas podrían venir después.) Un comité de selección de casos, formado por miembros del consejo, extraería del mar de apelaciones los casos que el consejo aceptaría, y luego los asignaría a grupos de cinco personas. Esos grupos evaluarían el caso y llegarían a una decisión. Facebook estaba obligado a acatar los fallos de la junta sobre las publicaciones individuales.
Pero había más. La junta podía incluir en sus fallos recomendaciones generales, que la empresa podía aceptar o rechazar. Si rechazaba las sugerencias, tendría que dar explicaciones, pero eso sería todo. La junta podría tratar los enigmas más espinosos de la empresa a través de una “opinión consultiva sobre políticas”: una petición directa de Meta para que la junta revisara una decisión especialmente controvertida. Meta podría volver a aceptar o rechazar lo que aconsejara la junta.
En mayo de 2020, la empresa anunció que había reclutado a una distinguida colección de abogados, periodistas y activistas de derechos humanos para convertirse en los primeros 20 miembros de la junta, incluidos cuatro copresidentes. Había un ex primer ministro de Dinamarca, un ex director de periódico ganador del Premio Pulitzer y un Premio Nobel de la Paz. Todos los miembros tenían algo en común: la determinación de que se les considerara independientes de la empresa que financiaba sus nóminas.
Aun así, los críticos de Facebook estaban dispuestos a calificar al Consejo de Supervisión de farsa. Jessica González es la codirectora ejecutiva de Free Press, un grupo que se opone al control corporativo de los medios de comunicación, y forma parte de una variopinta colección de detractores de la empresa -entre ellos el apóstata de Meta a tiempo completo Roger McNamee y la premio Nobel Maria Ressa- que crearon una organización en la sombra llamada Consejo de Supervisión de Facebook Real; se dedica a asestar golpes en el cuerpo a todo lo que hace su homónimo. La junta realmente real “es un truco de relaciones públicas”, dice González, “que da cobertura a Facebook por no invertir adecuadamente en la integridad de sus sistemas y no hacer lo suficiente para mantener a salvo a la gente.”
En enero de 2021, la junta dictaminó sobre sus primeros casos y puso a hervir a fuego lento una olla de tensión. El octubre anterior, un usuario brasileño de Instagram que promocionaba una campaña de concienciación sobre el cáncer de mama había publicado una imagen con varios ejemplos de pechos postoperados. Un algoritmo entrenado para buscar y destruir contenido sobre pezones retiró el post. Una vez que la junta aceptó el caso, la empresa decidió revisar manualmente el post. La desnudez en aras de la concienciación médica estaba dentro de las normas de Instagram, por lo que el equipo de normas restauró el post. Con la cuestión ahora discutible, la empresa dijo a la junta que retirara el caso.
Los miembros se negaron. Su insistencia fue un mensaje: Aunque sus decisiones eran nominalmente sobre piezas individuales de contenido, el verdadero trabajo estaba en interrogar a las políticas de la empresa. Querían cambiar Meta.
En la redacción de su decisión -reafirmando que el post debía seguir en pie- los miembros de la junta expusieron cómo este error aparentemente trivial y subsanable era una ventana a un fallo más profundo. La empresa confiaba excesivamente en los algoritmos, que en este caso no captaron el portugués para “cáncer de mama”. Eliminar el post, argumentó la junta, planteaba “problemas de derechos humanos”. Citando el Pacto Internacional de Derechos Civiles y Políticos, un tratado fundacional de las Naciones Unidas, la junta escribió: “Cualquier restricción a la libertad de expresión debe tener un objetivo legítimo”. Recomendó que cada vez que un usuario apele una decisión algorítmica de este tipo, se le conceda automáticamente un moderador de contenidos humano. “Básicamente hicimos valer nuestra autoridad a pesar de que Facebook había decidido restablecer el contenido”, afirma Ronaldo Lemos, miembro de la junta y profesor de derecho de Brasil. “En el mismo momento dijimos: ‘Queremos hablar de algoritmos'”.
Una petición bastante razonable, salvo que la empresa no siguió la recomendación de la junta. A día de hoy, los usuarios de Facebook e Instagram no tienen la garantía de que cuando algún robot bloquea su discurso, un ser humano vea alguna vez sus quejas. La junta estaba imaginando un mundo en el que las plataformas de medios sociales tendrían que tratar al menos a sus usuarios como seres humanos. Los miembros seguirían presionando para que eso ocurriera, porque, bueno, los derechos humanos son lo suyo.
La junta sólo había emitido un puñado de fallos cuando cayó un caso bomba: la suspensión del presidente Donald Trump.
En las acaloradas horas de la insurrección del 6 de enero de 2021, Trump bendijo las violentas protestas en posts en Facebook e Instagram. La compañía eliminó rápidamente los posts y le suspendió indefinidamente de ambas plataformas. La multitud MAGA gritó censura. Los anti-Trump se indignaron porque la prohibición no era permanente. El 21 de enero -quizá no por casualidad, después de la toma de posesión de un nuevo presidente de EE.UU.- Facebook dijo a los miembros del consejo que se las arreglaran. “Fue una decisión muy, muy sencilla”, dice Clegg sobre la solicitud de una opinión consultiva pública. “Imagínese que no les hubiéramos aplazado esa decisión. La gente habría dicho con razón: ‘Han creado una junta de supervisión y ni siquiera comparten con ellos este dilema de qué hacer con el ex presidente electo de la democracia más poderosa del planeta'”.
Para la junta, sin embargo, el momento era peligroso. Tanto los observadores a favor como en contra de Trump estaban listos para abalanzarse sobre cualquier paso en falso; un movimiento torpe podría haber hundido todo el experimento. Tras meses de deliberaciones, la junta respaldó la decisión de la empresa de eliminar las incendiarias palabras del expresidente en Facebook e Instagram y de expulsarlo de las plataformas. Pero la junta volvió a exigir que la empresa hiciera más explícitas sus políticas. En su fallo de esa primavera, la junta censuró a Facebook por tomar decisiones básicamente sobre la marcha y por negarse a proporcionar un plazo para la restauración del ex presidente. Al no tener normas claras para las suspensiones, la empresa estaba fallando al público. “Facebook eludió su responsabilidad”, dijo la copresidenta de la junta Helle Thorning-Schmidt, ex primera ministra de Dinamarca.
El comentario de la junta sobre ese caso de gran repercusión apuntaba a una de sus obsesiones: La falta de transparencia de Facebook sobre sus propias normas. La junta volvió sobre ello con frecuencia y se volvió experta en elegir las quejas con mayor potencial para tener un amplio impacto. “La selección de casos es todo el juego”, dice Nicolas Suzor, miembro del consejo y profesor de derecho de Australia. Suzor forma parte, en ocasiones, del comité de selección que decide qué asuntos quiere abordar la junta y tiene a su personal escudriñando entre miles de recursos para encontrar casos que encajen.
En abril de 2021, el comité seleccionó un caso que llegó a conocerse como el Aislamiento de Ocalan. Abdullah Ocalan es miembro fundador del Partido de los Trabajadores del Kurdistán (PKK), un grupo que Facebook había designado “entidad peligrosa”. Actualmente está encarcelado en una isla-prisión turca en régimen de aislamiento perpetuo. Unos meses antes, un usuario de Instagram en EE.UU. había publicado una foto de Ocalan con las palabras “¿estáis listos para esta conversación?” e instaba a la gente a debatir sobre las condiciones de reclusión del preso. Facebook lo eliminó. La política de la empresa prohíbe los posts en apoyo de personas implicadas en entidades peligrosas. Este post no era eso.
El consejo estaba ansioso por abordar la cuestión. “Tienes una organización de la que no se puede hablar”, dice Julie Owono, miembro de la junta y directora ejecutiva de la organización de derechos digitales Internet Sans Frontières. “Sin embargo, tienes un líder cuya situación ha sido reconocida internacionalmente como una violación de los derechos humanos de la persona”.
Los investigadores de la empresa empezaron a desenterrar información sobre el caso, gran parte de ella de las bases de datos privadas de Facebook. Mientras revisaban los archivos, tropezaron con un detalle embarazoso: La cuestión del encarcelamiento de Ocalan ya había surgido antes. La compañía incluso había creado una política especial que permitía las publicaciones de usuarios que abogaban por un trato humano pero que no eran ellos mismos partidarios del PKK. Pero esa instrucción, redactada en 2017, nunca se hizo pública. Evidentemente, también se olvidó dentro de la empresa, ya que ésta retiraba rutinariamente los posts relativos a las condiciones de confinamiento de Ocalan. Facebook estaba violando sus propias normas. “Cuando nos enteramos de esa desconexión, pensamos: precisamente por eso hemos venido aquí”, dice Owono.
En su primer año, la junta presionó constantemente a la empresa para que arreglara su actitud imperiosa hacia las quejas. Rara vez se informaba a los usuarios de por qué se retiraban los mensajes o por qué se permitía que permanecieran infracciones aparentemente obvias. La junta considera este comportamiento kafkiano como uno de los continuos insultos de la empresa a los derechos humanos. “Era algo que ni siquiera hubiéramos pensado que fuera un problema antes de unirnos a la junta”, dice Greene, uno de los copresidentes. “Pero nos dimos cuenta de que es un problema enorme”. Sólo en 2021, seis de sus 20 dictámenes recomendaban que, cuando la empresa eliminara el contenido de una persona, informara al usuario de la norma que había infringido.
Cuando le planteamos esto a Clegg, actúa como si el continuo machaque de la junta sobre este tema fuera lo mejor desde los anuncios dirigidos. “¡Al mil por cien!”, dice. “El principal y constante bombo de críticas que hemos recibido de la junta -y creemos que es totalmente comprensible- es que no estáis explicando a los usuarios cuál es vuestra postura, y los usuarios sienten que estáis aplicando decisiones arbitrarias”. Citando las críticas de la junta, Meta reveló este verano que estaba creando un grupo de atención al cliente para dar explicaciones sobre sus retiros y suspensiones.
Hicieron falta varias decisiones, pero la junta había dejado claro su punto de vista. Ahora, “Meta es más transparente con sus usuarios sobre lo que han hecho mal”, afirma Greene.
La batalla demostró a la junta que su misión no es decidir el destino de un post u otro, sino hacer que Meta asuma el monstruo que ha creado. En la página del sitio web de la junta donde los usuarios presentan sus quejas, el texto no dice: “Consiga que se restaure su puesto” o “Arregle esta mala decisión”. La llamada a la acción dice, en letras gigantes, “Apele para dar forma al futuro de Facebook e Instagram”.
Aunque la junta acumuló puntos con esa victoria, sigue teniendo una influencia limitada. Cuando la junta hace recomendaciones, un grupo de trabajo de Meta determina si la empresa las pondrá en práctica. “Tratamos a la junta como tratamos a un regulador”, dice Harris, el abogado que ayudó a crear la junta y sigue siendo su contacto más cercano dentro de Meta. Existe, por supuesto, una diferencia. Mientras que ignorar a un regulador tiene consecuencias, Meta es libre de hacer lo que quiera. De las 87 recomendaciones de la junta hasta finales de 2021, Meta afirma haber aplicado plenamente sólo 19, aunque informa de avances en otras 21. La empresa se desentendió de otras 13 recomendaciones diciendo, sin dar más detalles, que es “trabajo que Meta ya hace”. Otras recomendaciones son rechazadas de plano.
A principios de 2022, surgieron dos temas en la relación entre Meta y su Junta de Supervisión. En algunos sectores de la empresa, las decisiones de la junta estaban teniendo un efecto positivo. Incluso la responsable de la política de contenidos de Meta, Bickert -a quien un conocedor de la junta me citó como una poderosa detractora interna del esfuerzo- dice que ahora se pregunta a menudo: “¿Qué pensaría la junta?”. Algunos miembros del consejo, sin embargo, se sentían cada vez más frustrados por los límites dentro de los que se veían obligados a trabajar y por los obstáculos que, en su opinión, Meta estaba poniendo intencionadamente en su camino.
Un punto de fricción es cómo crece la junta. En una de las primeras conversaciones que mantuvimos con Harris y Moore, de Meta, la idea era que la empresa ayudara a elegir al primer grupo de miembros y luego se hiciera a un lado. Pero en los estatutos de la junta, la empresa se dio a sí misma voz y voto en la selección de la totalidad de los 40 miembros. Los empleados de Meta siguen muy implicados en la contratación y son un factor que explica por qué la junta sigue estando muy lejos del número total establecido en sus estatutos. “Aunque es difícil encontrar el tipo adecuado de personas, no sabemos si eso es una excusa para funcionar al 50% de su capacidad”, dice Douek, el profesor de derecho de Stanford que vigila las actividades de la junta.
La influencia de Meta
La influencia de Meta se hizo difícil de pasar por alto cuando la junta invitó a Renée DiResta a una entrevista. DiResta, directora de investigación técnica del Observatorio de Internet de Stanford, estaba interesada en ser miembro, dice, porque “sería una oportunidad para dar forma a la dirección de algo que creemos que tiene un verdadero potencial.” DiResta es licenciada en Ciencias Políticas e Informática. A partir de abril de 2021, se sometió a múltiples entrevistas. Sobre el papel, su inclusión tenía mucho sentido. La Junta de Supervisión carece de expertos en algoritmos, por lo que su presencia llenaría un vacío. Pero había un problema: ella ha sido una crítica constante de la incapacidad de Meta para hacer frente a la desinformación perjudicial en sus plataformas.
En marzo de 2022, DiResta recibió un correo electrónico rechazando su solicitud. “Dijeron que iban en otra dirección”, cuenta. Esa dirección, resultó ser la misma que antes. La junta procedió a añadir tres miembros más que, como los 20 primeros, son abogados o periodistas sin formación técnica. Una persona familiarizada con el proceso dice que fueron las reservas de Meta las que dieron al traste con el nombramiento. Harris, de Meta, dice que “la empresa ha expresado su preocupación en algunos casos sobre quién puede o no ser más eficaz bajo ciertas luces como miembro del consejo”. Meta explica además que no es inusual que varias personas nieguen su apoyo, y que las excepciones son los candidatos que se ganan el consenso y son contratados. (Esa es una de las principales razones por las que la junta tiene problemas para cubrir sus vacantes.) Si la junta fuera realmente independiente, por supuesto, nunca solicitaría, y mucho menos atendería, las preocupaciones de Meta.
En la época del rechazo de DiResta, los miembros de la junta también estaban echando humo por otra disputa con Meta. Querían tener acceso a una herramienta básica propiedad de la empresa que les ayudara a elegir y contextualizar sus casos. Llamado CrowdTangle, el software es esencial para analizar el impacto de las publicaciones en Facebook e Instagram. Se utiliza internamente y por investigadores externos y organizaciones de medios de comunicación seleccionados. Obtener acceso parecía una obviedad; investigar un caso sin él es como evaluar los daños de una mina de carbón sin una linterna. La junta pasó meses pidiendo acceso, pero Meta siguió sin conceder la solicitud. Parecía claro que alguien en Meta no quería que la junta lo tuviera.
Finalmente, el tema salió a relucir en una reunión en marzo de 2022 con Clegg, que pareció sorprendido por la frustración de los miembros de la junta. Prometió acabar con el atasco, y unas semanas más tarde la junta obtuvo por fin la herramienta que debería haber tenido desde el principio. “Tuvimos que luchar contra ellos para conseguirlo, lo que fue desconcertante”, dice Michael McConnell, profesor de derecho de Stanford que es uno de los copresidentes de la junta. “Pero lo conseguimos”.
Apenas resuelta esa escaramuza, otro incidente agitó las aguas. Cuando las tropas rusas invadieron Ucrania el pasado febrero, Facebook e Instagram se vieron rápidamente desbordados por contenidos cuestionables, incluso peligrosos. Las publicaciones que promovían la violencia, como “muerte a los invasores rusos”, violaban claramente las políticas de Meta, pero prohibirlas podría sugerir que la empresa apoyaba a esos invasores. En marzo, Meta anunció que, en este estrecho caso, permitiría temporalmente ese discurso violento. Se dirigió a la junta en busca de apoyo y solicitó una opinión consultiva sobre la política. La junta aceptó la petición, deseosa de reflexionar sobre el enigma de derechos humanos que ello implicaba. Preparó una declaración y concertó citas para informar a los periodistas sobre el caso que se avecinaba.
Pero justo antes de que la junta anunciara su nuevo caso, Meta retiró abruptamente la solicitud. La razón declarada fue que una investigación podría poner en peligro a algunos empleados de Meta. La junta aceptó formalmente la explicación, pero la criticó en reuniones privadas con la empresa. “Dejamos muy claro a Meta que se trataba de un error”, afirma Stephen Neal, presidente de la Junta de Supervisión Fiduciaria, quien señaló que si la seguridad hubiera sido realmente el motivo, eso se habría puesto de manifiesto antes de que Meta solicitara la opinión consultiva sobre políticas.
Cuando le preguntamos si Neal sospechaba que los enemigos de la junta querían impedir su intromisión en un tema candente, no lo negó. En lo que pareció un golpe de vuelta implícito, la junta se hizo cargo de un caso que abordaba las mismas cuestiones planteadas por la opinión consultiva retirada de Meta. Se trataba de un post en ruso de un usuario letón que mostraba un cuerpo, presumiblemente muerto, tendido en el suelo y citaba un famoso poema soviético que dice: “Matad al fascista para que yazca en el espinazo de la tierra… ¡Matadle! Mátalo!”
Otros miembros también se dieron cuenta de los sentimientos encontrados dentro de Meta. “Hay mucha gente en la empresa para la que somos más bien una irritación”, dice McConnell. “A nadie le gusta que le miren por encima del hombro y le critiquen”.
Dado que los miembros del consejo son personas consumadas que probablemente fueron elegidas en parte porque no son lanzadores de bombas, no son de los que declaran una guerra abierta a Meta. “No abordamos este trabajo pensando que Meta es malvada”, afirma Alan Rusbridger, miembro de la junta y antiguo editor de The Guardian. “El problema que intentan resolver es uno que nadie en la Tierra ha intentado antes. Por otro lado, creemos que ha habido un patrón de arrastrarlos gritando y pataleando para que nos den la información que buscamos”.
Hay cosas peores que la falta de información. En un caso, Meta dio a la junta la información equivocada, lo que pronto podría conducir a su decisión más mordaz hasta la fecha.
Durante el caso Trump, los investigadores de Meta habían mencionado a la junta un programa llamado Cross Check. Esencialmente, daba un trato especial a ciertas cuentas pertenecientes a políticos, famosos y similares. La empresa lo caracterizó ante la junta como un programa limitado que sólo implicaba “un pequeño número de decisiones”. Algunos miembros de la junta lo consideraron inherentemente injusto y, en sus recomendaciones en el caso Trump, pidieron a Meta que comparara los índices de error en sus decisiones de Cross Check con los de los mensajes y cuentas ordinarios. Básicamente, los miembros querían asegurarse de que este extraño programa no era una tarjeta de salida de la cárcel para los poderosos.
Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):
Meta se negó, alegando que la tarea no era factible. (Esta excusa parece ser habitual cuando la empresa quiere hacer rebotar las sugerencias de la junta). Meta también señaló a la junta una de sus declaraciones anteriores: “Eliminamos contenidos de Facebook sin importar quién los publique, cuando violan nuestras normas”.
Documentos Filtrados
En septiembre de 2021, The Wall Street Journal empezó a publicar documentos filtrados que mostraban que Cross Check afectaba en realidad a millones de cuentas. El programa acabó blindando tanto contenido inapropiado que incluso sus propios empleados lo condenaron por permitir a los poderosos eludir las normas de la empresa. (Un ejemplo: El infame post de Trump relacionado con Black Lives Matter que decía: “Cuando empiezan los saqueos, empiezan los disparos”. Otro fueron las fotos de una estrella de fútbol desnuda de una mujer que le acusó de violación). En un memorando interno de mayo de 2019, los consternados investigadores de Facebook habían escrito: “Estamos exponiendo a sabiendas a los usuarios a una desinformación que tenemos los procesos y los recursos para mitigar”. Otro documento interno lo decía sin rodeos: “No estamos haciendo realmente lo que decimos que hacemos públicamente”.
Meta fue descubierta. Sus afirmaciones a la junta sobre el sistema Cross Check eran, en el mejor de los casos, una burda subestimación. “Nos pareció extremadamente irrespetuoso que Facebook mintiera tan abiertamente a la Junta de Supervisión”, dice la ex empleada Frances Haugen, que filtró los documentos y se ha reunido con la junta en privado para hablar del programa.
La junta exigió que Meta se explicara y la empresa admitió, según el informe de transparencia de la junta, que “no debería haber dicho que Cross Check sólo se aplicaba a ‘un pequeño número de decisiones'”. La junta declaró que si no podía confiar en que Meta proporcionara información precisa, todo el ejercicio se desmoronaría. Suzanne Nossel, la directora ejecutiva de PEN, afirma que le preocupaba que los engaños de la empresa pudieran lastrar su proyecto. “Estaba apenada y preocupada por la credibilidad de la junta, por nuestra capacidad para llevar a cabo nuestro trabajo”, afirma.
El siguiente movimiento de Meta recordó al de la decisión de Trump: pidió a la junta su opinión sobre el programa. Durante los meses siguientes, la junta creó un comité para estudiar Cross Check. La mayoría de las reuniones fueron virtuales. Pero en abril, el comité consiguió reunirse durante varios días en la ciudad de Nueva York. Los seis miembros de la junta y su prodigioso personal ocuparon varias salas de reuniones de un bufete de abogados de Midtown. Tras muchas súplicas por mi parte, nos sentamos en una de sus deliberaciones, la primera vez que se permitió a un periodista asistir a una sesión oficial de la Junta de Supervisión. (tuvimos que aceptar no atribuir citas a los miembros por su nombre.) No debería ser la última; el mero vistazo que pudimos echar demostró lo francos y decididos que estaban estos semi-extraños a cambiar la empresa que los había reunido.
Quince personas se reunieron en torno a un conjunto de mesas dispuestas en rectángulo y dispuestas con toda la formalidad de una cumbre de las Naciones Unidas. Había un equipo de traductores para que cada miembro pudiera hablar en su lengua materna, y cada participante recibió un iPod Touch a través del cual escuchar las traducciones. Una vez que la conversación se puso en marcha, rápidamente se volvió acalorada. Algunos miembros abandonaron sus lenguas maternas y hablaron en un inglés menos pulido para que los demás pudieran oír su urgencia directamente de su boca.
Los miembros de la junta parecieron entender el argumento de Meta de que dar un trato especial a las cuentas conocidas podría ser expeditivo. Los empleados podrían evaluar más rápidamente si un post inadecuado era excusable por su “noticiabilidad”. Pero los miembros se centraron en la absoluta falta de transparencia del programa. “Les corresponde a ellos decir por qué debe ser privado”, comentó el copresidente que moderaba la sesión.
Los miembros debatieron si Meta debería hacer públicos todos los detalles del programa. Una sugerencia fue que se etiquetaran los carteles privilegiados. Después de escuchar todas estas idas y venidas, un miembro finalmente lanzó una objeción a todo el concepto del programa. “¡Las políticas deberían ser para todos!”, exclamó.
“quince personas se reunieron en torno a un conjunto de mesas dispuestas en rectángulo y montadas con toda la formalidad de una cumbre de las Naciones Unidas. Había un equipo de traductores para que cada miembro pudiera hablar en su lengua materna, y cada participante recibió un iPod Touch a través del cual escuchar las traducciones. Una vez que la conversación se puso en marcha, rápidamente se volvió acalorada. Algunos miembros abandonaron sus lenguas maternas y hablaron en un inglés menos pulido para que los demás pudieran oír su urgencia directamente de su boca.”
Acabaron supervisando quizá una hora de una sesión mucho más larga. Por lo que pudimos percibir, la junta estaba evaluando el programa desde la perspectiva de los derechos humanos. Los miembros parecían haber llegado ya a la conclusión de que Cross Check encarnaba la desigualdad, justo lo contrario de la afirmación de Meta de que “eliminamos contenidos de Facebook sin importar quién los publique, cuando infringen nuestras normas”. Uno de los miembros se refirió a los participantes en el programa como el Club de los Mensajes Privilegiados.
📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras: Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.Los miembros de la junta parecieron entender el argumento de Meta de que dar un trato especial a las cuentas conocidas podría ser expeditivo. Los empleados podrían evaluar más rápidamente si un post inadecuado era excusable por su “noticiabilidad”. Pero los miembros se centraron en la absoluta falta de transparencia del programa. “Les corresponde a ellos decir por qué debe ser privado”, comentó el copresidente que moderaba la sesión.
Los miembros debatieron si Meta debería hacer públicos todos los detalles del programa. Una sugerencia fue que se etiquetaran los carteles privilegiados. Después de escuchar todas estas idas y venidas, un miembro finalmente lanzó una objeción a todo el concepto del programa. “¡Las políticas deberían ser para todos!”, exclamó.
la forma en que se difunde el contenido”. El siguiente paso sería obtener más conocimientos sobre el funcionamiento real de los algoritmos y emitir dictámenes más directos. (Contratar a Renée DiResta habría ayudado a ello).
Luego están las opiniones consultivas sobre políticas, los grandes exámenes que, hasta la fecha, se han originado todos dentro de Meta. A los miembros les gustaría poder engrosar la lista. Si por ella fuera, Tawakkol Karman, miembro de la junta y periodista galardonada con el Premio Nobel de la Paz, exigiría que se actuara sobre el notoriamente alto volumen de cuentas falsas de Meta, que califica de “desastre”. “Engendran desinformación, odio y conflicto y, al mismo tiempo, las cuentas falsas son reclutadas para atacar a las cuentas reales”, afirma. “Se ha convertido en una herramienta de los opresores”. Entonces, ¿tiene la junta planes para abordar el problema? “Estamos trabajando en ello”, afirma.
La junta está explorando ahora cómo podría ejercer su poder más allá de Meta. Neal dice que la organización está considerando la posibilidad de desempeñar un papel en la ejecución de la Ley de Servicios Digitales de la Unión Europea, que introducirá un impresionante conjunto de normas sobre las plataformas digitales, incluidas las redes sociales. La ley incluye una disposición sobre sistemas de apelación obligatorios. Unirse al esfuerzo podría estirar demasiado a la junta, pero también podría acercarla a convertirse, como sueñan algunos miembros, en una fuerza más global en la política de contenidos, con influencia sobre otras empresas.
No importa que Twitter, Snap, YouTube y TikTok no estén precisamente aporreando las puertas para conseguir una parte de la Junta de Supervisión. (El nuevo consejero delegado de Twitter había, tuiteado para decir que está creando un comité asesor. Casi al instante, la Junta de Supervisión respondió con una oferta de ayuda, pero hasta ahora no ha aceptado). Las decisiones de la junta ni siquiera cubren el WhatsApp propiedad de Meta. “Creo que estamos marcando la diferencia”, afirma Palmor. “¿Creemos que la junta tiene suficiente impacto? Mi respuesta es no. Desearíamos haber marcado más la diferencia”.
Sin embargo, tanto dentro de Meta como en la junta, la gente parece embriagada por la idea de ampliar el ámbito de actuación. Para Meta, sería un triunfo que sus competidores también tuvieran que jugar con sus reglas.
“No pretendemos ser la junta de la industria”, dice Thomas Hughes, que se encarga del funcionamiento de la junta. “Pero sí buscamos entender cómo podríamos interrelacionarnos con otras empresas” para compartir lo que han aprendido y “cómo podríamos interactuar con las empresas que crean diferentes tipos de consejos u organismos para hablar de normas”. Resulta irónico que un consejo convocado para supervisar Meta, una empresa cuyos pecados surgen de una manía de crecimiento, tenga ahora sus propias visiones de hacerse grande rápidamente.
Revisor de hechos: Rouben
Juntas, Supervisión, Facebook
▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.
“No tenemos una fuerza policial”, dice Owono. “Pero no creemos que eso nos impida hacer que la empresa rinda cuentas, al menos ante sus usuarios”. Un comité de la junta está estudiando cómo hacer que sus recomendaciones sean más difíciles de esquivar.