Derechos Humanos en Facebook
Este elemento es una ampliación de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema. [aioseo_breadcrumbs]
¿Comete Abusos?
Es casi pintoresco pensar que en 2012, Mark Zuckerberg se atribuyó el mérito de los grandes movimientos pro-democracia durante el lanzamiento de la IPO de Facebook. Contradiciendo su anterior rechazo de la conexión entre los medios sociales y la Primavera Árabe, la carta de Zuckerberg a los inversores hablaba no solo del potencial comercial de la plataforma, sino también de su capacidad para aumentar “el empoderamiento directo de la gente, más responsabilidad de los funcionarios y mejores soluciones a algunos de los mayores problemas de nuestro tiempo”. 2012 Facebook prometió un ascenso de nuevos líderes “que están a favor de Internet y luchan por los derechos de su pueblo, incluyendo el derecho a compartir lo que quieren y el derecho a acceder a toda la información que la gente quiere compartir con ellos”. Técnicamente, esa promesa se hizo realidad, aunque probablemente no como Zuckerberg la imaginó.
Hoy en día, la compañía tiene que contar con su papel en permitir pasivamente que se cometan abusos contra los derechos humanos. Mientras que la preocupación por la propaganda y la desinformación en la plataforma alcanzó un punto de inflexión en lugares como Estados Unidos el año pasado, su presencia en Myanmar se ha convertido en el tema de la atención mundial. Durante los últimos meses, la empresa fue acusada de censurar a activistas y periodistas que documentaban incidentes de lo que el Departamento de Estado ha llamado limpieza étnica de la minoría rohingya del país. Debido a que la desinformación y la propaganda contra los rohingya aparentemente evitaron el escrutinio de los estándares de la comunidad que permitía el discurso de los activistas, y debido a la tendencia de los canales (véase qué es, su definición, o concepto, y su significado como “canals” en el contexto anglosajón, en inglés) de noticias a promover contenidos ya populares, las publicaciones con desinformación que apuntaban a incitar a la violencia se han vuelto virales con facilidad. Los expertos describen el papel de Facebook en el país como la Internet de facto, lo que da a todas sus acciones e inacciones en el contenido una influencia aún mayor en la política y el conocimiento público.
El enredo de la plataforma en los abusos contra los derechos humanos no es exclusivo de Facebook. A principios de este año, YouTube desplegó un algoritmo de moderación de contenido con la intención de eliminar el contenido terrorista, eliminando inadvertidamente los archivos de imágenes que los activistas sirios habían estado recopilando como pruebas de crímenes de guerra (la Convención sobre la imprescriptibilidad de los crímenes de guerra y de los crímenes de lesa humanidad fue adoptada en Nueva York, el 26 de noviembre de 1968 por la Asamblea General en su resolución 2391 (XXIII) y entró en vigor el 11 de noviembre de 1970, de conformidad con el artículo VIII; véase también la información sobre los delitos o crímenes de lesa humanidad y acerca de los crímenes contra la humanidad). Algunos han hecho críticas similares a las plataformas estadounidenses que operan en el extranjero, incluyendo el cumplimiento por parte de Twitter de las peticiones de censura del gobierno turco, y actos similares por parte de las plataformas en China.
Las elecciones de 2016 han dado un nuevo impulso a la regulación de la plataforma en los círculos políticos estadounidenses, acercando el debate en Estados Unidos al de Europa.Si, Pero: Pero más allá de la política electoral occidental, siguen existiendo cuestiones legales difíciles con muchas más vidas humanas en juego. Aunque la violencia en Myanmar es anterior a la presencia de Facebook en el país y no se puede poner totalmente a sus pies, la plataforma es una fuente central de información en línea, y en Myanmar la propaganda que legitima los crímenes contra la humanidad puede tener un alcance e influencia masivos. Las voces disidentes que publican poemas sobre la crisis han sido declaradas en violación de normas comunitarias vagamente definidas (y, aunque esas decisiones a veces han sido revocadas, por lo general es después de recibir la atención de los medios de comunicación, lo cual no todos los incidentes tienen probabilidades de recibir). Ha habido cobertura y documentación de discursos de odio en la plataforma en Myanmar desde 2014, es decir, Facebook ha sido consciente del problema desde hace bastante tiempo.
Cuando se le preguntó sobre los recursos que la compañía ha asignado para abordar la desinformación y la incitación al odio, Ruchika Budhraja, portavoz de Facebook, respondió por correo electrónico que “hemos aumentado constantemente nuestra inversión a lo largo de los años en los recursos y equipos que ayudan a garantizar que nuestros servicios sean utilizados por la población de Myanmar para conectarse de una manera significativa y segura”. Proyectos como copias impresas ilustradas de sus normas comunitarias traducidas al birmano en 2015, asociaciones con grupos de la sociedad civil y una página de seguridad en Facebook para Myanmar con archivos PDF de las normas comunitarias ilustradas y la guía de seguridad son algunas de las campañas de alfabetización digital que, según Budhraja, “han llegado a millones de personas y escuchamos a los grupos de la comunidad local para que podamos seguir perfeccionando la forma en que aplicamos y promovemos la concienciación sobre nuestras políticas para ayudar a mantener nuestra comunidad segura”.
Esto es alentador, aunque Facebook todavía no tiene personal a tiempo completo sobre el terreno en Myanmar. Independientemente de los esfuerzos pasados y presentes de buena fe de Facebook para tratar de abordar lo que está sucediendo ahora, el daño ha sido y sigue siendo hecho.
Mientras que los defensores y periodistas presentaron argumentos morales y éticos convincentes para que Facebook tomara medidas el otoño pasado, la responsabilidad legal permaneció visiblemente ausente. No hay un punto de acuerdo en el que las acciones automatizadas a escala de una plataforma se eleven a un nivel potencialmente ilegal de complicidad en crímenes contra la humanidad, y aparentemente hay poco acuerdo sobre lo que se debe hacer después de que se alcance ese punto.
Esto se debe en parte a que es extremadamente improbable que Facebook (o las otras grandes plataformas) sean consideradas legalmente responsables o legalmente obligadas a rendir cuentas por desempeñar un papel significativo en los abusos de los derechos humanos en todo el mundo. Incluso plantear la cuestión de la culpabilidad legal de una plataforma por abusos a los derechos humanos parece una búsqueda quijotesca, basada en la reacción que he tenido cuando hablé con abogados y defensores de los derechos humanos. El aparente absurdo de perseguir la rendición de cuentas legal parece tener menos que ver con la inocencia o culpabilidad de las plataformas y más que con las realidades de la ley de derechos humanos, que tiene un historial pobre con respecto a las corporaciones en general y que es desafiada de manera única y complicada por las plataformas tecnológicas en particular.
Suponer que una empresa puede ser considerada legalmente responsable de abusos de los derechos humanos también supone que existe una jurisdicción que puede conocer del caso. La Corte Penal Internacional no está realmente creada para juzgar a las empresas y, aunque lo estuviera, solo puede entablar demandas contra naciones cuyos gobiernos son signatarios del Estatuto de Roma (el tratado que estableció la CPI). Estados Unidos firmó pero nunca ratificó el tratado y retiró formalmente su firma en 2002. Técnicamente, la CPI puede presentar casos en nombre de los países miembros (como argumentó este año el fiscal de la CPI Fatou Bensouda cuando solicitó investigar a Estados Unidos en nombre del estado miembro Afganistán), pero Myanmar no es miembro.
Presentar un caso en el país donde se cometen abusos contra los derechos humanos es difícil, porque es poco probable que el sistema judicial de un régimen opresivo ofrezca un juicio justo a las víctimas.Entre las Líneas En los Estados Unidos, los no ciudadanos pueden presentar demandas civiles contra compañías estadounidenses que han violado tratados internacionales bajo el algo oscuro Estatuto de Agravios a Extranjeros de 1789.Si, Pero: Pero la jurisprudencia no está exactamente a favor de la víctima con la ley. Las compañías tienden a tener más éxito, particularmente a la luz del caso Kiobel vs. Royal Dutch Petroleum de la Corte Suprema de 2013, que dictaminó que el estatuto técnicamente no se aplica a las acciones tomadas fuera de los Estados Unidos (aunque, viendo que Facebook no tiene empleados a tiempo completo en Myanmar y que la fuente de noticias es trabajada por ingenieros en los Estados Unidos, todavía podría haber un argumento aquí). Dados los gastos generales y el agotamiento de las batallas legales con las empresas con buena reputación, y la preferencia de las empresas por hacer desaparecer silenciosamente las malas relaciones públicas, en el mejor de los casos las víctimas podrían llegar a un acuerdo extrajudicial.
Suponiendo que se resuelva la espinosa cuestión de la jurisdicción, es difícil identificar qué crimen ha cometido Facebook. La falta de previsión no es realmente un crimen contra la humanidad.
Otros Elementos
Además, “la persecución y la discriminación contra los rohingya ha durado bastante tiempo, y estaría sucediendo si Facebook no estuviera allí en absoluto”, señaló Cynthia Wong, investigadora principal de Internet y derechos humanos de Human Rights Watch.
Por otra parte, Wong señaló que “creo que, en general, Facebook no se ha enfrentado plenamente a los daños a los que puede contribuir su plataforma” cuando sirve como la Internet de facto de la población y, por lo tanto, como fuente central de información. (Tal vez sea de interés más investigación sobre el concepto). Actuar como infraestructura de comunicaciones fundamental, por supuesto, no hace a la empresa responsable del contenido del sitio, por muy odioso que sea. El operador de las imprentas alemanas no fue condenado a muerte en Nuremberg, el editor de Der Stuermer sí, y el artículo 230 de la Ley de Decencia en las Comunicaciones protege a las plataformas de la responsabilidad por el contenido publicado por los usuarios en la plataforma.
Pero las comparaciones de Facebook con la imprenta empiezan a parecer endebles cuando se considera el poder y la influencia de la fuente de noticias. “Cuando empiezan a dar ese paso de dirigir la información, creo que se puede argumentar que ya no son como cualquier otra editorial, sino que están participando activamente en quién ve qué y con qué grado de impacto”, dijo Alexa Koenig, directora del Centro de Derechos Humanos de la Universidad de California en Berkeley.
Facebook no crea el contenido y no es responsable de él más allá de sus propios estándares de comunidad, pero sí crea, gestiona y modera los sistemas que mueven ciertos contenidos a la cima de la fuente de noticias de un usuario, con el fin de mantener a más usuarios comprometidos con el contenido de la plataforma y, por lo tanto, poner más ojos en los anuncios. La curaduría y focalización de contenidos algorítmicos, según este argumento, sigue siendo un acto de curaduría y focalización. (Tal vez sea de interés más investigación sobre el concepto).Entre las Líneas En este caso, la curaduría de Facebook (o la falta de ella) dio una mayor plataforma y credibilidad a la desinformación y propaganda que aboga por la limpieza étnica.Entre las Líneas En el caso del contenido gráfico que documenta las atrocidades contra Rohingya que fueron eliminadas por los moderadores, las decisiones sobre qué no publicar y la interpretación de las políticas de arresto son también decisiones que van más allá de la publicación pasiva de contenido.
Pero, ¿es la ordenación inversa o la moderación de contenido un derecho particular? Probablemente no. “Se podría decir que están violando el derecho a la verdad o a la información, pero esos derechos tienen un alcance realmente limitado”, explicó Steven Ratner, profesor de derecho de la Universidad de Michigan. “No hay derecho explícito a noticias exactas en ningún tratado[internacional de derechos humanos]”.
Un término frecuentemente invocado cuando las plataformas facilitan pasivamente el abuso o la violencia es la palabra del año de Dictionary.com, “cómplice”, que puede ser invocada en la ley, pero no con el florecimiento del gossamer de la atracción moral. La “complicidad” como concepto legal en el derecho internacional tiende a ser utilizada para responsabilizar a los burócratas o subordinados que estaban “siguiendo órdenes” en un régimen genocida, y mucho más difícil de aplicar a las empresas. Requiere la prueba de que el acusado, a sabiendas, ayudó y fue cómplice de abusos (por lo general estatales, pero posiblemente no estatales), y al hacerlo buscó activamente el resultado abusivo o se benefició materialmente de él.
Esto es parte del argumento en recientes demandas contra plataformas de víctimas de ataques terroristas y familias sobrevivientes, que argumentan que las plataformas no son responsables de la existencia de contenido terrorista en sus plataformas, sino que son responsables de beneficiarse de su promoción de ese contenido en su plataforma. Las protecciones contra la responsabilidad por el contenido, dice el argumento, no se aplican a los anuncios automatizados.
La ganancia material de los abusos de derechos también estaba en juego en Xiaoning et al. vs. Yahoo, la demanda presentada en 2007 tras la cooperación de Yahoo con las solicitudes del gobierno chino de datos de usuarios que condujeron al encarcelamiento y abuso de dos disidentes.Entre las Líneas En ese caso, la evidencia de intención y beneficio fue mucho más corta y seca que tratar de argumentar las sutilezas de lo que está y no está cubierto por la Sección 230. El caso resultó en un acuerdo y la creación de un fondo para apoyar a los activistas chinos que recientemente fueron objeto de una nueva demanda.
Incluso las pruebas de complicidad y de ganancia material no siempre se traducen en una demanda exitosa, dependiendo del tiempo transcurrido desde los abusos y la jurisdicción de la demanda. Hasta la fecha, IBM nunca ha sido demandada con éxito por su papel en el Holocausto, en parte debido a disputas jurisdiccionales y estatutos de prescripción. (Tal vez sea de interés más investigación sobre el concepto). Durante la Segunda Guerra Mundial, varias de las subsidiarias europeas de IBM suministraron al régimen nazi la tecnología de tarjetas perforadas que se utilizó para facilitar la Solución Final en todo su horror burocrático, desde el seguimiento de los trenes utilizados para transportar a los judíos hasta los campos de concentración, pasando por la provisión de la base rudimentaria para los infames tatuajes numerados de Auschwitz. (IBM nunca ha negado estos hechos; solo cuestiona la afirmación de que su sede en Nueva York tenía pleno conocimiento de las acciones de sus filiales).
Existen otros conceptos legales que podrían captar mejor el impacto y la responsabilidad potencial de Facebook. Koenig sacó a relucir las posibilidades del derecho civil de daños estadounidense. “Podría ver abogados argumentando que ha habido negligencia debido a que estas compañías crean nuevas vulnerabilidades que dan lugar a un mayor deber de cuidado.” El deber de cuidado es un concepto más pedante de lo que sugiere su redacción poética: es un término que designa la obligación legal de una persona o empresa de actuar razonablemente para evitar daños previsibles.
Observación
Además de la negligencia, Koenig señaló que “quizás lo más interesante es la posible aplicación de un estándar de imprudencia temeraria -que las empresas sabían o deberían haber sabido que estaban creando dependencias que conducían a nuevas vulnerabilidades que permitían que ocurrieran actividades criminales y otros daños”. Las cuestiones legales aquí incluirían si o cómo Facebook se entiende a sí mismo como una forma de infraestructura central en los estados-nación, qué responsabilidades tienen las compañías de infraestructura para prevenir o prever daños, si se puede argumentar razonablemente que la infraestructura en sí facilita o permite daños, y si los esfuerzos de Facebook para promover la alfabetización digital y aumentar la conciencia de los estándares de la comunidad demostraron un esfuerzo suficiente para mitigarlos.
Asumiendo que las leyes actuales no están siendo usadas o no pueden ser usadas para hacer que las compañías rindan cuentas, ¿qué leyes potenciales podrían hacerlo? Los enfoques en los Estados Unidos y Alemania se centran más en la dinámica de las plataformas específicas de esos países: la divulgación de información mediante campañas publicitarias o las fuertes multas por no eliminar la incitación al odio.
Como directora del Dangerous Speech Project, la profesora asociada adjunta de la Universidad Americana Susan Benesch entiende el reflejo común de tratar de usar la ley para regular el contenido en línea -o forzar a las plataformas a hacerlo- pero cree que hay muchas buenas razones para la precaución. (Tal vez sea de interés más investigación sobre el concepto). Por un lado, Benesch argumentó que las leyes contra tipos específicos de lenguaje tienden a ser más usadas contra los marginados que contra los poderosos. Por otra parte, la aplicación de las leyes de censura tiende a ser demasiado entusiasta, especialmente cuando los gobiernos subcontratan la censura a actores privados.
Benesch duda de que Facebook o cualquier otra compañía tenga un software lo suficientemente sofisticado como para automatizar el tipo de comprensión matizada que se necesita para entender los daños de tipos específicos de lenguaje en una variedad de contextos sociales, y es probable que elimine demasiado contenido. “Las leyes que obligan a la gente a hacer cosas ejercen una enorme presión hacia la sobre-regulación. (Tal vez sea de interés más investigación sobre el concepto). El software no está listo para discernir efectivamente a escala”.
Cynthia Wong, de Human Rights Watch, también expresó escepticismo. “El desafío es que en muchos países, los propios gobiernos son parte del problema[de la incitación al odio]. Así que el gobierno está usando Facebook para difundir información errónea y expresiones de odio contra las minorías. No es algo que se pueda poner completamente a los pies de Facebook-no es su trabajo arreglar lo que los gobiernos están haciendo”.
El trabajo real de Facebook es servir a sus accionistas, lo que normalmente significa conseguir más gente en Facebook y vender más anuncios. Como la mayoría de las plataformas, prefiere la autorregulación y hacer promesas de ser un mejor actor que la regulación gubernamental (o, en ocasiones, de la Administración Pública, si tiene competencia) que podría socavar esa misión primaria.Si, Pero: Pero Benesch también señaló que los estándares de la comunidad de cara al público de Facebook para la moderación de contenido son bastante vagos (“al igual que la Constitución”, señaló alegremente) y que sus pautas internas para la moderación de contenido son generalmente opacas (o lo eran, hasta que alguien las filtró a ProPublica). Es la vaguedad de esas políticas lo que lleva a los moderadores a los puestos de la bandera que documentan las acciones militares birmanas, mientras que el monje budista ultranacionalista Ashin Wirathu, a quien se le prohibió predicar públicamente en Myanmar porque la naturaleza vitriólica de su discurso estaba alimentando la limpieza étnica, sigue publicando información errónea.
Para ser claros, no es que nadie haya declarado públicamente que quiere demandar a Facebook por sus acciones u omisiones en Myanmar; como indican los informes del otoño pasado, la mayoría de los activistas y musulmanes del país están más preocupados por el hecho de que el Estado promulgue o deje que la violencia se extienda de forma pasiva que la plataforma, aunque sin duda existe el deseo de ver a Facebook hacer más y ser más receptivo y atento. La razón para buscar un contexto legal para las acciones de la compañía es porque al final del día el historial de Facebook de ser realmente avergonzado por la protesta moral es bastante débil, y en su forma idealizada la ley podría ser donde tal protesta puede tener consecuencias regulatorias o financieras que podrían forzar a la compañía a actuar. La razón para seguir estos callejones sin salida legales hasta su máxima conclusión es reconocer que las herramientas formales e informales disponibles (y las que se están proponiendo) están bastante mal equipadas para la tarea real que se está llevando a cabo.
Dejar el poder de regular el habla en manos de un Facebook autorregulado ha demostrado ser insostenible para prevenir el daño; volver a situar ese poder con el gobierno es una receta fácil para perpetuarlo.Entre las Líneas En ambos casos, el poder y la agencia permanecen fuera del alcance de los ciudadanos directamente afectados por estos sistemas. Y mientras Facebook promueve su trabajo con la sociedad civil y los gobiernos para mejorar la alfabetización digital y la moderación de contenidos en países de todo el mundo, estos esfuerzos son un frío consuelo para las personas que ya han perdido sus hogares, sus familias y sus medios de subsistencia, lo que, una vez más, no se debe directamente a Facebook, sino que es una realidad en la que están implicados.
Pormenores
Las adiciones parciales de términos marcados y la contratación de más moderadores para hacer juicios de valor es mejor que nada, pero eclipsados por la escala y la complejidad del problema.
El hecho de que Facebook actúe como un motor propagandístico involuntario para la limpieza étnica (o, en el mejor de los casos, intentando deliberadamente, pero sin éxito, evitar ser un motor propagandístico) es quizás el peor escenario de un problema sistémico mayor: la facilidad con la que se pueden manipular las plataformas al servicio de la incitación al odio y de la desinformación. (Tal vez sea de interés más investigación sobre el concepto). ¿Cuántas tragedias más como ésta pueden permitirse las sociedades mientras las plataformas se esfuerzan por cumplir la promesa de una moderación de contenido matizada que funcione a la misma escala que la propagación de contenido?
La opción de que Facebook simplemente cese sus operaciones en áreas donde su plataforma está manipulada para permitir abusos contra los derechos humanos también parece un resultado insatisfactorio. Como dijo Jonathan Zittrain del Berkman Klein Center for Internet & Society de Harvard, “[Facebook] abdicar se siente raro porque muy a menudo (y esto se refleja a veces en la ley) si estás en condiciones de hacer algo, de aliviar un gran daño -y te estás beneficiando, no eres un espectador, estás implicado o involucrado- tendemos a pensar que tienes la responsabilidad de hacer algo”.Si, Pero: Pero nadie puede realmente ponerse de acuerdo sobre el “algo” que hay que hacer. Zittrain lo comparó con la industria automotriz: En lugar de pedir que se retiren los coches defectuosos que se sabe que causan accidentes, “si una empresa puede reparar el coche mientras está chocando, eso es lo que se le pide a Facebook que haga”. Aunque ajustar el habla sobre la marcha, por supuesto, tiene implicaciones más allá de mejorar la seguridad del producto”.
Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):
A su favor, Facebook parece entender que tiene la responsabilidad de abordar la manipulación en la plataforma, y a sus usuarios en Myanmar, a pesar del hecho de que las tensiones entre los musulmanes rohingya y los nacionalistas budistas han existido mucho antes de su presencia en el mercado. “Nos sentimos humillados por las muchas maneras en que vemos a la gente usar Facebook en Myanmar. Mantener una comunidad segura para que la gente se conecte y comparta en Facebook es absolutamente crítico para nosotros”, respondió Budhraja cuando se le preguntó si cree que tiene la responsabilidad de abordar la manipulación de la plataforma en entornos en los que se están produciendo abusos de los derechos humanos apoyados por el estado.
Pero cuando se le preguntó cómo la compañía enmarca esa responsabilidad -como un asunto moral, ético, legal o de negocios- Facebook no tuvo una respuesta oficial. El lenguaje público de las “plataformas abiertas” y de la “infraestructura social” de la empresa para apoyar la compartición hace que las castañas de Zuckerberg sean muy buenas, pero como muchas otras plataformas tecnológicas importantes, la empresa no parece ser capaz de contar o articular abiertamente lo que significa ser un actor político poderoso en un conflicto importante, y esto podría tener algo que ver con el hecho de que las únicas consecuencias reales a las que se enfrentan son las malas relaciones públicas y no la pérdida de participación en el mercado o la responsabilidad legal.
La incoherencia de la respuesta de las plataformas a sus daños públicos muy reales y la falta de imaginación en los mecanismos de rendición de cuentas podrían explicar el condenado atractivo de crear una única acusación legal coherente, algo penetrante y fijo como un diamante arrancado del carbón.
La búsqueda de un marco legal habla de una esperanza ingenua (en contra de toda comprensión racional de las tendencias irracionales de la humanidad, en contra de lo absurdo de la ley misma) de que si tan solo pudiéramos construir una historia compartida de Qué Pasó y Quién es el Responsable, tal vez encontraríamos palabras que dieran claridad al dolor de las cosas indecibles y tal vez evitaríamos que esas cosas volvieran a suceder. Por supuesto, la claridad tampoco es necesariamente justicia: el Tribunal de Crímenes de Guerra de Kuala Lumpur puede haber condenado a Tony Blair y George W (examine más sobre todos estos aspectos en la presente plataforma online de ciencias sociales y humanidades). Bush por crímenes de guerra (la Convención sobre la imprescriptibilidad de los crímenes de guerra y de los crímenes de lesa humanidad fue adoptada en Nueva York, el 26 de noviembre de 1968 por la Asamblea General en su resolución 2391 (XXIII) y entró en vigor el 11 de noviembre de 1970, de conformidad con el artículo VIII; véase también la información sobre los delitos o crímenes de lesa humanidad y acerca de los crímenes contra la humanidad), pero esas condenas podrían entenderse mejor como una crítica a un régimen de derechos humanos construido en gran medida por las potencias occidentales, que rara vez, o nunca, deben rendir cuentas de sus propios crímenes. Lo que tal vez apunta a la absurdidad adicional de preguntar cómo hacer que Facebook rinda cuentas por negligencia o complicidad en sus mercados extranjeros: En una época en la que Estados Unidos apenas puede aceptar su propio legado fundacional de genocidios y crímenes contra la humanidad, ¿cómo puede alguien siquiera empezar a exigir responsabilidades o reparaciones por la violencia programática pasiva que permite una sola empresa que opera en el extranjero?
Sin embargo, señalar simplemente los restos automatizados involuntarios o exigir reparaciones parciales de la monstruosa maquinaria de las plataformas es como ceder a la fatiga y el dolor de un mundo vacío en el que todo el mundo se arrepiente y nadie es responsable. Es agotador vivir en una época en la que el poder no es solo algo de lo que abusan las empresas, sino una fuerza desencadenada inadvertidamente por equipos de ingenieros bien intencionados, tan puros e inocentes como Pandora ante una caja de rompecabezas técnicos irresistible o (dependiendo de la arrogancia particular de la empresa en cuestión) tan benévola como el condenado cuñado de Pandora, Prometeo, que simplemente trata de traer a los humildes mortales tesoros para los que no estaban en absoluto preparados para ejercer. ¿Qué leyes pueden castigar la innovación -no, la generosidad- de dotar al mundo de tales dones malditos? Así que levantamos las manos y expresamos nuestro descontento, lloramos, nos ocupamos de la siguiente crisis, y de la siguiente, y de la siguiente, y de la siguiente, y de la siguiente. Nos las arreglamos sabiendo que los dioses de Silicon Valley están haciendo lo mejor para domar a los monstruos de su propio hechizo, pero no pueden contener ni responder por los daños colaterales continuos.
📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras: Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.Pero al final del día, los campus corporativos de Menlo Park y Mountain View no tienen ni dioses ni monstruos. Sólo tienen, en su mayoría, hombres -hombres que, por ahora, responden principalmente ante un tribunal de la opinión pública por la violencia y el horror que sus plataformas permiten repetidamente. Hombres que harán poesía sobre la “comunidad” y la “infraestructura social” mientras construyen esencialmente un motor publicitario plausiblemente negable. Hombres que, al igual que en tantos otros sectores de la vida pública en este momento, están llamados a un verdadero juicio de valor con consecuencias reales.
Revisor: Lawrence, 2017
Nota: en un artículo de 2019, Amnistía Internacional se quejaba que Facebook ha eliminado la búsqueda gráfica, y los resultados pueden ser desastrosos. Y añadía que:
“No es la primera vez que una empresa de redes sociales traiciona a la comunidad de derechos humanos. A mediados de 2017, presionada por los gobiernos para que eliminara contenido que pudiera mostrar o ensalzar el terrorismo, YouTube comenzó a eliminar masivamente vídeos de Siria de su plataforma. The Syrian Archive, una ONG con sede en Berlín creada para catalogar los crímenes del conflicto de Siria con la esperanza de una eventual rendición de cuentas, perdió cientos de miles de vídeos que civiles se habían arriesgado a grabar sobre el terreno y subir a las redes sociales. La comunidad de derechos humanos se unió para intervenir, y YouTube cedió y reintegró a la plataforma algunos de esos vídeos, aunque su política de eliminación sigue en pie, y salvar este tipo de contenido es una batalla constante.
Podría llegar a darse el caso de que hubiera algoritmos para eliminar estos vídeos casi tan rápido como los suban los defensores y defensoras de los derechos humanos, lo cual posiblemente tenga un efecto devastador para quienes investigan. No podemos pedir que se reintegre un vídeo o que se use para fundamentar las acusaciones contra un señor de la guerra si no llegamos ni a enterarnos de que existió.”
▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.