Algoritmos Irresponsables o No Contabilizables
Este elemento es una ampliación de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema. [aioseo_breadcrumbs] En inglés: unaccountable algorithms
Según él, Uber no tiene ningún recurso de apelación real u otro proceso legal en juego para un sistema de calificación que puede dejar a un conductor sin trabajo instantáneamente – simplemente hace que las cifras sean demasiado altas.
La historia de Mansour comprime las tendencias de larga data en el crédito y el empleo – y de ninguna manera es única. Los minoristas en línea temen una’Pena de Muerte de Google’ – una caída repentina y misteriosa en los rankings de los motores de búsqueda si hacen algo juzgado fraudulento por los algoritmos de detección de spam de Google. Los solicitantes de empleo en Walmart en los EE.UU. y otras grandes empresas se someten a misteriosas “pruebas de personalidad”, que procesan sus respuestas de manera no revelada. Y los trabajadores de cuello blanco se enfrentan a un software de clasificación de currículums que puede subestimar, o ignorar por completo, sus cualificaciones. Un analizador de CV algorítmico encontró que las 29.000 personas que solicitaron un “puesto de ingeniería razonablemente estándar” no estaban cualificadas.
La infancia de Internet ha terminado. A medida que los espacios en línea maduran, Facebook, Google, Apple, Amazon y otras poderosas corporaciones están estableciendo las reglas que rigen la competencia entre periodistas, escritores, programadores y firmas de comercio electrónico. Uber y Postmates y otras plataformas están añadiendo una capa de código a ocupaciones como la conducción y el trabajo de servicio. El ciberespacio ya no es un escape del “mundo real”. Ahora es una fuerza que lo gobierna a través de algoritmos: conjuntos de instrucciones similares a recetas para resolver problemas. Desde la búsqueda en Google hasta la búsqueda de parejas de OkCupid, los pedidos de software y el peso de cientos de variables en interfaces limpias y sencillas, que nos llevan de la consulta a la solución. (Tal vez sea de interés más investigación sobre el concepto). Las matemáticas complejas gobiernan tales respuestas, pero están ocultas a la vista de todos, gracias al secreto impuesto por la ley o a la complejidad que los extraños no pueden desentrañar.
Los algoritmos son cada vez más importantes porque las empresas rara vez pensadas como de alta tecnología han aprendido las lecciones de los éxitos de los gigantes de Internet. Siguiendo el consejo de What Would Google, de Jeff Jarvis, están recopilando datos tanto de los trabajadores como de los clientes, utilizando herramientas algorítmicas para tomar decisiones, para clasificar lo deseable de lo desechable. Las compañías pueden estar analizando su voz y su registro de crédito cuando usted las llama, para determinar si usted está a la altura del estatus de “cliente ideal”, o si simplemente es un “desperdicio” que puede ser tratado con desdén. Epagogix aconseja a los estudios cinematográficos sobre los guiones que deben comprar, en función de la coincidencia entre los guiones anteriores y los que han tenido éxito. Incluso los enólogos hacen juicios algorítmicos, basados en análisis estadísticos del clima y otras características de los años buenos y malos de la cosecha.
En el caso de los vinos o las películas, las apuestas no son muy altas.Si, Pero: Pero cuando los algoritmos empiezan a afectar las oportunidades críticas de empleo, promoción profesional, salud, crédito y educación, merecen un mayor escrutinio.
Pormenores
Los hospitales de los EE.UU. están utilizando grandes sistemas basados en datos para determinar qué pacientes son de alto riesgo, y los datos que se encuentran fuera de los registros de salud tradicionales están informando esas determinaciones. IBM utiliza ahora herramientas de evaluación algorítmica para clasificar a los empleados en todo el mundo según criterios de rentabilidad, pero evita a los altos directivos la misma vigilancia y clasificación invasivas. También en el gobierno, las evaluaciones algorítmicas de peligrosidad pueden conducir a sentencias más largas para los convictos, o a listas de exclusión aérea para los viajeros. El puntaje crediticio genera miles de millones de dólares en préstamos, pero los métodos de los calificadores siguen siendo opacos. El prestatario medio podría perder decenas de miles de dólares durante toda su vida, gracias a datos erróneos o procesados injustamente.
Esta tendencia a utilizar más datos, de maneras más oscuras, para clasificarnos y calificarnos, puede parecer inevitable.
Puntualización
Sin embargo, el desarrollo exacto de estos métodos informatizados de clasificación es todo menos automático. Los motores de búsqueda, por ejemplo, son ejemplos paradigmáticos de tecnología algorítmica, pero su aspecto actual se debe en gran medida a las intervenciones legales. Por ejemplo, gracias a la acción de la Comisión Federal de Comercio en 2002, las leyes de protección al consumidor de los Estados Unidos exigen la separación de la publicidad de los contenidos “orgánicos” no remunerados.Entre las Líneas En un mundo en el que las empresas de medios de comunicación intentan constantemente desdibujar la distinción entre contenido y “publicidad nativa”, esa ley es importante. Los reguladores de la Unión Europea están tratando de garantizar que el material irrelevante, obsoleto o perjudicial no atormente los resultados de la “búsqueda de nombres” de las personas, una tarea crítica en una época en la que tantos empleadores potenciales buscan en Google a aquellos a los que están considerando para un empleo. La UE también ha instado a los motores de búsqueda a tener en cuenta la dignidad humana, por ejemplo, aprobando la solicitud de una “víctima de agresión física[que] pidió que se eliminaran los resultados que describían la agresión para realizar consultas sobre su nombre”.
Tales controversias han dado lugar a un movimiento a favor de la rendición de cuentas algorítmica. En’Governing Algorithms’, una conferencia de 2013 en la Universidad de Nueva York, una comunidad de académicos y activistas se unieron para analizar críticamente los resultados de los procesos algorítmicos. Hoy en día, estos académicos y activistas están impulsando un diálogo robusto sobre la rendición de cuentas algorítmica, o #algacc para abreviar. Al igual que la movilización por el “acceso al conocimiento” (A2K) que tuvo lugar en la década de 2000, #algacc centra su atención en un tema clave de justicia social en la década de 2010.
Algunos en el mundo de los negocios preferirían que el trabajo de esta comunidad terminara antes de que haya comenzado. Los portavoces y cabilderos de las aseguradoras, los bancos y las grandes empresas generalmente creen que los algoritmos clave merecen las férreas protecciones del secreto comercial, por lo que nunca pueden ser examinados (y mucho menos criticados) por personas ajenas a la empresa.Si, Pero: Pero los abogados ya se han enfrentado antes a este tipo de obstáculos, y lo volverán a hacer.
Los reguladores pueden hacer que las empresas centradas en los datos sean más responsables.Si, Pero: Pero primero, deben ser conscientes de las muchas maneras en que la computación empresarial puede salir mal.
Informaciones
Los datos utilizados pueden ser inexactos o inapropiados. Los modelos o análisis algorítmicos pueden ser sesgados o incompetentes. Y los usos de los algoritmos siguen siendo opacos en muchos sectores críticos; por ejemplo, es posible que ni siquiera sepamos si nuestros empleadores nos están juzgando según fórmulas secretas. De hecho, sin embargo, en cada etapa de la toma de decisiones algorítmicas, las simples reformas legales pueden llevar las protecciones básicas (tales como el debido proceso y la ley antidiscriminatoria) a una edad computacional.
Todo el mundo sabe lo inexactos que pueden ser los informes de crédito y lo difíciles que son de corregir.Si, Pero: Pero los historiales de crédito son en realidad una de las áreas más reguladas de la economía de datos, con mucha protección disponible para los consumidores inteligentes. Mucho más preocupante es el sombrío mundo de miles de corredores de datos, en su mayoría no regulados, que crean perfiles de personas, perfiles construidos sin el conocimiento, consentimiento y, a menudo, sin el derecho a revisar o corregir. Una calumnia casual contra usted podría entrar en una base de datos aleatoria sin su conocimiento y luego llenar cientos de otros expedientes digitales que pretenden informar sobre su estado de salud, sus finanzas, su competencia o sus antecedentes penales.
Este nuevo inframundo digital puede arruinar reputaciones. Una mujer fue acusada falsamente de ser traficante de metanfetaminas por un corredor privado de datos, y tardó años en poner las cosas en orden, años durante los cuales los propietarios y los bancos le negaron la vivienda y el crédito. Las bases de datos del gobierno pueden ser aún peores, en los EE.UU. por ejemplo, al alquitranar a los inocentes con “informes de actividad sospechosa” (SAR), o al albergar registros de arrestos inexactos. Ambos problemas han acosado a los ciudadanos desafortunados durante años. La glotonería de los datos de los actores estatales y del mercado significa que los informes ersatz pueden propagarse rápidamente.
Cuando la información falsa y dañina puede propagarse instantáneamente entre las bases de datos, pero se necesitan meses o años de trabajo preliminar y apoyo para corregirla, la arquitectura de datos es defectuosa por diseño. Los futuros sistemas de reputación deben permitir la inversión del estigma tan rápido como promueven su propagación. (Tal vez sea de interés más investigación sobre el concepto). Este no es un problema insoluble: el Congreso de los EE.UU. aprobó la Ley de Informes de Crédito Justos en 1970 para gobernar las prácticas de recolección de datos de las agencias de crédito. Ampliar y modernizar sus protecciones crearía responsabilidad, mecanismos de justicia y compensación en los sistemas de datos que actualmente se encuentran agrupados solo con beneficios rápidos, no pensando en las personas ni en los ciudadanos.
Los problemas de recopilación de datos van más allá de la inexactitud. Algunos métodos de datos son demasiado invasivos para ser permitidos en una sociedad civilizada. Incluso si los solicitantes están tan desesperados por un trabajo que se permiten ser grabados en el baño como una condición para el empleo, la ley de privacidad debe detener tales gangas. La recolección de datos digitales también puede cruzar una línea. Por ejemplo, una ex trabajadora del servicio internacional de transferencias electrónicas de Intermex afirma que fue despedida después de haber desactivado una aplicación que permitía a la empresa realizar un seguimiento constante de su ubicación.
Tenga en cuenta que el empleador puede tener razones comerciales más allá del voyeurismo para tal seguimiento; puede descubrir que los empleados que siempre están en casa a las 8 p.m. tienden a tener un mejor desempeño al día siguiente en el trabajo, y luego gradualmente introducen incentivos para ese comportamiento, o incluso lo requieren, entre toda su fuerza laboral. Por mucho que el conocimiento de cada momento de la vida de un trabajador pueda contribuir a la cuenta de resultados, una sociedad democrática debería resistirse a ello. Tiene que haber alguna división entre la vida laboral y no laboral.
Los límites en la recolección de datos frustrarán a los grandes amantes de los datos. El CEO de ZestFinance se enorgullece de afirmar que “todos los datos son datos de crédito”, es decir, el análisis predictivo puede tomar virtualmente cualquier trozo de información sobre una persona, analizar si corresponde a una característica de personas que se sabe que son solventes, y extrapolarla en consecuencia. Esos datos pueden incluir la orientación sexual o las opiniones políticas.Si, Pero: Pero incluso si supiéramos que los partidarios de George W (examine más sobre todos estos aspectos en la presente plataforma online de ciencias sociales y humanidades). Bush tienen más probabilidades de estar atrasados en sus proyectos de ley que los votantes de John Kerry, ¿es eso algo que realmente confiamos que nuestros bancos o calificadores de crédito sepan? ¿Es el conocimiento que deberían tener? El asesoramiento matrimonial puede ser tratado como una señal de inestabilidad inminente y conducir a tasas de interés más altas o a límites de crédito más bajos – una empresa estadounidense, CompuCredit, ya ha llegado a un acuerdo (sin admitir que ha hecho algo malo) sobre una demanda por hacer precisamente eso.Si, Pero: Pero una información tan íntima no debe ser monetizada. Demasiados grandes estudiosos de los datos aspiran a analizar toda la información capturable, pero cuando su fiebre sueña con un mundo perfectamente conocido choca con los valores básicos, deben rendirse.
Mientras que la mayoría de los activistas de la privacidad se concentran en el tema de la recolección, la amenaza que representan los análisis temerarios, malos o discriminatorios puede ser más potente. Considere un “puntaje de éxito probable en el empleo” que tenga en cuenta la raza, el código postal o la falta de empleo actual del solicitante. Cada uno de estos datos puede ser inocente, o incluso apropiado, en el contexto adecuado. (Por ejemplo, la empresa Entelo intenta emparejar a los solicitantes de minorías con las empresas que quieren más diversidad.) Pero también deberían ser objeto de escrutinio.
Considere primero el racismo. Existe una larga y preocupante historia de discriminación contra las minorías. Las leyes existentes contra la discriminación en el empleo ya prohíben los prejuicios y pueden dar lugar a fuertes sanciones. Entonces, muchos defensores de la toma de decisiones algorítmicas dicen, ¿por qué preocuparse por nuestra nueva tecnología? La discriminación en cualquier forma -personal, tecnológica, lo que sea- ya está prohibida. Esto es, en el mejor de los casos, ingenuo. Los procesos algorítmicos de toma de decisiones recogen datos personales y sociales de una sociedad con problemas de discriminación. (Tal vez sea de interés más investigación sobre el concepto). La sociedad está repleta de datos que a menudo son simples indicadores de discriminación, por ejemplo, códigos postales o códigos postales.
Considere una variable que parece, en su cara, menos cargada: meses desde el último trabajo. Estos datos podrían ayudar a los empleadores que favorecen a los trabajadores a pasar rápidamente de un empleo a otro, o discriminar a aquellos que necesitan tiempo libre para recuperarse de una enfermedad. Preocupados por el impacto potencialmente injusto de tales consideraciones, algunas jurisdicciones han prohibido a los empleadores publicar anuncios de “búsqueda de ayuda” en los que se diga a los desempleados que no presenten su solicitud. Se trata de un paso político encomiable, pero, cualesquiera que sean sus méritos, ¿qué dientes tendrá si los empleadores nunca ven los CV excluidos por un algoritmo que pone en entredicho a aquellos cuya última entrada tiene más de unos pocos meses de antigüedad? Los datos de gran tamaño pueden convertirse fácilmente en una herramienta sofisticada para profundizar las formas de desventaja injusta que ya prevalecen.
Los agentes del orden del futuro podrían tener dificultades para aprender todas las variables que intervienen en las decisiones de crédito y empleo. Protegidos por el secreto comercial, muchos algoritmos siguen siendo impenetrables para los observadores externos. Cuando tratan de descubrirlos, los litigantes pueden enfrentarse a un Catch-22. Legítimamente preocupados por detener las “expediciones de pesca”, es probable que los tribunales concedan las solicitudes de descubrimiento solo si el demandante ha acumulado alguna cantidad de pruebas de discriminación. (Tal vez sea de interés más investigación sobre el concepto).Si, Pero: Pero si la entidad clave que toma una decisión es un algoritmo de’caja negra’ sin rostro, ¿cuál es la base para una sospecha inicial de discriminación?
De hecho, a partir de la Ley de Igualdad de Oportunidades de Crédito (Equal Credit Opportunity Act, 1974), los reguladores estadounidenses han alentado a las empresas a utilizar algoritmos para tomar decisiones. Los reguladores quieren evitar los sesgos irracionales o subconscientes de los tomadores de decisiones humanos, pero por supuesto los tomadores de decisiones humanos idearon los algoritmos, inflexionaron los datos e influyeron en su análisis. Ninguna’capa de código’ puede crear un campo de juego nivelado’plug and play’. La política, el juicio humano y la ley siempre serán necesarios.
Detalles
Los algoritmos nunca ofrecerán un escape de la sociedad.
Los gobiernos deben asegurarse de que los algoritmos que están promoviendo sirven en lugar de frustrar sus propósitos declarados. La crisis de las hipotecas de alto riesgo es un buen ejemplo de fracaso legal en el pasado y una solución innovadora para el mismo.
Pormenores
Las agencias de calificación -Moody’s y S&P, por ejemplo- estaban utilizando evaluaciones algorítmicas de la solvencia para aprobar los dudosos valores respaldados por hipotecas (MBS) como AAA, la calificación más alta. Esos imprimaturs ersatz a su vez atrajeron una avalancha de dinero para los préstamos subprime. Los críticos alegan que las agencias cambiaron sus métodos de calificación para atraer más negocios de los que venden MBS. Las calificaciones de triple A después del cambio de método pueden haber significado algo muy diferente de las anteriores, pero muchos inversores carecían de conocimientos sobre el cambio.
Para abordar esta cuestión, la Ley Dodd-Frank exige a las agencias de calificación que revelen los cambios importantes en sus métodos. Esta apertura ayuda a los participantes en los mercados a comprender las “agallas” de una calificación AAA, en lugar de presumir sin pensar que siempre lo hizo y que siempre asegurará un cierto punto de referencia de fiabilidad. Como cualquier inversor le dirá, la información es poder, y las calificaciones crediticias no son necesariamente información – solo una abreviatura.
Mientras que las calificaciones crediticias evalúan el valor de los valores, el scoring algorítmico de los consumidores evalúa a las personas, en cualquier número de dimensiones, incluyendo (pero sin limitarse a) la solvencia. Como reveló el informe del Foro Mundial de la Privacidad de 2014,’The Scoring of America’, hay miles de estas puntuaciones. Cuando un responsable importante de la toma de decisiones decide utilizar uno, se lo debe a las personas clasificadas y calificadas para explicar exactamente qué datos se utilizaron, cómo se analizaron y cómo se pueden identificar, corregir o cuestionar los posibles errores, sesgos o violaciones de la ley.Entre las Líneas En áreas que van desde la banca y el empleo hasta la vivienda y los seguros, los algoritmos pueden ser de gran utilidad para decidir a quién se contrata o despide, a quién se le sube el sueldo y a quién se degrada, a quién se le aplica una tasa de interés del 5 ó 15 por ciento. Las personas necesitan ser capaces de entender cómo funcionan o no funcionan.
La creciente industria del “análisis predictivo” se opondrá a esta propuesta, alegando que sus formas de clasificar y calificar a las personas merecen una protección absoluta del secreto comercial. Esta propiedad intelectual está bien protegida por la legislación vigente.
Puntualización
Sin embargo, el gobierno puede condicionar el financiamiento al uso o divulgación de los datos y métodos utilizados por sus contratistas. El poder del gobierno para utilizar su influencia como comprador es enorme, y podría negar contratos a las empresas que, por ejemplo, utilizan algoritmos secretos para tomar decisiones de empleo, o basan sus decisiones de crédito en datos objetables.
En los EE.UU. es hora de que el presupuesto federal recompense la creación de una toma de decisiones algorítmica responsable, en lugar de simplemente pagar por las herramientas que se le ocurran a sus contratistas. No toleraríamos parques tachonados con equipos de escucha que grabaran la conversación de cada cochecito, o que rechazaran la entrada a los baños a aquellos designados como’riesgo de vandalismo’ por un software secreto. Deberíamos tener expectativas similares de privacidad y trato justo en los miles de sistemas algorítmicos que el gobierno financia directa o indirectamente cada año.
Algunos reclutadores de ensayos clínicos han descubierto que las personas que poseen minivans, no tienen hijos pequeños y se suscriben a muchos canales (véase qué es, su definición, o concepto, y su significado como “canals” en el contexto anglosajón, en inglés) de televisión por cable tienen más probabilidades de ser obesas. Al menos en sus bases de datos, y tal vez en otras, los conductores de minivan, los que no tienen hijos y los amantes del cable se transforman repentinamente en un nuevo grupo -los “probablemente obesos”- y esa inferencia es una nueva pieza de datos creada sobre ellos.
Una inferencia como esta puede no valer mucho por sí sola.Si, Pero: Pero una vez que las personas son identificadas de esta manera, podría combinarse y recombinarse fácilmente con otras listas – digamos, de compradores de mayor tamaño, o de compradores frecuentes de comida rápida – que solidifican la inferencia. Un nuevo algoritmo de Facebook clasifica instantáneamente a los individuos en fotografías basadas en el tipo de cuerpo o la postura. El santo grial de la reputación algorítmica es la base de datos más completa posible de cada individuo, unificando el crédito, las telecomunicaciones, la ubicación, la venta al por menor y docenas de otros flujos de datos en un doppelganger digital.
Por muy seguros que estén de nuestra estatura, o peso, o estado de salud, es conveniente que los recolectores de datos mantengan las clasificaciones turbias. Una persona puede, en principio, iniciar una demanda por difamación contra un corredor de datos que afirme falsamente que el individuo en cuestión es diabético.Si, Pero: Pero si en cambio el corredor elige una clasificación más difusa, como “miembro de un hogar preocupado por la diabetes”, los tribunales consideran que se trata más de una opinión que de un hecho. Las opiniones son mucho más difíciles de probar como difamatorias – ¿cómo podría usted demostrar más allá de toda duda que su hogar no está de alguna manera `preocupado por los diabéticos’? Pero la clasificación más suave puede conducir exactamente a los mismos resultados desventajosos que la clasificación más dura y objetiva.
Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):
Estrategias de arbitraje similares pueden atraer a otras empresas. Por ejemplo, si un empleador le dice que no lo está contratando porque usted es diabético, eso es claramente ilegal. ¿Pero qué pasa si hay alguna terminología eufemística que califica su “robustez” como empleado? Incluso si el puntaje se basa en parte en información relacionada con la salud, eso puede ser casi imposible de probar porque los candidatos casi nunca saben lo que entra en la decisión de un empleador de no entrevistarlos o de no darles un trabajo. Un empleador puede incluso decir que no sabe lo que está pasando en el puntaje. De hecho, en algún momento del proceso de contratación o evaluación, es probable que los solicitantes se encuentren con gerentes o personal de recursos humanos que, de hecho, no saben en qué consistía la calificación de “robustez”. Cuando tanta ley antidiscriminatoria requiere que los demandantes demuestren su intención de usar clasificaciones prohibidas, la ignorancia puede ser una bendición.
Será mucho más fácil regular estas problemáticas posibilidades antes de que se conviertan en prácticas comerciales endémicas y generalizadas. La Comisión de Igualdad de Oportunidades en el Empleo (Equal Employment Opportunity Commission, EEOC) está considerando las disputas que surgen de las pruebas de personalidad del empleador que presentan preguntas que parecen estar buscando patrones de pensamiento relacionados con las enfermedades mentales, pero que no están relacionadas con las calificaciones o el desempeño ocupacional de buena fe. Esas investigaciones deben continuar, y extenderse a una creciente clase de evaluaciones algorítmicas del desempeño pasado o probable.Entre las Líneas En algunos casos, la mera divulgación y análisis de las evaluaciones algorítmicas no es suficiente para hacerlas justas. Más bien, puede ser necesario prohibir su uso en contextos importantes, que van desde el empleo hasta la vivienda, pasando por el crédito y la educación.
Cuando los problemas con la toma de decisiones algorítmicas salen a la luz, las grandes empresas tienden a jugar un juego de habilidad musical.
Detalles
Los abogados dicen, y se les dice, que no entienden el código. Los codificadores dicen, y se les dice, que no entienden la ley. Los economistas, sociólogos y éticos escuchan variaciones en ambas posturas de bloqueo.
En realidad, se necesitó una combinación de habilidades científicas computacionales, legales y sociales para desenterrar cada uno de los ejemplos discutidos anteriormente: recolección problemática, análisis erróneos o sesgados, y uso discriminatorio. Es probable que la colaboración entre expertos en diferentes campos dé lugar a un trabajo aún más importante. Por ejemplo, los académicos de derecho Ryan Calo, de la Universidad de Washington, y James Grimmelmann, de la Universidad de Maryland, junto con otros especialistas en ética, han ofrecido marcos para evaluar la manipulación algorítmica del contenido y las personas (examine más sobre todos estos aspectos en la presente plataforma online de ciencias sociales y humanidades). Basados en métodos empíricos bien establecidos de las ciencias sociales, sus modelos pueden y deben informar la regulación de las empresas y los gobiernos mediante algoritmos.
Los empíricos pueden sentirse frustrados por la naturaleza de “caja negra” de la toma de decisiones algorítmicas; pueden trabajar con juristas y activistas para abrir ciertos aspectos de la toma de decisiones (a través de la libertad de información (véase; y también libertad de comunicación, libertad de expresión, libertad de cátedra y la Convención sobre el Derecho Internacional de Rectificación, adoptada en Nueva York, 31 de marzo de 1953) y las prácticas de datos justas). Los periodistas también se han asociado (véase qué es, su concepto jurídico; y también su definición como “associate” en derecho anglo-sajón, en inglés) con programadores de computadoras y científicos sociales para exponer las nuevas tecnologías de recolección, análisis y uso de datos que violan la privacidad, y para presionar a los reguladores para que tomen medidas enérgicas contra los peores delincuentes.
📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras: Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.Los investigadores van más allá del análisis de los datos existentes y se unen a coaliciones de guardianes, archivistas, activistas de datos abiertos y abogados de interés público para asegurar un conjunto más equilibrado de “materias primas” para el análisis, la síntesis y la crítica. Los científicos sociales y otros deben comprometerse con el proyecto vital y a largo plazo (véase más detalles en esta plataforma general) de asegurar que los algoritmos estén produciendo documentación justa y relevante; de lo contrario, los estados, los bancos, las compañías de seguros y otros grandes actores poderosos crearán y poseerán más y más datos inaccesibles sobre la sociedad y las personas. La rendición de cuentas algorítmica es un gran proyecto de carpa, que requiere las habilidades de teóricos y profesionales, abogados, científicos sociales, periodistas y otros. Es una causa urgente, global, con expertos comprometidos y movilizados que buscan apoyo.
El mundo está lleno de decisiones algorítmicas. Una información errónea o discriminatoria puede arruinar las perspectivas de empleo o de crédito de alguien. Es vital que los ciudadanos estén facultados para ver y regular los expedientes digitales de los gigantes empresariales y de los organismos gubernamentales. Incluso si uno cree que ninguna información debería ser “borrada” – que cada error y error que alguien cometa debería estar en un registro permanente para siempre – eso deja aún importantes decisiones por tomar sobre el procesamiento de los datos.
Detalles
Los algoritmos pueden hacerse más responsables, respetando los derechos de justicia y dignidad por los que han luchado las generaciones. El desafío no es técnico, sino político, y el primer paso es una ley que permita a la gente ver y cuestionar lo que los algoritmos dicen de nosotros.
Revisor: Lawrence
Véase También
Big data, minería de datos, algoritmos, discriminación, discriminación en el empleo, derechos civiles, justicia procesal, justicia sustantiva, desigualdad
▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.