Algunos beneficios de registrarse en nuestra revista:
- El registro te permite consultar todos los contenidos y archivos de Lawi desde nuestra página web y aplicaciones móviles, incluyendo la app de Substack.
- Registro (suscripción) gratis, en 1 solo paso.
- Sin publicidad ni ad tracking. Y puedes cancelar cuando quieras.
- Sin necesidad de recordar contraseñas: con un link ya podrás acceder a todos los contenidos.
- Valoramos tu tiempo: Recibirás sólo 1 número de la revista al mes, con un resumen de lo último, para que no te pierdas nada importante
- El contenido de este sitio es obra de 23 autores. Tu registro es una forma de sentirse valorados.
Algoritmos en la Justicia
Este elemento es una profundización de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema.
Nota: puede ser de utilidad la información sobre sobrevivir a los Algoritmos para Profesionales.Las instituciones gubernamentales de todo el mundo están comenzando a explorar la automatización de decisiones en una variedad de contextos, desde la determinación de la elegibilidad para los servicios; para evaluar dónde desplegar los inspectores de salud y el personal de aplicación de la norma (generalmente por los organismos y autoridades públicas, incluido las fuerzas y cuerpos de seguridad y orden público); a la definición de límites en torno a los distritos electorales. Los casos de uso de tecnologías que incorporan la inteligencia artificial o el aprendizaje automático se expandirán a medida que los gobiernos y las empresas acumulen mayores cantidades de datos y las herramientas analíticas se vuelvan más poderosas.
El trabajo de algunos autores sobre algoritmos en la justicia (a) explora formas en que las instituciones gubernamentales incorporan inteligencia artificial, algoritmos y tecnologías de aprendizaje automático en su toma de decisiones; y (b) en colaboración con la vía de Gobernanza Global, examina las formas en que el desarrollo y el despliegue de estas tecnologías por parte de actores públicos y privados afectan los derechos de los individuos y los esfuerzos para lograr la justicia social.
Autor: Black
Marco para la equidad algorítmica
En este texto, reconocemos los profundos efectos que la toma de decisiones algorítmica puede tener en la vida de las personas y proponemos un marco de reducción de daños para la equidad algorítmica. Argumentamos que cualquier evaluación de la equidad algorítmica debe considerar un análisis contrafáctico de los efectos que el diseño, la implementación y el uso algorítmicos tienen sobre el bienestar de las personas.
Ética y gobernanza de la inteligencia artificial
El rápido crecimiento de las capacidades y la creciente presencia de sistemas basados en inteligencia artificial en nuestras vidas plantean preguntas apremiantes sobre el impacto, el gobierno, la ética y la responsabilidad de estas tecnologías en todo el mundo. ¿Cómo podemos reducir la brecha de conocimiento entre los “expertos” de la IA y la variedad de personas que utilizan, interactúan y se ven afectadas por estas tecnologías? ¿Cómo podemos aprovechar el potencial de los sistemas de AI mientras aseguramos que no exacerban las desigualdades y sesgos existentes, o incluso crean nuevos?.
- El húngaro Orbán augura el fin de “un orden mundial infame” si gana Trump
- Portugal celebra 50 años de la revolución de los claveles
- Judíos y palestinos piden la paz en Barcelona
- La ayuda de Occidente a Ucrania, en cifras
- Un tribunal de apelaciones de Nueva York anula la condena por violación a Harvey Weinstein
Autor: Black
Bibliografía
1. C. Muñoz, M. Smith, D.J. Patil, Big Data: Un informe sobre la oportunidad de los sistemas algorítmicos y los derechos civiles, CreateSpace, 2016.
Basado en la experiencia de varios autores, mis opiniones y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características y el futuro de esta cuestión):
2. P. Dixon, R. Gellman, The Scoring of America: Cómo las puntuaciones de los consumidores secretos amenazan su privacidad y su futuro, 2014.
3. A. Campolo et al., Informe AI Now 2017, 2017.
4. C. Sandvig et al., “Cuando el algoritmo en sí mismo es un racista: diagnóstico de daño ético en los componentes básicos del software”, International Journal of Communication, vol. 10, pp. 4972-4990, 2016.
5. S (examine más sobre estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Barocas, A.D. Selbst, “Impacto disparejo de Big Data”, California Law Review, vol. 104, pp. 671-732, 2016.
6. D.J. Solove, D. Citron, “Riesgo y ansiedad: una teoría de daños por violación de datos”, Texas Law Review, vol. 96, pp. 737-786, 2018.
7. “Principios éticos y directrices para la protección de los sujetos humanos de investigación (Informe Belmont)”, Oficina del Secretario de Educación para la Salud y Bienestar Social, abril de 1979.
8. D. Dittrich, E. Kenneally, The Menlo Report: Ethical Principles Guiding Research and Communication Technology Research, agosto de 2012.
9. Reglamento General de Protección de Datos (GDPR) (UE) 2016/679 art. 13 (f) 14 (g) 15 (1) (h).
10. J. Angwin et al., “Machine Bias”, ProPublica, mayo de 2016.
11. S. Wakefield, M.J. Shanahan, J.T. Mortimer, M. Kirkpatrick Johnson, “Justicia penal y el curso de la vida”, Manual del curso de la vida, vol. II, 2016.
12. D.E. Roberts, “El costo (o coste, como se emplea mayoritariamente en España) social y moral del encarcelamiento masivo en comunidades afroamericanas”, Stanford Law Review, vol. 56, pp. 1271-1305, 2014.
13. A. Plagnol, “Bienestar subjetivo sobre el curso de la vida: conceptualizaciones y evaluaciones”, Social Research, vol. 77, no. 2, pp. 749-768, 2010.
14. R. Layard y otros, “¿Qué predice una vida exitosa? Un modelo de bienestar para el curso de vida”, The Economic Journal, vol. 124, pp. F720-738, noviembre de 2014.
15. A. Sen, La desigualdad reexaminada, Harvard University Press, 1992.
16. A (examine más sobre estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Benforado, desleal: La nueva ciencia de la justicia penal, Penguin Random House, 2015.
17. D.B. Rubin, “Inferencia causal usando resultados potenciales: Decisiones de modelado de diseño”, Revista de la Asociación Americana de Estadística, vol. 100, no. 469, pp. 322-331, 2005.
18. G.W. Imbens, D.B. Rubin, Inferencia causal para estadísticas) Ciencias sociales y biomédicas: Introducción, Cambridge University Press, 2015.
19. E (examine más sobre estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Bareinboim, J. Pearl, “Inferencia causal y el problema de la fusión de datos”, Actas de la Academia Nacional de Ciencias de los Estados Unidos de América, vol. 113, no. 27, pp. 7345-7352, 2016.
20. C. Dwork et al., “Equidad a través de la concientización”, Actas de la 3ª Conferencia de Innovaciones en Informática Teórica, 2012.
21. C. Dwork, D.K. Mulligan, “No es privacidad y no es justo”, Stanford Law Review Online, vol. 66, pp. 35-40, 2013.
▷ Esperamos que haya sido de utilidad. Si conoce a alguien que pueda estar interesado en este tema, por favor comparta con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.
Nuestro objetivo es ayudar a las empresas que crean tales herramientas, a los actores estatales que las obtienen y las implementan, ya los ciudadanos a quienes impactan para que comprendan cómo funcionan esas herramientas. Buscamos asegurarnos de que las aplicaciones algorítmicas se desarrollen y utilicen con miras a mejorar la imparcialidad y la eficacia sin sacrificar los valores de responsabilidad y transparencia.