▷ Sabiduría mensual que puede leer en pocos minutos. Añada nuestra revista gratuita a su bandeja de entrada.

Algoritmos en la Justicia

▷ Regístrate Gratis a Nuestra Revista

Algunos beneficios de registrarse en nuestra revista:

  • El registro te permite consultar todos los contenidos y archivos de Lawi desde nuestra página web y aplicaciones móviles, incluyendo la app de Substack.
  • Registro (suscripción) gratis, en 1 solo paso.
  • Sin publicidad ni ad tracking. Y puedes cancelar cuando quieras.
  • Sin necesidad de recordar contraseñas: con un link ya podrás acceder a todos los contenidos.
  • Valoramos tu tiempo: Recibirás sólo 1 número de la revista al mes, con un resumen de lo último, para que no te pierdas nada importante
  • El contenido de este sitio es obra de 23 autores. Tu registro es una forma de sentirse valorados.

Algoritmos en la Justicia

Este elemento es una profundización de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema.

🙂 ▷ Ciencias Sociales y Humanas » Inicio de la Plataforma Digital » A Varios » Algoritmos en la Justicia
Nota: puede ser de utilidad la información sobre sobrevivir a los Algoritmos para Profesionales.

Las instituciones gubernamentales de todo el mundo están comenzando a explorar la automatización de decisiones en una variedad de contextos, desde la determinación de la elegibilidad para los servicios; para evaluar dónde desplegar los inspectores de salud y el personal de aplicación de la norma (generalmente por los organismos y autoridades públicas, incluido las fuerzas y cuerpos de seguridad y orden público); a la definición de límites en torno a los distritos electorales. Los casos de uso de tecnologías que incorporan la inteligencia artificial o el aprendizaje automático se expandirán a medida que los gobiernos y las empresas acumulen mayores cantidades de datos y las herramientas analíticas se vuelvan más poderosas.

▷ En este Día de 25 Abril (1809): Firma del Tratado de Amritsar
Charles T. Metcalfe, representante de la Compañía Británica de las Indias Orientales, y Ranjit Singh, jefe del reino sij del Punjab, firmaron el Tratado de Amritsar, que zanjó las relaciones indo-sijas durante una generación. Véase un análisis sobre las características del Sijismo o Sikhismo y sus Creencias, una religión profesada por 14 millones de indios, que viven principalmente en el Punjab. Los sijs creen en un único Dios (monoteísmo) que es el creador inmortal del universo (véase más) y que nunca se ha encarnado en ninguna forma, y en la igualdad de todos los seres humanos; el sijismo se opone firmemente a las divisiones de casta. Exatamente 17 años antes, la primera guillotina se erigió en la plaza de Grève de París para ejecutar a un salteador de caminos.

El trabajo de algunos autores sobre algoritmos en la justicia (a) explora formas en que las instituciones gubernamentales incorporan inteligencia artificial, algoritmos y tecnologías de aprendizaje automático en su toma de decisiones; y (b) en colaboración con la vía de Gobernanza Global, examina las formas en que el desarrollo y el despliegue de estas tecnologías por parte de actores públicos y privados afectan los derechos de los individuos y los esfuerzos para lograr la justicia social.

Autor: Black

Marco para la equidad algorítmica

En este texto, reconocemos los profundos efectos que la toma de decisiones algorítmica puede tener en la vida de las personas y proponemos un marco de reducción de daños para la equidad algorítmica. Argumentamos que cualquier evaluación de la equidad algorítmica debe considerar un análisis contrafáctico de los efectos que el diseño, la implementación y el uso algorítmicos tienen sobre el bienestar de las personas.

Ética y gobernanza de la inteligencia artificial

El rápido crecimiento de las capacidades y la creciente presencia de sistemas basados en inteligencia artificial en nuestras vidas plantean preguntas apremiantes sobre el impacto, el gobierno, la ética y la responsabilidad de estas tecnologías en todo el mundo. ¿Cómo podemos reducir la brecha de conocimiento entre los “expertos” de la IA y la variedad de personas que utilizan, interactúan y se ven afectadas por estas tecnologías? ¿Cómo podemos aprovechar el potencial de los sistemas de AI mientras aseguramos que no exacerban las desigualdades y sesgos existentes, o incluso crean nuevos?.

Autor: Black

Bibliografía

1. C. Muñoz, M. Smith, D.J. Patil, Big Data: Un informe sobre la oportunidad de los sistemas algorítmicos y los derechos civiles, CreateSpace, 2016.

Basado en la experiencia de varios autores, mis opiniones y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características y el futuro de esta cuestión):

2. P. Dixon, R. Gellman, The Scoring of America: Cómo las puntuaciones de los consumidores secretos amenazan su privacidad y su futuro, 2014.

3. A. Campolo et al., Informe AI Now 2017, 2017.

4. C. Sandvig et al., “Cuando el algoritmo en sí mismo es un racista: diagnóstico de daño ético en los componentes básicos del software”, International Journal of Communication, vol. 10, pp. 4972-4990, 2016.

5. S (examine más sobre estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Barocas, A.D. Selbst, “Impacto disparejo de Big Data”, California Law Review, vol. 104, pp. 671-732, 2016.

6. D.J. Solove, D. Citron, “Riesgo y ansiedad: una teoría de daños por violación de datos”, Texas Law Review, vol. 96, pp. 737-786, 2018.

7. “Principios éticos y directrices para la protección de los sujetos humanos de investigación (Informe Belmont)”, Oficina del Secretario de Educación para la Salud y Bienestar Social, abril de 1979.

8. D. Dittrich, E. Kenneally, The Menlo Report: Ethical Principles Guiding Research and Communication Technology Research, agosto de 2012.

9. Reglamento General de Protección de Datos (GDPR) (UE) 2016/679 art. 13 (f) 14 (g) 15 (1) (h).

10. J. Angwin et al., “Machine Bias”, ProPublica, mayo de 2016.

11. S. Wakefield, M.J. Shanahan, J.T. Mortimer, M. Kirkpatrick Johnson, “Justicia penal y el curso de la vida”, Manual del curso de la vida, vol. II, 2016.

12. D.E. Roberts, “El costo (o coste, como se emplea mayoritariamente en España) social y moral del encarcelamiento masivo en comunidades afroamericanas”, Stanford Law Review, vol. 56, pp. 1271-1305, 2014.

13. A. Plagnol, “Bienestar subjetivo sobre el curso de la vida: conceptualizaciones y evaluaciones”, Social Research, vol. 77, no. 2, pp. 749-768, 2010.
14. R. Layard y otros, “¿Qué predice una vida exitosa? Un modelo de bienestar para el curso de vida”, The Economic Journal, vol. 124, pp. F720-738, noviembre de 2014.

15. A. Sen, La desigualdad reexaminada, Harvard University Press, 1992.

16. A (examine más sobre estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Benforado, desleal: La nueva ciencia de la justicia penal, Penguin Random House, 2015.

17. D.B. Rubin, “Inferencia causal usando resultados potenciales: Decisiones de modelado de diseño”, Revista de la Asociación Americana de Estadística, vol. 100, no. 469, pp. 322-331, 2005.

18. G.W. Imbens, D.B. Rubin, Inferencia causal para estadísticas) Ciencias sociales y biomédicas: Introducción, Cambridge University Press, 2015.

19. E (examine más sobre estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Bareinboim, J. Pearl, “Inferencia causal y el problema de la fusión de datos”, Actas de la Academia Nacional de Ciencias de los Estados Unidos de América, vol. 113, no. 27, pp. 7345-7352, 2016.

20. C. Dwork et al., “Equidad a través de la concientización”, Actas de la 3ª Conferencia de Innovaciones en Informática Teórica, 2012.

21. C. Dwork, D.K. Mulligan, “No es privacidad y no es justo”, Stanford Law Review Online, vol. 66, pp. 35-40, 2013.

▷ Esperamos que haya sido de utilidad. Si conoce a alguien que pueda estar interesado en este tema, por favor comparta con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.

1 comentario en «Algoritmos en la Justicia»

  1. Nuestro objetivo es ayudar a las empresas que crean tales herramientas, a los actores estatales que las obtienen y las implementan, ya los ciudadanos a quienes impactan para que comprendan cómo funcionan esas herramientas. Buscamos asegurarnos de que las aplicaciones algorítmicas se desarrollen y utilicen con miras a mejorar la imparcialidad y la eficacia sin sacrificar los valores de responsabilidad y transparencia.

    Responder

Foro de la Comunidad: ¿Estás satisfecho con tu experiencia? Por favor, sugiere ideas para ampliar o mejorar el contenido, o cómo ha sido tu experiencia:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Descubre más desde Plataforma de Derecho y Ciencias Sociales

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo