▷ Sabiduría mensual que puede leer en pocos minutos. Añada nuestra revista gratuita a su bandeja de entrada.

Ética de la Inteligencia Artificial

▷ Regístrate Gratis a Nuestra Revista

Algunos beneficios de registrarse en nuestra revista:

  • El registro te permite consultar todos los contenidos y archivos de Lawi desde nuestra página web y aplicaciones móviles, incluyendo la app de Substack.
  • Registro (suscripción) gratis, en 1 solo paso.
  • Sin publicidad ni ad tracking. Y puedes cancelar cuando quieras.
  • Sin necesidad de recordar contraseñas: con un link ya podrás acceder a todos los contenidos.
  • Valoramos tu tiempo: Recibirás sólo 1 número de la revista al mes, con un resumen de lo último, para que no te pierdas nada importante
  • El contenido de este sitio es obra de 23 autores. Tu registro es una forma de sentirse valorados.

Ética de la Inteligencia Artificial

Este elemento es una expansión del contenido de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre Ética de la Inteligencia Artificial.

Ética de la Inteligencia Artificial

¿Qué es la ética en la IA?

La ética en la IA es un sistema de principios morales y técnicas destinados a informar sobre el desarrollo y el uso responsable de la tecnología de inteligencia artificial. A medida que la IA se ha ido integrando en productos y servicios, las organizaciones están empezando a desarrollar códigos éticos de la IA.

Ética de la IA (código ético de la IA)

Un código ético de la IA, también llamado plataforma de valores de la IA, es una declaración política que define formalmente el papel de la inteligencia artificial en su aplicación al desarrollo continuo de la raza humana. El propósito de un código ético de la IA es proporcionar a las partes interesadas una guía cuando se enfrentan a una decisión ética sobre el uso de la inteligencia artificial.

Isaac Asimov, escritor de ciencia ficción, previó los peligros potenciales de los agentes autónomos de IA mucho antes de su desarrollo y creó Las Tres Leyes de la Robótica como medio para limitar esos riesgos. En el código ético de Asimov, la primera ley prohíbe a los robots dañar activamente a los humanos o permitir que éstos sufran daños al negarse a actuar. La segunda ley ordena a los robots obedecer a los humanos a menos que las órdenes no estén de acuerdo con la primera ley. La tercera ley ordena a los robots que se protejan a sí mismos en la medida en que hacerlo esté en consonancia con las dos primeras leyes.

El rápido avance de la IA en los últimos cinco a diez años ha impulsado a grupos de expertos a desarrollar salvaguardas para protegerse del riesgo de la IA para los humanos. Uno de estos grupos es el instituto sin ánimo de lucro fundado por el cosmólogo del MIT Max Tegmark, el cofundador de Skype Jaan Tallinn y la investigadora científica de DeepMind Victoria Krakovna. El instituto trabajó con investigadores y desarrolladores de IA, así como con académicos de muchas disciplinas, para crear las 23 directrices que ahora se conocen como los Principios de la IA de Asilomar.

A la hora de desarrollar un código ético de la IA es imprescindible incluir directrices claras sobre cómo se desplegará la tecnología y cómo se supervisará continuamente. Estas políticas deben imponer medidas que protejan contra los sesgos involuntarios en los algoritmos de aprendizaje automático, detecten continuamente la desviación de los datos y los algoritmos, y rastreen tanto la procedencia de los datos como la identidad de quienes entrenan los algoritmos.

¿Por qué es importante la ética de la IA?

La IA es una tecnología diseñada por humanos para replicar, aumentar o sustituir la inteligencia humana. Estas herramientas suelen basarse en grandes volúmenes de diversos tipos de datos para desarrollar ideas. Los proyectos mal diseñados y basados en datos defectuosos, inadecuados o sesgados pueden tener consecuencias imprevistas y potencialmente perjudiciales. Además, el rápido avance de los sistemas algorítmicos significa que en algunos casos no tenemos claro cómo ha llegado la IA a sus conclusiones, por lo que esencialmente estamos confiando en sistemas que no podemos explicar para tomar decisiones que podrían afectar a la sociedad.

▷ En este Día: 18 Abril de 1857: El Juicio del Siglo
Nace el abogado defensor, orador, polemista y escritor estadounidense Clarence Darrow, entre cuyas destacadas comparecencias ante los tribunales figura el juicio Scopes, en el que defendió a un profesor de secundaria de Tennessee que había infringido una ley estatal al presentar la teoría darwiniana de la evolución.

Un marco ético de la IA es importante porque arroja luz sobre los riesgos y beneficios de las herramientas de la IA y establece directrices para su uso responsable. Idear un sistema de principios morales y técnicas para utilizar la IA de forma responsable requiere que la industria y las partes interesadas examinen los principales problemas sociales y, en última instancia, la cuestión de qué nos hace humanos.

¿Cuáles son los retos éticos de la IA?

Las empresas se enfrentan a varios retos éticos en su uso de la tecnología de la IA.

Explicabilidad. Cuando los sistemas de IA van mal, los equipos tienen que ser capaces de rastrear a través de una compleja cadena de sistemas algorítmicos y procesos de datos para averiguar por qué. Las organizaciones que utilizan IA deben ser capaces de explicar los datos de origen, los datos resultantes, lo que hacen sus algoritmos y por qué lo hacen. “La IA debe tener un alto grado de trazabilidad para garantizar que, si surgen daños, puedan rastrearse hasta la causa”, afirma Adam Wisniewski, director de tecnología y cofundador de AI Clearing.
Responsabilidad. La sociedad aún está dirimiendo la responsabilidad cuando las decisiones tomadas por los sistemas de IA tienen consecuencias catastróficas, como la pérdida de capital, de salud o de vidas. La responsabilidad por las consecuencias de las decisiones basadas en la IA debe resolverse en un proceso que incluya a abogados, reguladores y ciudadanos. Un reto es encontrar el equilibrio adecuado en los casos en los que un sistema de IA puede ser más seguro que la actividad humana que está duplicando pero sigue causando problemas, como sopesar los méritos de los sistemas de conducción autónoma que causan víctimas mortales pero muchas menos que las personas.
Equidad. En los conjuntos de datos que implican información personal identificable, es extremadamente importante garantizar que no haya sesgos en términos de raza, género o etnia.
Uso indebido. Los algoritmos de IA pueden utilizarse para fines distintos de aquellos para los que fueron creados. Según Wisniewski, estos escenarios deben analizarse en la fase de diseño para minimizar los riesgos e introducir medidas de seguridad que reduzcan los efectos adversos en estos casos.

▷ Lo último (2024)
Lo último publicado esta semana de abril de 2024:

¿Cuáles son los beneficios de la IA ética?

La rápida aceleración de la adopción de la IA en las empresas ha coincidido con -y en muchos casos ha ayudado a impulsar- dos grandes tendencias: el aumento de la orientación al cliente y el auge del activismo social.

Las empresas son recompensadas no sólo por ofrecer productos y servicios personalizados, sino también por defender los valores de los clientes y hacer el bien a la sociedad en la que operan.

La IA desempeña un papel enorme en la forma en que los consumidores interactúan con una marca y la perciben. Es necesario un uso responsable para garantizar un impacto positivo. Además de los consumidores, los empleados quieren sentirse bien con las empresas para las que trabajan. “La IA responsable puede contribuir en gran medida a retener el talento y a garantizar una ejecución sin problemas de las operaciones de una empresa”, afirmó Jha.

Perspectivas del código ético de la IA

A medida que la IA y el aprendizaje automático se convierten en elementos centrales de los sistemas informáticos, las empresas deben asegurarse de que su uso de la IA sea ético.

¿Qué es un código ético de la IA?

Un enfoque proactivo para garantizar una IA ética requiere abordar tres áreas clave, según Jason Shepherd, vicepresidente de ecosistema de Zededa, un proveedor de herramientas de IA de vanguardia.

Política. Esto incluye desarrollar el marco adecuado para impulsar la estandarización y establecer normativas. Esfuerzos como los Principios de IA de Asilomar son esenciales para iniciar la conversación, y hay varios esfuerzos en marcha en torno a la política en Europa, EE.UU. y otros lugares. Las políticas éticas de IA también tienen que abordar cómo tratar las cuestiones legales cuando algo sale mal. Las empresas pueden incorporar las políticas de IA a su propio código de conducta. Pero la eficacia dependerá de que los empleados sigan las normas, lo que puede no ser siempre realista cuando el dinero o el prestigio están en juego.
Educación. Los ejecutivos, los científicos de datos, los empleados de primera línea y los consumidores deben comprender las políticas, las consideraciones clave y las posibles repercusiones negativas de la IA poco ética y los datos falsos. Una gran preocupación es la compensación entre la facilidad de uso en torno al intercambio de datos y la automatización de la IA y las posibles repercusiones negativas de un exceso de intercambio o de automatizaciones adversas. “En última instancia, la voluntad de los consumidores de tomar el control de sus datos de forma proactiva y prestar atención a las amenazas potenciales que permite la IA es una ecuación compleja basada en una combinación de gratificación instantánea, valor, percepción y riesgo”, afirmó Shepherd.
La tecnología. Los ejecutivos también necesitan diseñar sistemas de IA para detectar automáticamente datos falsos y comportamientos poco éticos. Esto requiere no sólo examinar la propia IA de una empresa, sino investigar a los proveedores y socios para detectar el uso malintencionado de la IA. Los ejemplos incluyen el despliegue de vídeos y textos falsos profundos para socavar a un competidor, o el uso de la IA para lanzar ciberataques sofisticados. Esto se convertirá en un problema cada vez mayor a medida que las herramientas de IA se conviertan en productos básicos. Para combatir este posible efecto de bola de nieve, las organizaciones deben invertir en medidas defensivas basadas en una infraestructura de IA abierta, transparente y de confianza. Shepherd cree que esto dará lugar a la adopción de tejidos de confianza que proporcionen un enfoque a nivel de sistema para automatizar la garantía de la privacidad, asegurar la confianza en los datos y detectar el uso poco ético de la IA.
Ejemplos de códigos éticos de la IA
Un código ético de la IA puede detallar los principios y proporcionar la motivación que impulse un comportamiento adecuado. Por ejemplo, Jha de Mastercard dijo que actualmente está trabajando con los siguientes principios para ayudar a desarrollar el actual código ético de IA de la empresa:

Basado en la experiencia de varios autores, mis opiniones y recomendaciones se expresarán a continuación:

Un sistema de IA ético debe ser inclusivo, explicable, tener un propósito positivo y utilizar los datos de forma responsable.
Un sistema de IA inclusivo es imparcial y funciona igual de bien en todos los espectros de la sociedad. Esto requiere un conocimiento completo de cada fuente de datos utilizada para entrenar los modelos de IA con el fin de garantizar que no haya sesgos inherentes en el conjunto de datos. También requiere una auditoría cuidadosa del modelo entrenado para filtrar cualquier atributo problemático aprendido en el proceso. Y también es necesario supervisar de cerca los modelos para garantizar que no se produzcan corruptelas en el futuro.
Un sistema de IA explicable apoya la gobernanza exigida a las empresas para garantizar el uso ético de la IA. Es difícil confiar en las acciones de un sistema que no puede explicarse. Alcanzar la confianza puede implicar un compromiso en el que se haga una pequeña concesión en el rendimiento del modelo con el fin de seleccionar un algoritmo que pueda explicarse.
Un sistema de IA dotado de un propósito positivo pretende, por ejemplo, reducir el fraude, eliminar el despilfarro, recompensar a las personas, frenar el cambio climático, curar enfermedades, etc. Cualquier tecnología puede utilizarse para hacer daño, pero es imperativo que pensemos en formas de salvaguardar la IA para que no sea explotada con malos fines. Será un reto difícil, pero dado el amplio alcance y la escala de la IA, el riesgo de no abordar este reto y hacer un mal uso de esta tecnología es mucho mayor que nunca.
Un sistema de IA que utiliza los datos de forma responsable respeta los derechos de privacidad de los datos. Los datos son fundamentales para un sistema de IA, y a menudo más datos dan como resultado mejores modelos. Sin embargo, es fundamental que en la carrera por recopilar cada vez más datos no se sacrifique el derecho de las personas a la privacidad y la transparencia. La recopilación, la gestión y el uso responsables de los datos son esenciales para crear un sistema de IA en el que se pueda confiar. En un mundo ideal, los datos sólo deberían recopilarse cuando se necesitan, no continuamente, y la granularidad de los datos debería ser lo más reducida posible. Por ejemplo, si una aplicación sólo necesita datos de geolocalización a nivel de código postal para ofrecer una predicción meteorológica, no debería recopilar la ubicación exacta del consumidor. Y el sistema debería eliminar rutinariamente los datos que ya no sean necesarios.

El futuro de la IA ética

Algunos sostienen que un código ético de la IA puede quedar desfasado rápidamente y que se requiere un enfoque más proactivo para adaptarse a un campo en rápida evolución. El problema fundamental de un código ético de la IA es que es reactivo, no proactivo. Tendemos a definir cosas como sesgo e ir en busca del sesgo e intentar eliminarlo, como si eso fuera posible.

▷ Noticias internacionales de hoy (abril, 2024) por nuestros amigos de la vanguardia:

Un enfoque reactivo puede tener problemas para hacer frente al sesgo incrustado en los datos. Por ejemplo, si históricamente las mujeres no han recibido préstamos a la tasa adecuada, eso se entretejerá en los datos de múltiples maneras. Si se eliminan las variables relacionadas con el género, la IA se limitará a recoger otras variables que sirven como sustituto del género.

El futuro de la IA ética debe hablar de la definición de la equidad y de las normas sociales. Así, por ejemplo, en un banco de préstamos, la dirección y los equipos de IA tendrían que decidir si quieren aspirar a la igualdad de consideración (por ejemplo, préstamos procesados a un ritmo igual para todas las razas), resultados proporcionales (la tasa de éxito para cada raza es relativamente igual) o igualdad de impacto (garantizar que una cantidad proporcional de préstamos vaya a cada raza). Hay que centrarse en un principio rector y no en algo a evitar.

Por ahora, tenemos que recurrir a los humanos para desarrollar normas y tecnologías que promuevan una IA responsable. Shepherd dijo que esto incluye programar productos y ofertas que protejan los intereses humanos y no tengan prejuicios contra determinados grupos, como las minorías, las personas con necesidades especiales y los pobres. Esto último es especialmente preocupante, ya que la IA tiene el potencial de provocar una guerra social y económica masiva, aumentando la división entre los que pueden permitirse la tecnología (incluido el aumento humano) y los que no.

Más adelante, también tenemos que planificar el uso poco ético de la IA por parte de malos actores. Los sistemas de IA actuales abarcan desde sofisticados motores de reglas hasta modelos de aprendizaje automático que automatizan tareas sencillas. Puede que pasen décadas antes de que empiecen a surgir IA más sensibles que puedan automatizar su propio comportamiento poco ético a una escala que los humanos no serían capaces de seguir.

Revisor de hechos: Mark

Para saber más

▷ Esperamos que haya sido de utilidad. Si conoce a alguien que pueda estar interesado en este tema, por favor comparta con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.

2 comentarios en «Ética de la Inteligencia Artificial»

  1. La mayoría de la gente estaría de acuerdo en que es más fácil y eficaz enseñar a los niños cuáles deben ser sus principios rectores que enumerar todas las posibles decisiones con las que se pueden encontrar y decirles qué hacer y qué no hacer. “Ese es el enfoque que estamos adoptando con la ética de la IA”, dijo un experto. “Estamos diciéndole a un niño todo lo que puede y no puede hacer en lugar de proporcionarle unos principios rectores y luego permitirle que lo descubra por sí mismo”.

    Responder

Foro de la Comunidad: ¿Estás satisfecho con tu experiencia? Por favor, sugiere ideas para ampliar o mejorar el contenido, o cómo ha sido tu experiencia:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Descubre más desde Plataforma de Derecho y Ciencias Sociales

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo