▷ Sabiduría mensual que puede leer en pocos minutos. Añada nuestra revista gratuita a su bandeja de entrada.

Futuro de la Inteligencia Artificial

▷ Regístrate Gratis a Nuestra Revista

Algunos beneficios de registrarse en nuestra revista:

  • El registro te permite consultar todos los contenidos y archivos de Lawi desde nuestra página web y aplicaciones móviles, incluyendo la app de Substack.
  • Registro (suscripción) gratis, en 1 solo paso.
  • Sin publicidad ni ad tracking. Y puedes cancelar cuando quieras.
  • Sin necesidad de recordar contraseñas: con un link ya podrás acceder a todos los contenidos.
  • Valoramos tu tiempo: Recibirás sólo 1 número de la revista al mes, con un resumen de lo último, para que no te pierdas nada importante
  • El contenido de este sitio es obra de 23 autores. Tu registro es una forma de sentirse valorados.

Futuro de la Inteligencia Artificial

Este elemento es una profundización de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema.

🌈 ▷ Ciencias Sociales y Humanas » Inicio de la Plataforma Digital » A Varios » Futuro de la Inteligencia Artificial

Como futuro de la ciberseguridad y de los ataques cibernéticos

En un futuro próximo, y a medida que los sistemas de inteligencia artificial (IA) se vuelvan cada vez más avanzados, empezaremos a observar ataques informáticos de ingeniería social, cada vez más automatizados y elaborados. Se espera que el auge de los ciberataques basados en inteligencia artificial provoque una explosión de incursiones en redes privadas, robo de datos personales y una propagación epidémica de los virus informáticos. De forma irónica, nuestra mayor esperanza para defendernos de los ataques promovidos por IA consiste en utilizar la IA.

Aviso

No obstante, este planteamiento tiene muchas probabilidades de dar paso a una carrera armamentística de inteligencia artificial cuyas consecuencias podrían resultar muy preocupantes a largo plazo, sobre todo una vez los grandes actores gubernamentales se unan, cada vez más, a este tipo de ciberataques.

Mis investigaciones exploran la intersección entre inteligencia artificial y ciberseguridad.Entre las Líneas En particular, investigo cómo se pueden proteger sistemas de IA contra actores maliciosos, además de pensar cómo podría protegerse a las personas de una IA defectuosa o malévola. Este trabajo se enmarca dentro un ámbito más amplio de seguridad e inteligencia artificial, en los intentos de crear una IA sumamente capaz, pero también segura y beneficiosa.

Mucho se ha escrito sobre los problemas que podría ocasionar la llegada de una “verdadera IA”, ya sea por el impacto directo de este tipo de avances o el error de un programador.

Aviso

No obstante, la malicia intencionada en el diseño de IA y su utilización como herramienta de hackeo no ha sido tratada con suficiente detalle por la literatura científica. Huelga decir que cuando se trata de los peligros posibles de una inteligencia diseñada, carente de cualquier ética, todo es posible. Según la tesis de ortogonalidad de Bostrom, un sistema de IA puede tener cualquier combinación de inteligencia y objetivos. Tales objetivos pueden introducirse, o bien en el diseño original, o bien mediante el hackeo. También pueden incluirse después, como en los softwares listos-para-usar del tipo “añada sus propios objetivos”. Por tanto, y en función de quién le esté dando órdenes (gobiernos, corporaciones, sociópatas, dictadores, complejos industriales-militares, terroristas, etc.), un sistema de inteligencia artificial podría intentar provocar daños sin precedentes en la historia de la humanidad o, tal vez, inspirados en acontecimientos pasados.

Ya hoy, la IA puede utilizarse para defender y atacar infraestructuras cibernéticas, además de para aumentar la superficie de ataque disponible para un hacker, el número de formas posibles para acceder a un sistema.Entre las Líneas En el futuro, mientras aumenten las capacidades de la IA, preveo que primero alcanzarán y después superarán a los humanos en todos los campos de conocimiento, como ya hemos comprobado con juegos de mesa como el ajedrez y el Go. Ya estamos viendo cómo lo logra con las inversiones y la conducción. (Tal vez sea de interés más investigación sobre el concepto). Es importante que los líderes empresariales entiendan cómo diferirá esa situación de la actual, que se planteen nuevas preocupaciones y qué hacer al respecto.

Si falla un sistema de ciberseguridad actual, los daños pueden resultar desagradables, pero son tolerables en la mayoría de los casos. Alguien pierde dinero, alguien ve mermada su privacidad.Si, Pero: Pero con una IA de nivel humano (o superior), las consecuencias podrían ser catastróficas. Un único fallo de un sistema de inteligencia artificial fuerte (IAF) podría provocar un evento de riesgo existencial, un problema con el potencial de dañar el bienestar humano a escala global. Los riesgos son reales, como demuestra el hecho de que algunas de las mentes más brillantes en tecnología y física del mundo, incluidos Stephen Hawking, Bill Gates y Elon Musk, han expresado su preocupación sobre el potencial de una IA capaz de evolucionar hasta tal punto que los humanos no puedan llegar a controlarla.

Si hoy falla un sistema de ciberseguridad, normalmente se tiene otra oportunidad para corregirlo o, al menos, diseñar una mejor la próxima vez.Si, Pero: Pero con un sistema de seguridad de IAF, el fracaso o el éxito es una situación binaria: o se tiene una IAF segura y bajo control o no se tiene.Entre las Líneas En general, el objetivo de la ciberseguridad es reducir el número de ataques exitosos a un sistema. El objetivo de la seguridad con IAF, en cambio, es garantizar que ningún ataque logre esquivar los mecanismos de seguridad existentes. El desarrollo y la mejora de interfaces cerebro-máquina supondrá un objetivo ideal para los hackers humanos y habilitados por la IA. Y las interfaces cerebro-máquina no son tan futuristas, ya se utilizan en dispositivos médicos y videojuegos, por ejemplo. De tener éxito, un ataque a una interfaz cerebro-máquina no solo comprometería información crítica como números de identificación oficial y cuentas bancaria, sino que también pondría en peligro nuestros sueños, preferencias y secretos más ocultos. Existe el potencial de crear nuevos peligros sin precedentes para la privacidad personal, la libertad de expresión (véase; y también libertad de creación de medios de comunicación, libertad de comunicación, libertad de información, libertad de cátedra y la Convención sobre el Derecho Internacional de Rectificación, adoptada en Nueva York el 31 de marzo de 1953), la igualdad de oportunidades y un sinfín de derechos humanos más.

Es aconsejable que los líderes empresariales se familiaricen con la vanguardia de la investigación en seguridad e IA. Una investigación que desafortunadamente hoy se parece mucho a la situación de la ciberseguridad durante la década de 1990, al igual que nuestra situación actual con la falta de seguridad en el Internet de las cosas. Armados con más conocimientos, los líderes podrán valorar de manera racional cómo puede mejorar la experiencia de usuario el incluir IA en sus productos y servicios, pero también los costes (o costos, como se emplea mayoritariamente en América) potenciales de someter sus usuarios a filtraciones potenciales de datos y nuevos peligros. Contratar un experto en seguridad de IA podría suponer un próximo paso a tener en cuenta, ya que la mayoría de los expertos en ciberseguridad no están preparados para anticipar ni impedir ataques contra sistemas inteligentes. Tengo esperanza en que las investigaciones continuas aporten nuevas y potenciales soluciones para la incorporación segura de la inteligencia artificial en el mercado.

Fuente: HBR

Impacto futuro en la profesión médica

Los recientes avances en inteligencia artificial (IA) han llevado a la especulación de que la IA algún día podría reemplazar a los radiólogos humanos. Los investigadores han desarrollado redes neuronales de aprendizaje profundo que pueden identificar patologías en imágenes radiológicas, como fracturas óseas y lesiones potencialmente cancerosas, en algunos casos de manera más confiable que un radiólogo promedio.Entre las Líneas En su mayor parte, sin embargo, los mejores sistemas actualmente están a la par con el rendimiento (véase una definición en el diccionario y más detalles, en la plataforma general, sobre rendimientos) humano y se usan solo en entornos de investigación.

Dicho esto, el aprendizaje profundo está avanzando rápidamente y es una tecnología mucho mejor que los enfoques anteriores para el análisis de imágenes médicas. Esto probablemente augura un futuro en el que la IA juega un papel importante en la radiología. La práctica radiológica sin duda se beneficiaría de los sistemas que pueden leer e interpretar múltiples imágenes rápidamente, porque el número de imágenes ha aumentado mucho más rápido en la última década que el número de radiólogos. Cientos de imágenes se pueden tomar para tratar la enfermedad o lesión de un paciente.

Más Información

Las imágenes y la radiología son costosas y cualquier solución que pueda reducir el trabajo humano, reducir los costes (o costos, como se emplea mayoritariamente en América) y mejorar la precisión diagnóstica beneficiaría tanto a los pacientes como a los médicos.

¿Qué significa esto para los radiólogos? Algunos estudiantes de medicina han decidido no especializarse en radiología porque temen que el trabajo deje de existir.

Puntualización

Sin embargo, estamos seguros de que la gran mayoría de los radiólogos continuará teniendo empleos en las próximas décadas; trabajos que serán alterados y mejorados por la inteligencia artificial. Uno de nosotros (Dreyer) es un radiólogo e investigador de inteligencia artificial y el otro (Davenport) ha investigado el impacto de la IA en el trabajo durante varios años. Hemos visto varias razones por las que los radiólogos no desaparecerán de la fuerza de trabajo y las describimos a continuación. (Tal vez sea de interés más investigación sobre el concepto). También creemos que varios de estos factores inhibirán la automatización a gran escala de otros trabajos supuestamente amenazados por la IA.

Primero, los radiólogos hacen más que leer e interpretar imágenes. Al igual que otros sistemas de IA, los sistemas de IA de radiología realizan tareas únicas (IA estrecha o débil). Los modelos de aprendizaje profundo que mencionamos están entrenados para realizar tareas específicas de reconocimiento de imágenes (como la detección de nódulos en la tomografía computarizada de tórax o la hemorragia en la resonancia magnética cerebral).

Puntualización

Sin embargo, miles de tareas de detección tan limitadas son necesarias para identificar por completo todos los hallazgos potenciales en las imágenes médicas y, a día de hoy, solo la inteligencia artificial puede realizar algunas de estas tareas.

Otros Elementos

Además, el trabajo de interpretación de imágenes abarca solo un conjunto de tareas que realizan los radiólogos. También consultan con otros médicos sobre diagnóstico y tratamiento, tratan enfermedades (por ejemplo, proporcionan terapias ablativas locales), realizan intervenciones médicas guiadas por imágenes (radiología intervencionista), definen los parámetros técnicos de las exploraciones por imágenes que se realizarán (adaptadas a la condición del paciente), relacionan los hallazgos de las imágenes con otros registros médicos y resultados de pruebas, analizan procedimientos y resultados con pacientes y muchas otras actividades. Incluso en el caso improbable de que la IA se hiciera cargo de la lectura e interpretación de imágenes, la mayoría de los radiólogos podrían redirigir su enfoque a estas otras actividades esenciales.

Segundo, los procesos clínicos para emplear el trabajo de imagen basado en IA están muy lejos de estar listos para el uso diario.

Más Información

Las investigaciones de Dreyer con el Instituto de Ciencia de Datos del Colegio Americano de Radiología (ACR, por sus siglas en inglés) descubrieron que los diferentes proveedores de tecnología de imágenes y los algoritmos de aprendizaje profundo se centran en diferentes aspectos de los casos de uso que abordan. Incluso entre los detectores de nódulos basados ​​en el aprendizaje profundo que están aprobados por la FDA, había diferentes focos: la probabilidad de una lesión, la probabilidad de cáncer, la característica de un nódulo o su ubicación. (Tal vez sea de interés más investigación sobre el concepto). Estos diferentes focos harían muy difícil integrar los sistemas de aprendizaje profundo en la práctica clínica actual.

▷ En este Día de 12 Mayo (1949): Berlín queda Desbloqueada
En este día del año 1949, La Unión Soviética levanta el bloqueo de Berlín.
Una Conclusión

Por lo tanto, el ACR está comenzando a definir las entradas y salidas para los proveedores de software de aprendizaje profundo. La FDA requiere, y la ACR proporciona metodologías, que los proveedores verifiquen la efectividad y el valor de los algoritmos antes y después de que salgan al mercado. Al mismo tiempo, el ACR está trabajando hacia una colección integral de casos de uso, por parte del cuerpo, modalidad y tipo de enfermedad, para los cuales el proceso clínico, los requisitos de imagen y la explicación de los resultados están bien definidos y son consistentes con las actuales y futuras prácticas clínicas. Por supuesto, crear una colección completa de casos de uso llevará muchos años, ampliando aún más el papel de los radiólogos en el mundo de la IA.

Tercero, los algoritmos de aprendizaje profundo para el reconocimiento de imágenes deben ser entrenados en “datos etiquetados”.Entre las Líneas En radiología, esto significa imágenes de pacientes que han recibido un diagnóstico definitivo de cáncer, fractura ósea u otra patología.Entre las Líneas En otros tipos de reconocimiento de imágenes donde el aprendizaje profundo ha alcanzado altos niveles de éxito, se ha capacitado en millones de imágenes etiquetadas, como las fotos de gatos en Internet.

Aviso

No obstante, no hay imágenes almacenadas de radiología, etiquetadas o no. Son propiedad de vendedores, hospitales y médicos, instalaciones de imágenes y pacientes y la recopilación y etiquetado de estas imágenes, para acumular una masa crítica para la capacitación en IA, será un desafío y requerirá mucho tiempo.

Finalmente, al igual que está claro que los vehículos autónomos requerirán cambios en la regulación y el seguro automotriz, se requerirán cambios en la regulación médica y en el seguro de salud para que el análisis automatizado de imágenes despegue. ¿Quién es responsable, por ejemplo, si una máquina diagnostica mal un caso de cáncer: el médico, el hospital, el proveedor de tecnología de imágenes o el científico de datos que creó el algoritmo? ¿Y los proveedores de servicios de salud reembolsarán el diagnóstico de IA como un único par de ojos o como un segundo conjunto en combinación con un radiólogo humano? Todos estos problemas deben resolverse y es poco probable que el progreso vaya tan rápido como lo hace la investigación de aprendizaje profundo en el laboratorio. Es posible que las máquinas de radiología de IA tengan que mejorar sustancialmente más que los radiólogos humanos, no solo igual de bien, para impulsar los cambios normativos y de reembolso necesarios.

Debería ser evidente, entonces, que la próxima vez que se haga una mamografía o una resonancia magnética, es poco probable que sus imágenes sean vistas solo por un algoritmo de inteligencia artificial. Los radiólogos, como los abogados, los planificadores financieros, los contadores y otros profesionales que están viendo algunas tareas de trabajo realizadas por máquinas inteligentes, encontrarán cambios en sus empleos actuales, en lugar de reemplazarlos.

Debido a esto, deberán adoptar nuevas habilidades y procesos de trabajo. Como señala una publicación de blog, los únicos radiólogos cuyos trabajos pueden verse amenazados son los que se niegan a trabajar con la inteligencia artificial. La integración de la inteligencia artificial con la práctica radiológica ofrece importantes beneficios médicos y de productividad. Las mejoras de productividad incluso pueden significar que los radiólogos pueden dedicar más tiempo a hacer lo que muchos de ellos encuentran más satisfactorio: consultar con otros médicos sobre diagnósticos y estrategias de tratamiento. Si se realizan las mejoras previstas en el análisis de imágenes de aprendizaje profundo, los proveedores, los pacientes y los contribuyentes se inclinarán por los radiólogos que hayan descubierto cómo trabajar eficazmente junto con la IA.

Fuente: HBR

Impacto en las Empresas

Los CEO más carismáticos disfrutan cuando lideran e inspiran a otras personas, por lo que nos les gusta delegar las decisiones importantes sobre el negocio, en algoritmos inteligentes. ¿Quién querría que un astuto código informático le mandase? Pero ese futuro ya ha llegado.Entre las Líneas En algunas de las empresas más exitosas –como Google, Netflix, Amazon, Alibaba, y Facebook–, son algoritmos autónomos, no talentosos mánagers, quienes tienen cada vez más la última palabra. Los MBA (del inglés Management by Algorithm, gestión por algoritmo, en español) son la nueva norma.

Los ejecutivos comprometidos con la búsqueda de la excelencia a partir de los datos aceptan el hecho de que los algoritmos inteligentes necesitan una mayor autonomía para funcionar con éxito. Empoderar los algoritmos hoy es igual de relevante para una organización que empoderar a las personas.Si, Pero: Pero sin unas líneas claras que seguir en aspectos como la autoridad y la rendición de cuentas, un empoderamiento en paralelo garantiza el conflicto eterno entre la inteligencia humana y la artificial.

La computación autónoma requiere que los altos ejecutivos vuelvan a evaluar el cómo y por qué de delegar sus decisiones en este tipo de algoritmos. Los CEO necesitan aclarar cuándo debe deferir el talento humano al juicio algorítmico. Es complicado. Las conversaciones más incómodas que escucho dentro de una junta directiva sobre el aprendizaje de máquinas tienen que ver con cuánto poder y autoridad debe tener un software superinteligente. Los mismos ejecutivos que no habrían dudado en automatizar una fábrica, vacilan frente a la idea de que sea un algoritmo de aprendizaje profundo el que decida su estrategia de venta y capex (inversiones en bienes de capitales).

Más Información

Las implicaciones del éxito les asustan más que el riesgo de fracasar.

“¿Significa esto que una máquina determinará las licitaciones a las que nos presentamos?”, preguntó el responsable de una unidad de negocio europea que opera con miles de millones de euros. Sí, eso era exactamente lo que significaba. Los equipos de ciencia de datos, contrataciones y cadena de suministro de su grupo ya habían elaborado conjuntos algorítmicos que, según todas las mediciones y simulaciones, ahorrarían cientos de millones de euros. Es más, responderían incluso 10 veces más rápido a los cambios en el mercado que los procesos existentes y con tan solo una mínima intervención humana. El equipo directivo tendría que confiar en su software de licitación computacionalmente brillante. Ese era el reto.Si, Pero: Pero el CEO se negaba a –o no podía– apretar el gatillo de la autonomía.

“Se necesita un director de IA”, le contó el director científico de Baidu, Andrew Ng, a Fortune durante la Feria de Electrónica de Consumo, celebrada en enero de 2017. Tal vez.Si, Pero: Pero los CEO que se tomen en serio hacer frente a la oportunidad y el riesgo de la autonomía computacional deberían considerar cuatro opciones organizativas cuyo éxito ya se ha demostrado en el mundo real. ¿Las malas noticias? Los petabytes de nuevos datos y la innovación algorítmica garantizan que el avance de los algoritmos desafiará de manera implacable a la supervisión humana desde dentro.

El asesor autónomo/de autonomía

McKinsey, Bain y BCG son los modelos de gestión posibles.

Detalles

Los algoritmos autónomos se consideran y tratan como los mejores asesores (véase qué es, su concepto jurídico; y también su definición como “assessors” en derecho anglo-sajón, en inglés) estratégicos que se puede tener, pero son los mismos que nunca desaparecerán. El trabajo de los algoritmos promueve la revisión de decisiones y ofrece recomendaciones de manera continua a partir de los datos procesados.

Detalles

Los algoritmos toman la iniciativa sobre qué analizar e informan al equipo directivo de sus hallazgos.Si, Pero: Pero solo el comité de supervisión humana aprueba lo que se “automatiza” y cómo se implementa.

En teoría, los retos organizacionales de la autonomía algorítmica se corresponden prácticamente con los procesos y sistemas que se están automatizando.Entre las Líneas En realidad, se ha comprobado que los “relevos” y las transiciones implican problemas operativos importantes. El enfoque de arriba a abajo para la automatización produce, sin duda, roces entre personas y procesos.Entre las Líneas En una empresa minorista de Estados Unidos, un conjunto autónomo de algoritmos sustituyó a todo el departamento de comercialización. (Tal vez sea de interés más investigación sobre el concepto). El equipo directivo mandó a los encargados de tienda y al resto de la plantilla a respetar las peticiones y obedecer las órdenes de sus nuevos “compañeros”; la animadversión y la resistencia fueron notables. Pronto se instaló un software de auditoría y se designaron supervisores humanos para garantizar el cumplimiento.

En este modelo, los científicos de datos son interlocutores y embajadores que median entre el comité de supervisión de la autonomía y los objetivos de implementación de algoritmos. A menudo, encuentran que la tecnología da menos problemas que las personas. Normalmente, son ellos quienes se convierten en el saco de boxeo de cada uno de los bandos. Son los encargados de bloquear los intentos de engañar a los algoritmos. Deben su lealtad y rendición de cuentas al equipo directivo.

El subcontratista de autonomía

“Accenturazon” –parte Accenture, parte Amazon Web Services– es el ejemplo de gestión en este caso. La subcontrata de procesos de negocio se convierte en la algoritmización de procesos. Las mismas sensibilidades y oportunidades económicas que hacen atractiva la subcontratación se convierten en principios de la gestión para la autonomía computacional.

Se necesitan, por lo tanto, una descripción y reparto tan claro como el agua, de las tareas a llevar a cabo, así como de los entregables necesarios. La ambigüedad es el enemigo: un acuerdo sobre el servicio definido con nitidez, así como una rendición de cuentas explícita de los KPI o indicadores claves es esencial. Los propietarios de los procesos deben decidir la asignación de recursos y si la autonomía algorítmica debería dar paso a una mayor innovación, una mayor optimización o las dos cosas. La predictibilidad y la fiabilidad de un proceso es lo que más importa, y la autonomía representa un medio para alcanzarlas.

Al igual que ocurre con la subcontratación, la flexibilidad, la capacidad de respuesta y la interoperabilidad siempre suelen presentar algún tipo de problemas. El énfasis en los entregables definidos en un primer momento subvierte otras iniciativas que podrían crear valor a partir del desarrollo de la autonomía o la búsqueda de nuevas oportunidades. La empresa construye un porfolio brillante de conjuntos autónomos, pero con apenas sinergias entre ellos. Los equipos directivos más inteligentes, en cambio, diseñan sus iniciativas accenturazónicas autónomas con la interoperabilidad en mente.

Los científicos de datos, en los escenarios de algoritmización de procesos empresariales, se convierten en gestores de proyecto. Aportan coherencia técnica y regularidad a los acuerdos de nivel de servicio (ANS) a la vez que definen los estándares de calidad para los datos y algoritmos necesarios. Se convierten en el apoyo de los propietarios y responsables de los procesos elegidos para convertirse en autónomos.

El desafiante/desafiado empleado autónomo de primera categoría

Incluso la más brillante de las mentes puede tener alguna limitación intrínseca, y en ese sentido los algoritmos se parecen a los genios humanos más excéntricos. ¿Pueden los mánagers y empleados convencionales colaborar de manera eficaz con entidades autónomas innegablemente brillantes, aunque de capacidad limitada? En este entorno empresarial, el software inteligente se instala en las áreas en las que la autonomía computacional pueda complementar de forma medible, o sustituir, los resultados deseados. La empresa forma correctamente a su personal para contratar y trabajar con los mejores (y más inteligentes) algoritmos del mundo.

En este tipo de empresas, el software es tratado como un compañero al que se valora: la mayoría de las veces llega a la respuesta correcta, e incluso a la mejor. Empresas como Netflix y Alibaba trabajan con este modelo de gestión. (Tal vez sea de interés más investigación sobre el concepto). No puedo hablar en cambio demasiado bien del excelente análisis de Steve Levy en Backchannel sobre el compromiso de Google para convertirse en una empresa de “aprendizaje de máquinas primero”.

“El modelo de aprendizaje de máquinas no es un conjunto estático de código, sino que le alimenta constantemente de datos”, explica un ingeniero de Google. “Actualizamos continuamente los modelos y el aprendizaje, añadiendo más datos y refinando la manera en la que haremos las predicciones. Parece una cosa que vive y respira. Es un tipo distinto de ingeniería”.

Mezclar la autonomía de las personas y las máquinas nubla necesariamente la responsabilidad de la organización. (Tal vez sea de interés más investigación sobre el concepto).Entre las Líneas En entornos con una evolución tan rápida, las personas responsables de proyectos y programas no siempre pueden saber si lograrán mejores resultados a través de reeducar a las personas o reeducar a los algoritmos. Dicho eso, una cultura de cocreación y colaboración se convierte en la única manera de triunfar.

Los científicos de datos ejercen de facilitadores. Actúan como el departamento de recursos autónomos frente a recursos humanos. Se encargan de desarrollar bots de conversación y adoptar interfaces del estilo de Alexa, para facilitar y simplificar la colaboración y el compañerismo. Buscan minimizar la discriminación, el favoritismo y las tensiones en las relaciones persona-máquina. Los equipos directivos dependen de ellos para entender la enorme transformación cultural que implica una autonomía generalizada.

Autonomía absoluta

Renaissance Technologies y otros fondos de inversión incluso más herméticos son ahora el ejemplo. Estas organizaciones están totalmente comprometidas con permitir que la autonomía algorítmica lleve la empresa hasta fronteras (véase qué es, su definición, o concepto jurídico, y su significado como “boundaries” en derecho anglosajón, en inglés) desconocidas de innovación, rentabilidad y riesgo. Sus resultados deberían inspirar humildad entre los que privilegian la acción humana.

Un analista cuantitativo de un fondo de inversiones de Nueva York (EEUU), que realiza más transacciones en una semana que una empresa de la lista Fortune 250 en un año, confesó: “Llevó años que confiáramos lo suficiente en los algoritmos como para resistirnos a la tentación de ignorar sus resultados […] Aún hay transacciones ocasionales que no ejecutamos y no hacerlas casi siempre nos cuesta dinero”.

Las empresas buscan aprovechar, amplificar y conectar en red los sistemas autónomos para crear una ventaja competitiva autosuficiente. Para ello, utilizan software de aprendizaje de máquinas para entrenar mejor el software de aprendizaje de máquinas.

Detalles

Los algoritmos de aprendizaje de máquinas ejecutan pruebas de estrés y gestionan el riesgo de otros algoritmos de aprendizaje de máquinas.

La autonomía es el centro de gravedad, tanto organizativo como operativo, para la innovación y el crecimiento. La gente es contratada y despedida en función de su capacidad para ampliar los límites algorítmicos de una autonomía exitosa.

El liderazgo (véase también carisma) de estas organizaciones exige humildad y la voluntad de convertir la confianza en las cifras en prácticamente un acto de fe. Tanto los investigadores académicos de finanzas computacionales, como los gestores de fondos de inversión, comentan que a menudo llevan a cabo operaciones financieras que los humanos no entienden ni literal ni cognitivamente. Una de las áreas más candentes de las investigaciones de aprendizaje profundo es el desarrollo de software de metainteligencia que genera razonamientos y narrativas para explicar a los humanos las decisiones de que las propias máquinas toman a partir de datos.

La gestión del riesgo y la necesidad de lograr una comprensión humana accesible sobre el alcance de la autonomía compleja domina la mayor parte de la ciencia de datos que se practica en las empresas que apuestan por una autonomía algorítmica absoluta.

Lo cierto es que estos cuatro modelos de gestión antropomorfizan los algoritmos autónomos. Es decir, el software no se trata como líneas de código inertes, sino que se hace como si fueran seres con algún tipo de voluntad que se puede medir y de la que se hacen responsables.Entre las Líneas En cada modelo, el equipo de dirección busca correctamente una mayor transparencia y accesibilidad a lo que les motiva. Una mayor supervisión del proceso dará paso a más conocimientos, a medida que avanzan las capacidades autónomas de los algoritmos.

Basado en la experiencia de varios autores, mis opiniones y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2024 o antes, y el futuro de esta cuestión):

Los CEO y el resto de la junta directiva deben monitorizar y supervisar este proceso de cerca. También deben promocionar los casos de uso, las simulaciones y los escenarios, para realizar pruebas de estrés con algunas de las situaciones límite que definan para sus conjuntos algorítmicos.

Puntualización

Sin embargo, es conveniente evitar mezclar o combinar estos cuatro enfoques entre sí. La clave para lograr que funcionen consiste en integrar la rendición de cuentas, la responsabilidad y los resultados desde un inicio, en cada uno de ellos. Cómo se delega, dirige y decide la autoridad debe estar claro.

Mientras que esa máxima se basa en la observación y participación anecdóticas, no en un análisis estadístico, nunca se deben subestimar el impacto que un cambio radical en la distribución del poder y la influencia puede tener sobre la autoestima y profesionalidad de la plantilla. Por eso los CEO deberían preocuparse menos por llamar al orden a la autonomía (véase qué es, su concepto; y también su definición como “autonomy” en el contexto anglosajón, en inglés), por someterla, y más por convertirla en una potente fuente y fuerza de ventaja competitiva.

Sin duda alguna, sus rivales más inteligentes serán otros algoritmos autónomos impulsados por datos.

Fuente: HBR

Impacto en los Humanos

¿Cómo de artificial es realmente la inteligencia artificial? Facebook tuvo que poner a trabajar a todos sus portavoces y personal de relaciones públicas el verano pasado cuando unos periodistas descubrieron que un “equipo editorial” humano, y no algoritmos sin sesgo alguno, escogía las noticias de su sección con los temas o tendencias del momento. La revelación puso de relieve algo imposible de obviar, pero que todo el mundo finge desconocer en el ámbito tecnológico: las empresas que venden la mágica velocidad, omnipotencia y neutralidad de la inteligencia artificial, a menudo no pueden cumplir sus propias promesas sin incluir la participación de humanos, los cuales suelen trabajar de manera invisible entre bambalinas.

Entonces, ¿quiénes son los humanos que están detrás de la inteligencia artificial (IA)?

En Bangalore (India), Kala, una madre de mediana edad con dos hijos, trabaja delante de su ordenador en la oficina casera improvisada que comparte con su marido. Nuestro equipo de Microsoft Research conoció a Kala durante el tercer mes de un estudio sobre la vida de las personas que aceptan trabajos temporales con contratos “bajo demanda” a través de Internet, el equivalente al trabajo online a destajo. Sus hijos adolescentes hacen los deberes en la habitación contigua. Kala los llama a su despacho, señala la pantalla y pregunta: “¿Es esta una palabrota en inglés?”. Así es la trastienda de la IA en 2016. Kala dedica horas cada día a revisar y etiquetar ejemplos de contenidos cuestionables. A veces ayuda a empresas como Google, Facebook, Twitter y Microsoft a entrenar los algoritmos que supervisarán los contenidos online. Otras veces, toma decisiones rápidas y difíciles sobre qué materiales generados por los usuarios deben eliminarse o conservarse cuando las empresas reciben quejas y avisos de clientes sobre algo que leen o ven online.

Se trate de los temas del momento en Facebook (los llamados trending topics), los pedidos de Amazon Prime por Alexa o las respuestas instantáneas de bots ante una queja, muchas de las tareas anunciadas como obra de la IA incluyen la participación de personas trabajando delante de una pantalla y a las que se les paga por responder a las consultas que les llegan a través de interfaces de programación de aplicaciones (API, por sus siglas en inglés) de sistemas de crowdwork o trabajo colaborativo online.

La verdad es que la IA está tan “totalmente automatizada” como el gran y poderoso Oz en esa famosa escena del mago de Oz, la película de 1939, en la que Dorothy y sus amigos descubren que el gran mago es simplemente un hombre que acciona palancas de manera alocada desde el otro lado de una cortina.

La mezcla de IA y humanos que toma el relevo cuando la primera se queda corta, no desaparecerá en un futuro próximo. La creación de tareas humanas detrás de los avances tecnológicos forma parte de la historia de la automatización desde la invención del torno mecanizado. Denominamos esta frontera en constante movimiento del desarrollo de la IA, como la paradoja de la última milla de la automatización: a medida que avanza la IA, también se produce la rápida creación y destrucción de mercados de empleo temporal para nuevos tipos de tareas que requieren la participación humana. Para 2033, los economistas prevén que la innovación tecnológica podría convertir el 30 % de los trabajos actuales a jornada completa, en servicios aumentados completados “bajo demanda” a partir de una mezcla de automatización y mano de obra humana.Entre las Líneas En resumidas cuentas, la IA eliminará parte del trabajo a la vez que abrirá oportunidades para redefinir el trabajo que mejor puede hacer un humano. Estos servicios aumentados asistidos por IA, proporcionados por personas que trabajan silenciosamente junto a bots, están llamados a mejorar nuestra productividad diaria, pero también implican nuevos desafíos para la sociedad.

Gran parte del crowdwork que se ofrece hoy bajo contrato sustituye a la IA cuando ésta no puede hacer algo por sí misma. El “secretito” de muchos servicios tecnológicos –desde el asistente personal FacebookM hasta la eliminación “automática” de vídeos aberrantes de YouTube, entre muchos otros– es que, humanos de carne y hueso limpian gran parte de la web desde las sombras. ¿Y esos bots mágicos que responden a nuestros tuits quejándonos sobre el retraso en la entrega de una pizza o el servicio durante un vuelo a Boston (EEUU)? Son el nuevo mundo del trabajo autónomo y temporal oculto debajo de una capa de IA. Un híbrido de humanos e inteligencia artificial está redefiniendo la venta al por menor, el marketing y la atención al cliente (examine más sobre estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Resulta que, a la IA, al igual que a los humanos, le cuesta tomar decisiones difíciles sobre qué contenidos debería y no debería incluir nuestro menú diario de redes sociales en función de los criterios o valores que queramos imponer.

La historia real no es si Facebook sesga sus noticias más relevantes al contratar editores humanos; la noticia es que la IA de hoy no puede funcionar sin la participación humana, ya sea para seleccionar noticias como para pedir una pizza. La moderación y la selección de contenidos – desde canales (véase qué es, su definición, o concepto, y su significado como “canals” en el contexto anglosajón, en inglés) de noticias, resultados de búsquedas hasta resolver la adecuación de un contenido– involucran a personas contratadas por empresas tecnológicas y medios de comunicación, para juzgar qué bloquear y qué permitir.

¿Recuerda ese momento famoso de las elecciones presidenciales de Estados Unidos de 2012 cuando Mitt Romney habló de “carpetas llenas de mujeres”? Twitter necesitó contratar trabajadores puntuales para averiguar, en tiempo real, por qué una frase así de obtusa se convirtió rápidamente en una etiqueta tan popular y si era apropiada incluirla como uno de sus trending topic o temas del momento.

¿Quiénes son entonces esos trabajadores entre las bambalinas de la IA? Muchos son como Kala: gente corriente, a la que normalmente se le paga una tarifa ridícula, que trabajan de forma autónoma o a través de empresas de trabajo temporal, muchas de las cuales operan fuera de Estados Unidos. Es un hecho poco conocido que gran parte de la moderación de contenidos se subcontrata a trabajadores autónomos de todo el mundo y sin apenas informar sobre su formación, entornos de trabajo o protocolos para tomar decisiones editoriales (examine más sobre estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Resulta llamativo, sobre todo después del incidente del “equipo editorial” de Facebook, que más consumidores no hayan preguntado, ¿de qué manera funcionan las redes sociales y quién participa en la creación de contenidos que llegan a la puerta de nuestras casas virtuales? El incidente de verano en Facebook solo dejó espacio para especular sobre las credenciales del equipo y el apoyo durante el trabajo editorial.

Tras dos años de investigación sobre el mundo del crowdwork remunerado y en el que la moderación y supervisión de contenido es uno de los flujos de trabajo más continuos de la economía gig o por encargo, nuestro equipo ha aprendido que el trabajo interno de las empresas tecnológicas, tanto grandes como pequeñas, implica literalmente miles de decisiones sobre qué contenidos mantener o eliminar. Se necesitan trabajadores por obra o servicio para entrenar algoritmos capaces de tomar algunas de las decisiones más importantes sobre el contenido. Y, en mayor medida de lo que pensamos, también son los responsables de decidir con rapidez qué sigue y qué desaparece de una página. Es una nueva forma de empleo que todos deberíamos valorar porque son las personas que impiden que Internet se convierta en una ciénaga de spam.

Detalles

Las empresas dependen en buena medida de trabajadores temporales contratados a través de plataformas de subcontratación masiva como Crowdflower y Amazon Mechanical Turk, o sistemas para la contratación de tareas como Clickworker.

Tenemos que pensar seriamente en la mano de obra humana detrás de IA. Esta fuerza de trabajo merece formación, apoyo y compensación por estar dispuesta a ejecutar un importante trabajo que muchos encontrarían tedioso o demasiado exigente. Un aluvión (véase qué es, su definición, o concepto jurídico) de futuros empleos, que van más allá del tratamiento editorial de trending topics, requerirá los esfuerzos creativos de humanos para canalizar la velocidad, el alcance y la eficiencia de la IA. El primer paso consiste en exigir más transparencia a las empresas tecnológicas que venden la IA como algo que carece trabajo humano. Deberíamos exigir la veracidad de la publicidad en cuanto a dónde se han incorporado humanos para nuestro beneficio, tanto si es para moderar nuestras noticias, como para tramitar nuestras quejas por las publicaciones trol. Deberíamos saber que existe participación humana porque queremos disponer tanto de la capacidad de reconocer el valor de su trabajo como de la oportunidad de entender la formación y los apoyos que configuran sus decisiones, sobre todo si su trabajo se solapa con el interés general.

Como consumidores, tenemos derecho a saber qué ingredientes y procesos forman la IA que compila nuestros contenidos, qué noticias y de qué medios, de la misma manera que deberíamos conocer los ingredientes de la comida con la que alimentamos a nuestras familias. Como seres humanos, deberíamos saber siempre, cuándo se encuentran otros humanos trabajando, produciendo lo que consumimos, ya sea físico o digital. La labor de estas dedicadas personas de todo el mundo no debería ser invisible por el shibboleth o consigna de la IA. Al igual que necesitamos que las empresas rindan cuentas sobre las prácticas laborales que producen nuestros alimentos, ropa y ordenadores, también necesitamos que lo hagan tanto con los consumidores como con los trabajadores que producen y distribuyen contenidos digitales.

📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras:

Fuente: HBR

Impacto en el Trabajo

La gran mayoría de los humanos a lo largo de la historia trabajó porque tenían que hacerlo. Muchos encontraron comodidad, valor y significado en sus esfuerzos, pero algunos consideraron el trabajo como una necesidad a evitar si fuera posible. Durante siglos, las élites de las sociedades europeas y asiáticas aspiraron a liberarse del empleo remunerado. Aristóteles definió a un “hombre en libertad” como la cumbre de la existencia humana, un individuo liberado de cualquier preocupación por las necesidades de la vida y con una voluntad personal casi completa. Es revelador que no definiera a los comerciantes ricos como libres en la medida en que sus mentes estaban demasiado ocupadas pensando en comprar más cosas.

La promesa de la inteligencia artificial (IA) y la automatización plantea nuevas preguntas sobre el rol del trabajo en nuestras vidas. La mayoría de nosotros permaneceremos enfocados durante décadas en actividades de producción física o financiera, pero a medida que la tecnología proporcione servicios y bienes a un coste (o costo, como se emplea mayoritariamente en América) cada vez más bajo, los seres humanos se verán obligados a descubrir nuevos cometidos, no necesariamente relacionados con la forma en la que hoy concebimos el trabajo.

Parte del desafío, como propuso recientemente el economista Brian Arthur, “no será económico sino político”. ¿Cómo se distribuirá el botín (véase qué es, su concepto; y también su definición como “booty” en el derecho anglosajón, en inglés) de la tecnología? Arthur señala la agitación política actual en Estados Unidos y Europa en parte como resultado de la brecha entre las élites y el resto de la sociedad. Cuando avance más el siglo XXI, las sociedades descubrirán cómo distribuir los beneficios productivos de la tecnología por dos razones principales: porque será más fácil y porque deben hacerlo. Con el tiempo, la tecnología permitirá más producción con menos sacrificio. Mientras tanto, la historia sugiere que la concentración de la riqueza en muy pocas manos conduce a presiones sociales que se abordarán a través de la política o la violencia, o ambas cosas.

Esto plantea un segundo desafío más difícil: a medida que los beneficios de la tecnología se vuelven más accesibles, a través de la reforma o la revolución, muchos de nosotros nos enfrentaremos a esta pregunta: “cuando la tecnología puede hacer casi cualquier cosa, ¿qué debo hacer y por qué?”.

Especialmente desde la Revolución Industrial (véase también sus consecuencias y la industrialización), la tecnología ha hecho que una porción cada vez mayor de la humanidad se aleje de la producción de productos básicos para la vida. Mientras que muchas personas permanecen atrapadas en una lucha diaria por la supervivencia, un porcentaje menor de humanos está libre de esa presión. (Tal vez sea de interés más investigación sobre el concepto). A medida que la IA y los sistemas robóticos se vuelvan mucho más capaces y comprometidos, el trabajo seguirá progresando sin nosotros, quizás alcanzando lo que John Maynard Keynes describió en Economic Possibilities for our Grandchildren como desempleo tecnológico, en el que la tecnología reemplaza la mano de obra humana mucho más rápido que la velocidad a la que descubrimos nuevos puestos de trabajo. Keynes predijo que esto solo sería “una fase temporal de inadaptación”, y que dentro de un siglo la humanidad podría superar su desafío económico fundamental y liberarse de la necesidad biológica de trabajar.

Esta es una visión esperanzadora, pero también un camino sinuoso y peligroso. Keynes advirtió: “si se resuelve el problema económico, la humanidad se verá privada de su propósito tradicional…

Puntualización

Sin embargo, no hay ni país ni pueblo, creo, que pueda esperar la era del ocio y la abundancia sin temor”. Con inquietud, Keynes se preguntó cómo las personas enfocarían sus atenciones, intereses y temores cuando se les absuelve de ganarse la vida. A medida que nos desconectemos de las actividades tradicionales, ¿cómo evitaremos un futuro nihilista de Huxlian? ¿Cómo definiremos nuestro propio sentido de propósito, significado y valor?

Podemos explorar esta cuestión a través del trabajo de la filósofa, historiadora y periodista Hannah Arendt, quien en la década de 1950 diseñó un marco de largo alcance para comprender toda la actividad humana.Entre las Líneas En “The Human Condition”, una obra hermosa, desafiante y profunda, Arendt describe tres niveles de lo que ella define, después de los griegos, como la “vita activa”.

La fuerza trabajadora genera necesidades metabólicas, como los alimentos, que sostienen la vida humana. El trabajo crea los artefactos físicos y la infraestructura que definen nuestro mundo y, a menudo, duran más que nosotros, desde los hogares y los bienes hasta las obras de arte. La acción incluye actividades interactivas y comunicativas entre los seres humanos, la esfera pública.Entre las Líneas En la acción, exploramos y afirmamos nuestra singularidad como seres humanos y buscamos la inmortalidad.

Durante los próximos 100 años, la inteligencia artificial y los sistemas robóticos dominarán cada vez más el trabajo y la mano de obra, produciendo las necesidades y los artefactos físicos de la vida humana y permitiendo que algunos más de nosotros ascendamos (Arendt lo presentó como una evolución ascendente; este es un juicio de valor cualitativo) al reino de la acción. (Tal vez sea de interés más investigación sobre el concepto). Por supuesto, algunas personas pueden dedicarse a la mano de obra o al trabajo por elección, pero la elección es la distinción esencial.

La mayoría de los filósofos griegos antiguos priorizaron la contemplación sobre la acción como la cumbre del esfuerzo humano. Arendt luchó contra esta noción, argumentando a favor de la acción, algo con lo que está de acuerdo la cultura contemporánea.

Puntualización

Sin embargo, al final, la acción y la contemplación funcionan mejor cuando se alían. Tenemos la oportunidad, tal vez la responsabilidad, de convertir nuestra curiosidad y naturaleza social en acción y contemplación.

Nos enfrentaremos a ajustes dramáticos en nuestra “vita activa” en las próximas décadas y cada uno de nosotros nos preguntaremos qué hacer y por qué. Esperamos que nuestros nietos sean libres de seguir una vida de compromiso y exploración, cultivar un huerto o cocinar. Si somos afortunados, esta será una elección más que una necesidad.

Arendt abrió “The Human Condition” con una advertencia sobre “una sociedad de trabajadores que está a punto de liberarse de las cadenas del trabajo”. ¿El peligro? Que “esta sociedad ya no sabe de esas otras actividades más importantes y significativas, por el bien de las cuales merecería que se ganara esta libertad”. Arendt centró particularmente este desafío en la ideología comunista que tanto glorificaba al trabajo.

Cuando nuestras máquinas nos liberan de cada vez más tareas, ¿a qué vamos a dirigir nuestras atenciones? Esta será la pregunta definitoria de nuestro próximo siglo.

Fuente: HBR

Entre los Líderes

No es extraño que la inteligencia artificial se perciba como una amenaza al liderazgo (véase también carisma) humano. Después de todo, el propósito para desarrollar la inteligencia artificial es precisamente aumentar, mejorar y, finalmente, reemplazar la inteligencia humana, que sigue considerándose como una ventaja competitiva clave, al menos por los humanos. No existen razones para pensar que el liderazgo (véase también carisma) se librará del impacto de la inteligencia artificial. De hecho, es muy probable que la inteligencia artificial suplante muchos aspectos de los elementos “duros” del liderazgo, aquellos relacionados con el procesamiento cognitivo crudo de hechos e información. (Tal vez sea de interés más investigación sobre el concepto). Al mismo tiempo, nuestra predicción es que la inteligencia artificial también hará que cobren más importancia los elementos “blandos” del liderazgo: los rasgos de la personalidad, actitudes y compartimientos que permiten a los individuos ayudar a los demás a alcanzar una meta o un propósito común.

El cambio de los elementos duros del liderazgo (véase también carisma) a los blandos no es algo exclusivo de la era de la inteligencia artificial. Los estudios metanalíticos que revisan 50 años de investigación sugieren que los rasgos de la personalidad como la curiosidad, la extraversión y la estabilidad emocional son el doble de importantes que el coeficiente (ratio) intelectual (el estándar habitual para medir la capacidad de razonamiento) a la hora de predecir la efectividad del liderazgo.

¿Hasta qué punto podemos confiar en varias décadas de investigación académica que han tratado de definir las cualidades, rasgos y atributos de este lado blando del liderazgo? Por un lado, el liderazgo (véase también carisma) ha evolucionado a lo largo de miles de años, aunque sus principios básicos seguramente no han cambiado tanto. Por otro, no podemos negar la potente influencia que los cambios en el ambiente laboral pueden tener a la hora de remodelar las competencias y los comportamientos clave que harán que los líderes sean efectivos o no.Entre las Líneas En algún punto de nuestra historia, seguramente con la llegada del lenguaje, la perspicacia del liderazgo (véase también carisma) pasó de ser física a basarse competencias cognitivas, premiando la inteligencia y a la pericia a expensas de la fuerza y la resistencia. De la misma manera, podríamos esperar que la actual revolución de la inteligencia artificial masifique y automatice el aspecto del liderazgo (véase también carisma) más basado en datos, dejando para los humanos los elementos blandos. Nuestra investigación sugiere que en una era de inteligencia artificial que se caracteriza por una disrupción intensa y cambios rápidos y ambiguos, debemos repensar la esencia del liderazgo (véase también carisma) efectivo. Algunas cualidades, como los conocimientos profundos del sector, la decisión, la autoridad y el centrarse en tareas a corto plazo, están perdiendo su prestigio, mientras que otras, como la humildad, el saber adaptarse, tener visión e involucrarse constantemente, seguramente tendrán un papel principal en tipos de liderazgo (véase también carisma) más ágiles. A continuación, vemos más de cerca estas competencias:

Humilidad.Entre las Líneas En una era de cambios rápidos, saber lo que no sabemos es tan valioso como saber lo que sí que sabemos. Desgraciadamente, los líderes a menudo no se forman sobre nuevas materias debido a la cantidad y variedad de información nueva que se genera diariamente.Entre las Líneas En la era de la inteligencia artificial, los líderes deben querer aprender y estar abiertos a buscar aportaciones tanto de dentro como de fuera de sus organizaciones. También deben confiar en que los demás puedan saber más que ellos. El conocimiento puede venir de una persona con 20 años menos de experiencia o que esté tres niveles por debajo en la jerarquía de la organización. (Tal vez sea de interés más investigación sobre el concepto).Entre las Líneas En la era de la inteligencia artificial, un líder efectivo entiende que el hecho de que alguien con un estatus más bajo o menos experiencia no implica que no pueda realizar aportaciones clave.

Empresas como Nestlé han implementado programas extensos de mentores inversos. Estas iniciativas pretenden institucionalizar el proceso del aprendizaje para aceptar, dar la bienvenida y potenciar los conocimientos de los miembros del equipo, los compañeros y los empleados, para el beneficio de todo el negocio. Ser humilde puede parecer una incoherencia con la necesidad de emanar una imagen de confianza y autoridad.

Puntualización

Sin embargo, siempre ha habido una relación muy débil entre la confianza y la competencia real, por eso los verdaderos expertos a menudo son más humildes que los individuos que tienen pocos o ningún conocimiento. Como apuntó el filósofo británico Bertrand Russell en una famosa cita, “el problema del mundo es que los tontos están muy seguros de sí mismos y los inteligentes llenos de dudas”.

Capacidad de adaptación. (Tal vez sea de interés más investigación sobre el concepto). A nivel de empresa, la capacidad de adaptación quiere decir estar listo para innovar y responder a las oportunidades y amenazas según van surgiendo. A nivel individual, quiere decir estar abierto a nuevas ideas, cambiar de opinión, aunque afecte a nuestro ego, y ser capaces de comunicar eficazmente esa nueva opinión a las partes interesadas como compañeros, equipos y clientes.Entre las Líneas En una era de inteligencia artificial, cambiar de opinión, que a menudo puede ser visto como una señal de debilidad o falta de convicción, debería percibirse como una fortaleza siempre que mejore la toma de decisiones. Los líderes que se adaptan no tienen miedo de cambiar el curso de las cosas cuando la situación lo requiere y pueden enfrentarse a retos y centrarse en aprender en vez de en tener siempre razón.

El director general del BBVA, Carlos Torres Vila, supervisó la transformación de la empresa de un banco físico tradicional a una de las organizaciones de servicios financieros más exitosa de la era digital (examine más sobre estas cuestiones en la presente plataforma online de ciencias sociales y humanidades). Respondió a la interrupción de la industria adoptando una cultura de transformación que fomenta la agilidad, la flexibilidad, el trabajo cooperativo, el espíritu emprendedor y la innovación.

Visión. (Tal vez sea de interés más investigación sobre el concepto). La visión siempre ha tenido un papel importante en el liderazgo (véase también carisma) efectivo.

Puntualización

Sin embargo, en la era de la inteligencia artificial caracterizada por tecnología rápida y cambios en los modelos de negocios, tener una visión clara es todavía más importante, ya que cada vez hay más dudas entre seguidores, subordinados y empleados sobre los objetivos de cada uno, qué debe hacer y por qué. Los líderes con una visión clara tienen respuestas convincentes y significativas para estas preguntas y son capaces de comunicarlas mejor.

Otros Elementos

Además, la visión permite a los líderes implementar las transformaciones organizativas necesarias sin ceder frente a intereses a corto plazo.

Muchos líderes de los gigantes digitales de hoy en día, como Amazon, Tesla, Facebook, Tencent, Alibaba y Google han articulado claramente las visiones de sus organizaciones, incluso con muchas incertidumbres a corto plazo.

Compromiso.

Detalles

Por último, para tener éxito en la era de la inteligencia artificial, un líder debe mantenerse constantemente involucrado en el entorno que le rodea para estar en sintonía con él y adaptarse a las señales en vez de al ruido y detectar posibles amenazas (nuevos competidores) o apoyos (socios potenciales). Los líderes ágiles deben estar comprometidos, pero también deben encontrar maneras de inculcar ese compromiso a sus equipos, especialmente en momentos duros cuando el camino se convierte en un reto.

Este compromiso tan necesario en la era de inteligencia artificial puede alcanzarse cada vez con más sencillez gracias al uso de herramientas digitales. Por ejemplo, el gigante de comercio en línea Zalando ha implementado una variedad de herramientas digitales para que los directivos puedan capturar y responder a los temas de interés de todos los empleados. Estas incluyen zTalk, una aplicación de chat en vivo; zLive, un intranet social de toda la empresa; y zBeat, una herramienta que pregunta regularmente a los empleados sobre sus experiencias laborales actuales.

¿Implica todo esto que el liderazgo (véase también carisma) es radicalmente distinto en la era de la inteligencia artificial? No, pero sí hay dos diferencias clave. La primera es que las competencias duras de los lideres seguirán siendo eclipsadas por las máquinas inteligentes mientras que las competencias blandas serán más importantes que nunca. La segunda es que, mientras que rasgos atemporales como la integridad y la inteligencia emocional seguirán siendo importantes, los líderes deben aprender a ser humildes ante a las contribuciones de otros, adaptarse a los nuevos retos que van surgiendo en el camino, ser firmes en cuanto a su visón y objetivos e involucrarse constantemente en el mundo cambiante que los rodea.

Fuente: HBR

▷ Esperamos que haya sido de utilidad. Si conoce a alguien que pueda estar interesado en este tema, por favor comparta con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.

2 comentarios en «Futuro de la Inteligencia Artificial»

  1. El contenido de inteligencia artificial en el futuro comprende, entre otros importantes temas, las cuestiones que a continuación se relacionan: futuro de la inteligencia artificial pdf, uso en el futuro de la inteligencia artificial, proyecciones de la inteligencia artificial, mundo futuro la inteligencia, ventajas y desventajas de la inteligencia artificial, el cine y la inteligencia artificial, cuales son las tecnicas y campos de la inteligencia artificial, y futuros avances de la inteligencia artificial.

    Responder

Foro de la Comunidad: ¿Estás satisfecho con tu experiencia? Por favor, sugiere ideas para ampliar o mejorar el contenido, o cómo ha sido tu experiencia:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Descubre más desde Plataforma de Derecho y Ciencias Sociales

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo