▷ Sabiduría semanal que puedes leer en pocos minutos. Añade nuestra revista gratuita a tu bandeja de entrada. Lee gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Liderazgo, Dinero, Startups, Políticas, Ecología, Ciencias sociales, Humanidades, Marketing digital, Ensayos, y Sectores e industrias.

Oficial de Ética

▷ Lee Gratis Nuestras Revistas

El Oficial de Ética

Este elemento es una ampliación de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre el oficial de ética. [aioseo_breadcrumbs]

Oficial de Ética y la ética Empresarial

Una breve explicación sobre oficial de ética, en este contexto, puede ser la siguiente: El puesto del oficial de ética se crea para cumplir con las operaciones diarias del programa de ética empresarial. El oficial de ética puede o no ser la persona con responsabilidad de alto nivel para el programa de ética empresarial. Proporciona asesoramiento sobre el comportamiento ético y sobre cómo informar sobre los problemas de ética, investiga y monitorea las investigaciones de posible mala conducta, monitorea el desarrollo del programa de ética y trabaja con otros organismos en la empresa para promover el cumplimiento. El oficial de ética se asegura de que todos los niveles de la organización cumplen o exceden las expectativas éticas, legales y civiles diariamente.

Estudio del Caso: El Despido de un Oficial de Ética en Google

Un fulminante correo electrónico hizo que despidieran a un investigador ético de IA en Google. “Deje de redactar sus documentos porque no sirve de nada” fue el mensaje final de Timnit Gebru a sus compañeros de la empresa tecnológica.

A fines del año 2020, una destacada colíder del equipo de Inteligencia Artificial Ética de Google envió un correo electrónico a sus colegas. Timnit Gebru había estado trabajando en un artículo de investigación que esperaba publicar, pero se topó con la resistencia de sus superiores en Google. Así que envió una carta expresando su frustración al listserv interno “Google Brain Women and Allies”.

Pocos días después, Gebru fue despedida. Al parecer, Google consideró que el correo electrónico era “incoherente con las expectativas de un directivo de Google”. En él se detallan las luchas que Gebru experimentó como líder negra que trabaja en la investigación ética dentro de la empresa, y se presenta una visión sombría del camino a seguir para las minorías infrarrepresentadas en la empresa.

Gebru es muy conocida y respetada en la comunidad de ética de la IA. Gebru, ex alumna del Laboratorio de Inteligencia Artificial de Stanford, es una de las voces más destacadas en el uso ético de la inteligencia artificial. Es conocida por su trabajo en un estudio histórico en 2018 que mostraba cómo el software de reconocimiento facial identificaba erróneamente a las mujeres de piel oscura hasta un 35% de las veces, mientras que la tecnología funcionaba con casi precisión con los hombres blancos.

También ha criticado abiertamente la falta de diversidad y el trato desigual de los trabajadores negros en las empresas tecnológicas, en particular en Google, de Alphabet Inc. y dijo que creía que su despido pretendía enviar un mensaje al resto de empleados de Google para que no alzaran la voz.

La prensa consiguió el correo electrónico que Gebru envió; ella misma no tuvo acceso a su cuenta después de que Google la despidiera. A continuación se publica íntegramente.

Google no respondió inmediatamente a una solicitud de comentarios. Pero el jueves por la mañana, Jeff Dean, jefe de investigación de Google, envió un correo electrónico a los empleados con su relato de lo sucedido. Dean dijo que Gebru había dado un ultimátum y que dimitiría a menos que se cumplieran ciertas condiciones. La prensa obtuvo también el correo electrónico de Dean; puede encontrarlo debajo del de Gebru.

“Hola amigos,

Había dejado de redactar aquí, como ya sabréis, después de todas las micro y macro agresiones y acosos que recibí tras publicar mis historias aquí (y luego, por supuesto, empezó a ser moderado).

Recientemente, sin embargo, estaba contribuyendo a un documento que Katherine y Daphne estaban redactando en el que se mostraban consternadas por el hecho de que, después de tanto hablar, esta org parece haber contratado a un 14% más o menos de mujeres este año. Samy ha contratado al 39% por lo que tengo entendido, pero tiene cero incentivos para hacerlo.

Lo que quiero decir es que dejen de redactar sus documentos porque eso no cambia nada. Los OKR de DEI que no sabemos de dónde salen (y que de todas formas nunca se cumplen), las discusiones aleatorias, el “necesitamos más mentores” en lugar de “tenemos que acabar con los entornos tóxicos que nos impiden progresar” las peleas constantes y la educación a tu costa, no importan. Porque la responsabilidad es nula. No hay ningún incentivo para contratar a un 39% de mujeres: tu vida empeora cuando empiezas a defender a las personas infrarrepresentadas, empiezas a enfadar a los otros líderes cuando no quieren darte buenas calificaciones durante la calibración. Es imposible que con más documentos o más conversaciones se consiga algo. Acabamos de tener una investigación sobre los negros con una muestra de exasperación tan emotiva. ¿Sabe lo que ha ocurrido desde entonces? Silenciamiento de la forma más fundamental posible.

¿Ha oído alguna vez que alguien obtenga “feedback” sobre un trabajo a través de un documento privilegiado y confidencial para RRHH? ¿Le parece un procedimiento habitual o sólo le ocurre a personas como yo, que somos deshumanizadas constantemente?

Imagínese lo siguiente: Ha enviado un trabajo a más de 30 investigadores para que le den su opinión, está esperando la opinión de Relaciones Públicas y Política, a quienes avisó antes incluso de redactar el trabajo diciendo “estamos pensando en hacer esto”, trabaja en un plan de revisión pensando en cómo abordar las diferentes opiniones de la gente, no ha tenido noticias de Relaciones Públicas y Política aparte de que le piden actualizaciones (en 2 meses). Una semana antes de irte de vacaciones, ves que en tu calendario aparece una reunión a las 4:30 p.m. PST (esto apareció alrededor de las 2 p.m.). Nadie le dijo de antemano de qué trataba la reunión. Luego, en esa reunión, el jefe de su jefe le dice que “se ha decidido” que tiene que retractarse de este documento antes de la semana que viene, el 27 de noviembre, la semana en la que casi todo el mundo estaría fuera (y una fecha que no tiene nada que ver con el proceso de la conferencia). No merece la pena mantener ninguna conversación al respecto, ya que usted no es alguien cuya humanidad (y mucho menos experiencia reconocida por periodistas, gobiernos, científicos, organizaciones cívicas como la fundación fronteras electrónicas, etc.) sea reconocida o valorada en esta empresa.

Entonces, usted pide más información. ¿Qué opiniones concretas existen? ¿De quién procede? ¿Por qué ahora? ¿Por qué no antes? ¿Puede ir y venir con alguien? ¿Puede entender qué es exactamente lo problemático y qué puede cambiarse?

Y al cabo de un rato le dicen que su jefe puede leerle un documento privilegiado y confidencial y que se supone que usted ni siquiera debe saber quién ha contribuido a este documento, quién ha redactado esta retroalimentación, qué proceso se ha seguido ni nada. Redactas un documento detallado en el que discutes cualquier fragmento de feedback que puedas encontrar, en el que pides preguntas y aclaraciones, y es completamente ignorado. Y se le responde, una vez más, con la orden de retractarse del documento sin atraerle en absoluto.

Entonces intentas atraer una conversación sobre cómo esto no es aceptable y la gente empieza a hacer lo contrario de cualquier tipo de autorreflexión: intentar encontrar chivos expiatorios a los que culpar.

Silenciar así las voces marginadas es lo contrario de los principios de la NAUWU que hemos discutido. Y hacerlo en el contexto de una “IA responsable” añade mucha sal a las heridas. Entiendo que lo único que significa algo en Google son los niveles, he visto cómo mi experiencia ha sido completamente descartada. Pero ahora hay una capa adicional que dice que cualquier persona privilegiada puede decidir que no quiere que tu documento salga a la luz con cero conversación. Así que se te bloquea la posibilidad de añadir tu voz a la comunidad investigadora, al trabajo que haces, además de la otra marginación a la que te enfrentas aquí.

Siempre me asombra cómo la gente puede seguir haciendo una cosa tras otra como ésta y luego darse la vuelta y pedirme algún tipo de trabajo o aportación extra de DEI. Esto me ocurrió el año pasado. Estaba en medio de una demanda potencial para la que Kat Herller y yo contratamos a abogadas feministas que amenazaron con demandar a Google (que fue cuando se echaron atrás; antes de eso los abogados de Google estaban dispuestos a tirarnos debajo del autobús y nuestros líderes seguían las instrucciones) y al día siguiente recibo un “premio de impacto” cualquiera. Pura luz de gas.

Así que si quiere cambiar las cosas, le sugiero que se centre en la responsabilidad de los líderes y que piense qué tipos de presiones pueden aplicarse también desde el exterior. Por ejemplo, creo que el Caucus Negro del Congreso es la entidad que empezó a obligar a las empresas tecnológicas a informar sobre sus cifras de diversidad. Redactar más documentos y decir las cosas una y otra vez le cansará, pero nadie le escuchará.”

Timnit

Y aquí está el correo electrónico que Jeff Dean envió a los Googlers el jueves por la mañana.

“Hola a todos,

Estoy seguro de que muchos de vosotros habéis visto que Timnit Gebru ya no trabaja en Google. Es un momento difícil, sobre todo teniendo en cuenta los importantes temas de investigación en los que participaba y lo mucho que nos importa la investigación responsable de la IA como organización y como empresa.

Como ha habido mucha especulación y malentendidos en las redes sociales, quería compartir más contexto sobre cómo ha llegado a suceder esto, y asegurarles que estamos aquí para apoyarles mientras continúan con la investigación en la que todos están atraídos.

Timnit es coautor de un artículo con cuatro compañeros de Googlers, así como con algunos colaboradores externos, que debía pasar por nuestro proceso de revisión (como ocurre con todos los artículos enviados externamente). Hemos aprobado docenas de ponencias de las que Timnit y/o los otros Googlers han sido autores y luego han publicado, pero como usted sabe, las ponencias a menudo requieren cambios durante el proceso de revisión interna (o incluso se consideran inadecuadas para su presentación). Desgraciadamente, este trabajo en concreto sólo se compartió con un día de antelación a su fecha límite -necesitamos dos semanas para este tipo de revisión- y entonces, en lugar de esperar la opinión del revisor, se aprobó su presentación y se envió.

▷ Lo último (en 2026)
▷ Si te gustó este texto o correo, considera compartirlo con tus amigos. Si te lo reenviaron por correo, considera suscribirte a nuestras publicaciones por email de Derecho empresarialEmprenderDineroMarketing digital y SEO, Ensayos, PolíticasEcologíaCarrerasLiderazgoInversiones y startups, Ciencias socialesDerecho globalHumanidades, Startups, y Sectores económicos, para recibir ediciones futuras.

A continuación, un equipo multidisciplinar revisó el artículo como parte de nuestro proceso habitual y se informó a los autores de que no cumplía nuestros requisitos de publicación y se les explicó por qué. Ignoraba demasiadas investigaciones relevantes: por ejemplo, hablaba del impacto medioambiental de los grandes modelos, pero hacía caso omiso de investigaciones posteriores que mostraban eficiencias mucho mayores. Del mismo modo, planteaba preocupaciones sobre el sesgo de los modelos lingüísticos, pero no tenía en cuenta investigaciones recientes para mitigar estos problemas. Reconocemos que los autores estaban muy decepcionados con la decisión que finalmente tomamos Megan y yo, sobre todo porque ya habían presentado el artículo.

Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):

Timnit respondió con un correo electrónico en el que exigía que se cumplieran una serie de condiciones para que ella pudiera seguir trabajando en Google, entre ellas revelar las identidades de todas las personas con las que Megan y yo habíamos hablado y consultado como parte de la revisión del artículo y los comentarios exactos. Timnit redactó que si no cumplíamos estas exigencias, dejaría Google y trabajaría en una fecha límite. Aceptamos y respetamos su decisión de dimitir de Google.

Dado el papel de Timnit como respetada investigadora y directora de nuestro equipo de IA Ética, me siento mal de que Timnit haya llegado a un punto en el que se sienta así por el trabajo que estamos haciendo. También me siento mal porque cientos de ustedes hayan recibido esta misma semana un correo electrónico de Timnit diciéndoles que dejen de trabajar en programas críticos de DEI. Por favor, no lo hagan. Comprendo la frustración por el ritmo de progreso, pero tenemos un trabajo importante por delante y debemos seguir en ello.

Sé que todos compartimos sinceramente la pasión de Timnit por hacer que la IA sea más equitativa e inclusiva. Sin duda, vaya donde vaya después de Google, hará un gran trabajo y estoy deseando leer sus trabajos y ver lo que consigue.

Gracias por leer y por todo el importante trabajo que sigue haciendo. ”

-Jeff

En 2022, Google despide a otro investigador de IA que supuestamente cuestionó sus hallazgos. Google sigue despidiendo a investigadores de IA en medio de las críticas a su trabajo. Según ha podido saber The New York Times, Google despidió al científico especializado en aprendizaje automático Satrajit Chatterjee en marzo de 2022, poco después de que se negara a publicar un artículo que Chatterjee y otros autores redactaron en el que cuestionaban hallazgos anteriores según los cuales los ordenadores podían diseñar algunos componentes de los chips de forma más eficaz que los humanos. Al parecer, se permitió al científico colaborar en un artículo que rebatía esas afirmaciones después de que él y otros autores expresaran sus reservas, pero fue despedido después de que un comité de resolución rechazara el artículo y los investigadores esperaran llevar el asunto ante el consejero delegado Sundar Pichai y el consejo de administración de Alphabet.

📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras:

Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.

La compañía no ha detallado por qué despidió a Chatterjee, pero dijo al Times que había sido “despedido con causa”. También mantuvo que el documento original había sido “investigado a fondo” y revisado por pares, y que el estudio que cuestionaba las afirmaciones “no cumplía nuestros estándares”.

Independientemente de que la ciencia se sostenga o no, la salida subraya el continuo enfrentamiento entre la dirección de Google y los equipos de IA que impulsan muchos de sus proyectos. Los problemas empezaron en serio cuando Google despidió al especialista en ética Timnit Gebru en 2020 tras una disputa sobre un artículo, y otros dos siguieron su ejemplo. El asunto se agravó cuando el gigante de Internet despidió a Margaret Mitchell a principios de 2021. Aunque Google alegó que Mitchell había violado las políticas de confidencialidad de datos, también criticó públicamente a los ejecutivos y la decisión de despedir a Gebru. Estos despidos llevaron a ingenieros veteranos a abandonar la empresa y exigir reformas, y eso sin contar las protestas en toda la compañía por los contratos militares. Google investigó el despido de Gebru y prometió cambios, pero el despido de Chatterjee podría no aliviar las tensiones.

Revisor de hechos: Mix

Categorías, Inteligencia Artificial, Ética de la ciencia de datos, Plataformas

▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.
▷ Lee Gratis Nuestras Publicaciones
,Si este contenido te interesa, considera recibir gratis nuestras publicaciones por email de Derecho empresarial, Emprender, Dinero, Políticas, Ecología, Carreras, Liderazgo, Ciencias sociales, Derecho global, Marketing digital y SEO, Inversiones y startups, Ensayos, Humanidades, y Sectores económicos, en Substack.

Contenidos Relacionados:

Los de arriba son los elementos relacionados con este contenido de la presente plataforma digital de ciencias sociales.

11 comentarios en «Oficial de Ética»

  1. Sobre el despido en 2022, hay que decir que no es ningún secreto que Google está orgulloso de su investigación en IA. Se afana en pregonar algoritmos que pueden superar a los humanos en campos como el diseño de chips y la detección del cáncer, y sus teléfonos insignia Pixel 6 están construidos en torno a un procesador personalizado centrado en la IA. Cualquier fallo podría obstaculizar significativamente el negocio de Google, por no hablar de empañar su reputación como líder en el desarrollo de IA.

    En ese caso, Google señaló un tweet del periodista del Times Daisuke Wakabayashi como respuesta adicional. Una de las autoras del artículo original afirmó que Chatterjee la acosó e “impugnó el trabajo”, según Wakabayashi. Un abogado de Chatterjee, sin embargo, dijo que su cliente sólo intentaba mantener la “integridad científica”.

    Responder
    • Un “despido justificado” público parecería una reacción exagerada bastante espectacular a que alguien tuviera un desacuerdo académico sobre el rendimiento del ML frente al humano en algún dominio del diseño de chips. Lo suficientemente espectacular como para que esté esencialmente seguro de que hay algo más en la historia.
      Timnit estaba al menos en un área más… tensa.

      Timnit fue despedido por una causa: la causa fue ser un imbécil con sus compañeros de trabajo en repetidas ocasiones (atacó repetidamente a investigadores internos en listas de correo públicas internamente de forma poco profesional). Sigo sin entender por qué Megan y jeff intentaron presentarlo como una dimisión o que se trataba de que ese artículo en concreto no se retirara (Megan ni siquiera entendía la diferencia entre que se retirara un artículo presentado y que se retractara un artículo publicado). Sea como fuere, el resultado de esa situación es: Jeff ya no dirige realmente Research y Megan está permanentemente marginada, y ahora Timnit tiene un instituto financiado de forma independiente en el que puede decir lo que quiera (su postura actual es que los tecbros son eugenistas).

      De verdad creis que la causa fue ser una imbécil con sus compañeros de trabajo en repetidas ocasiones (atacó repetidamente a investigadores internos en listas de correo públicas internamente de forma poco profesional).
      No, la causa fue su ultimátum por correo electrónico exigiendo los nombres de los revisores entre varias otras cosas (a las que ella se refiere como “simples condiciones”) o renunciaba, y luego también enviando correos electrónicos a los Googlers diciéndoles que dejaran de trabajar. El primero fue el correo electrónico al que respondió su jefe diciendo que no iban a cumplir su exigencia y su dimisión fue aceptada inmediatamente dado su otro correo electrónico, en lugar de después de unas vacaciones tranquilas y unos meses de recapitulación como ella quería. (Así es como los apologistas de Gebru justifican definirlo como “despido” en lugar de “renuncia”, para hacerla parecer más víctima).

      Todas esas fueron causas próximas, no causas últimas. No creo que fuera una víctima, no soy un apologista, pero la forma en que google la despidió siguió siendo bastante poco profesional y tuvo algunas consecuencias graves para las personas que lo hicieron que, obviamente, todavía están teniendo lugar hoy en día. Lo que es sorprendente es que si la hubieran puesto en un pip por agredir textualmente a sus compañeros de trabajo, se habría ido en 6-12 meses sin tanto ruido.

      Pocos se dejan engañar realmente por una respuesta PIP como ésta. Yo despediría a cualquiera que tomara la decisión de dar a un activista de tan alto perfil 6-12 meses más de autorización a materiales internos de la empresa y contacto directo con colegas para arremeter contra la empresa con el conocimiento no tan oculto de que está de salida. Ya sabemos que otra colega que simpatizaba con ella intentó exfiltrar material de la empresa después de que Gebru fuera despedida sumariamente. Muchas empresas todavía le escoltarán inmediatamente fuera de las instalaciones si renuncia amistosamente.

      Responder
    • Obviamente, no conozco el contexto completo de por qué se despidió a Satrajit Chatterjee, pero puedo decir que seguí la historia de Timnit Gebru bastante de cerca, y hubo un abismo gigantesco, en mi opinión, entre lo que realmente ocurrió (y por “lo que realmente ocurrió” quiero decir que estoy considerando de forma conservadora sólo las propias declaraciones y tweets de Gebru) y cómo se informó de las cosas en la prensa en general.
      La prensa siempre estará incentivada para informar sobre “el gran Google malo” y hacer que cualquier rescisión suene como una batalla de David contra Goliat. Y, por supuesto, aunque a veces esa narrativa es cierta, ha habido muchos casos en los que he pensado “Estos son algunos de los individuos más tóxicos que puedo imaginar (de nuevo, por sus propias declaraciones), y trabajar con ellos suena como una pesadilla”. Para enfatizar, definitivamente no estoy diciendo que ese sea el caso en el ejemplo actual, pero sí que nadie tiene suficiente información de una forma u otra a menos que esté más familiarizado personalmente con los detalles. Por tanto, las reacciones basadas en lo que está redactado en el artículo no son más que pruebas de Rorschach personales.

      Y es extraño que nadie en los medios cuestionara el artículo de Gebru. Por ejemplo, su cálculo de la huella de carbono de la formación de BERT es ridículo, ya que asume que las empresas formarán a BERT 24×7. Creo que Gebru es una vergüenza para la comunidad porque siempre, quiero decir literalmente siempre, ataca a sus críticos por motivos. ¿Cree que la parcialidad es un problema de datos? Es usted un fanático (véase su disputa con LeCun). ¿Está en desacuerdo con mi valoración sobre un modelo ML? Usted es un hombre blanco opresor (su ataque a un SVP de Google).
      Gebru no es una investigadora. Es una Trofim Lysenko de la era moderna, que lo politiza todo y arma la corrección política.

      La calidad de su trabajo tampoco fue la mejor. Basta con leer el análisis del sesgo de la IA que hizo. No pasaría el escrutinio de un público no graduado y, sin embargo, ella hace un SUSPIRO exagerado y actúa como si estuviera más allá de todo reproche porque tiene CREDENCIALES. A nadie le importan las credenciales. Su estudio tiene que sostenerse por sí mismo.

      Responder
    • El ejemplo de Obama es diferente, además de que su madre era blanca.

      Sesgo es una palabra sobrecargada. Para ser claros, hay sesgo (siempre hay sesgo). Todo modelo siempre tiene sesgo, sólo queremos entenderlo para comprender sus limitaciones. Pero sí, estoy de acuerdo en que la reconstrucción es decentemente fiel. Estoy seguro de que una pérdida de L2 no es tan alta al comparar las imágenes.

      Parte de lo que intentaba decir es que existe un claro sesgo humano al evaluar la reconstrucción. El problema aquí es nuestro previo. Los humanos ya sabemos que la imagen comprimida es Obama porque es un rostro muy conocido. Así que estamos juzgando basándonos en ese previo. Así que hay cierta ironía al hablar del sesgo del modelo cuando no se reconoce el sesgo previo en la evaluación. Deberíamos analizar el sesgo del modelo (quiero decir que hay problemas con la reconstrucción aparte de la cuestión racial, como los dientes), pero también tenemos que tener cuidado al analizar porque nosotros también tenemos un sesgo (que podemos o no querer impartir al modelo).

      Lo que me molesta de esta gente de los sesgos en ML es que es fácil reconocerlos e identificarlos. Es mucho más difícil resolverlos. Parece que hay dos bandos. Los que sólo quieren identificar y los que trabajan en resolverlos. Los primeros suelen decir que trabajan en los sesgos y los segundos suelen decir que trabajan en los datos de cola larga (o a veces en el aprendizaje de pocos/bajos disparos, o incluso en el metalearning). Sí, deberíamos reconocer los sesgos y discutirlos, pero limitarse a gritar a la gente no ayuda a desarrollar los marcos matemáticos necesarios para resolver los problemas.

      No se puede utilizar un cuentagotas y comparar los valores hexadecimales/HSL del color en distintas imágenes con diferente iluminación y decir “Sí, es lo mismo”, de lo contrario los SFX no necesitarían etalonaje[1]. La segunda imagen parece provenir de un entorno muy iluminado, hasta el punto de resaltar su camisa azul (cuello), pero la primera imagen no da ninguna pista de ello y parece menos iluminada (virtualmente).
      Los modelos de IA no tienen un conocimiento implícito de la iluminación ambiental, y si los datos de entrenamiento están excesivamente compuestos por imágenes muy iluminadas, pueden acabar generando imágenes que pertenecen a entornos bien iluminados (tonos de piel de aspecto más claro), pero en contextos de poca luz. Al observar estas imágenes generadas, el ojo humano hace lo que mejor sabe hacer: determinar la corrección gamma pertinente utilizando todas las pistas disponibles.

      [1]. Activos renderizados en el mismo color en todas las condiciones de iluminación de la escena.

      Responder
    • En la batalla de David contra Goliat, David está incentivado a hacer exactamente lo que Google acusa a este investigador. Publicar un hallazgo controvertido que apoye sus creencias, independientemente de si ha sido o no investigado a fondo. Como David, es posible que no disponga de los recursos necesarios para investigar a fondo la historia, sobre todo cuando el proceso de investigación está definido por Goliat.

      Goliat, por supuesto, tiene como un océano de incentivos tóxicos para mantener el status quo, promover su propia Agenda, y Gatekeep David. Entiendo por qué los investigadores quieren trabajar en estas instituciones gigantes. Es más difícil influir en la narrativa si estas instituciones gigantes pueden operar sin obstáculos. Además, como usted menciona, la prensa está incentivada para ponerse del lado de David, ya que es una historia más convincente.

      Es parte del reto de analizar los incentivos, y significa que la mayoría de la gente llega a conclusiones basadas en sus creencias previas. Para llegar a las conclusiones correctas hay que ser capaz de profundizar en la historia más allá de la información de que disponemos para hacerlo.

      Responder
    • No tengo experiencia en investigación ética, así que ésta es una opinión de profano, pero lo que me parece extraño es que los investigadores de ética intenten decidir qué es ético. 2 personas razonables pueden examinar el mismo conjunto de cuestiones éticas, sopesar los posibles pros y contras y llegar a decisiones diferentes sobre qué curso de acción es el ético. No parece ser un campo en el que exista una verdad última. Yo pensaría que un investigador ético debería examinar la tecnología de la IA para determinar las repercusiones éticas que una tecnología, su aplicación o su uso pueden generar, tanto positivas como negativas, para que un responsable de la toma de decisiones pueda sopesarlas adecuadamente. Una vez que intentas determinar cuál consideras que es la decisión ética e insistes en que ésa es la única decisión aceptable que debe tomar otro, ya no eres un investigador sino un defensor. Tener una creencia de lo que es ético y abogar por ello está bien, pero no debe enmarcarse como investigación.

      Responder
    • Algunas noticias sobre la salida de Google de la especialista en ética de la IA Timnit Gebru:

      Timnit afirma que fue despedida, mientras que Google afirma que hizo ciertas demandas y que, si no se cumplían, dimitiría en una fecha posterior. Google aceptó esa dimisión y la hizo efectiva inmediatamente.

      El documento real de Timnit Gebru puede explicar por qué Google la despidió:

      Un documento del que es coautora la ex especialista en ética de la IA de Google, Timnit Gebru, planteaba algunas cuestiones potencialmente espinosas para Google sobre si los modelos lingüísticos de la IA pueden ser demasiado grandes y si las empresas tecnológicas están haciendo lo suficiente para reducir los riesgos potenciales, según MIT Technology Review. El documento también cuestionaba los costes medioambientales y los sesgos inherentes a los grandes modelos lingüísticos.

      Gebru y su equipo presentaron su trabajo, titulado “Sobre los peligros de los loros estocásticos: ¿Pueden ser demasiado grandes los modelos lingüísticos?” para una conferencia de investigación. El miércoles, en una serie de tuits, Gebru afirmó que, tras una revisión interna, se le pidió que se retractara del artículo o que eliminara de él los nombres de los empleados de Google. Dice que pidió a Google condiciones para retirar su nombre del documento, y que si no podían cumplir las condiciones podrían “trabajar en una última fecha”. Gebru dice que entonces recibió un correo electrónico de Google informándole de que “aceptaban su dimisión con efecto inmediato”.

      El jefe de Inteligencia Artificial de Google, Jeff Dean, escribió en un correo electrónico a los empleados que el trabajo “no cumplía nuestros requisitos de publicación”. Redactó que una de las condiciones de Gebru para seguir trabajando en Google era que la empresa le dijera quién había revisado el documento y sus comentarios concretos, algo que se negó a hacer. “Timnit escribió que si no cumplíamos estas exigencias, ella dejaría Google y el trabajo con fecha de finalización. Aceptamos y respetamos su decisión de dimitir de Google”, redactó Dean.

      Gebru dijo a Wired en una entrevista publicada que se sentía censurada. “No vas a tener documentos que hagan feliz a la empresa todo el tiempo y no señalen los problemas”, dijo. “Eso es antitético a lo que significa ser ese tipo de investigador”.

      Responder
      • Sí, todos los hombres son malos actores, no hay más que ver a la directora ejecutiva de Theranos, Elizabeth Holmes, cuya empresa de mil millones de dólares, ya desaparecida, se construyó a base de aceite de serpiente. Oh, espera, ella es cis-normal. Tal vez las mujeres sean igualmente capaces de ser un peligro para la sociedad. Sin embargo, las normas culturales occidentales anteriores han impedido a las mujeres ser CxOs hasta hace poco debido a los movimientos por el sufragio y la igualdad de derechos. Se tarda tiempo en construir una carrera para ser considerado para un puesto de director ejecutivo y nuestros puntos de vista respecto a las bajas por maternidad y paternidad obstaculizan las carreras porque castigamos a quienes se toman ausencias prolongadas del trabajo. En serio, la norma histórica es “que se jodan los niños, si no estás dispuesto a sacrificar su crianza para aumentar la rentabilidad de la empresa, entonces no eres un candidato viable para un puesto ejecutivo”. Como apunte, personalmente creo que nuestros puntos de vista sobre los permisos de maternidad y paternidad están jodidos, pero puede que sólo sea mi amargura por tener que quemar PTO cuando nacieron mis hijos. Lo mismo ocurre con la baja por maternidad de nuestra empresa, en la que inmediatamente después de empezar la baja cesa el sueldo, a los 30 días se suspende la cobertura médica y a los 90 días estás de vuelta en las oficinas o despedida. Por lo que he podido averiguar, la política de mi empresa no sólo es una mierda, sino que además es bastante estándar.

        En fin, volviendo a su post. No me importa en cuántos géneros creas, en todos hay malos actores. Usted ve más malos actores masculinos en puestos de CxO porque hay más hombres en puestos de CxO. Ahora bien, se puede argumentar con éxito que si realmente hubiera igualdad de derechos, entonces debería haber un cambio cultural que permitiera a las mujeres descargar las responsabilidades de la crianza de los hijos para que no tuvieran que poner sus carreras en espera, lo que haría que más mujeres fueran elegibles en los puestos de CxO, lo que debería dar lugar a un poco más de equilibrio de género en ese nivel, pero argumentar que todos los hombres son imbéciles por naturaleza y por lo tanto deben ser excluidos de la consideración para esos puestos no sólo es discriminatorio, sino pura fantasía. No se oye hablar mucho de los buenos CxO masculinos porque, o bien son personas decentes, o bien son cabezas de mierda que no han conseguido tener un éxito salvaje. No he oído hablar mucho de que Jim Whitehurst, Paul Cormier o Mark Shuttleworth sean seres humanos terribles. Quizá sean tipos decentes que hacen un buen trabajo. Realmente, la evidencia abrumadora es que hay unas cuantas bolsas de porquería salvajemente exitosas que obtienen toda la cobertura de las noticias porque tienen éxito mientras son escoria. Esto atrae el mismo tipo de cobertura informativa sensacionalista que los actores y los políticos, en la que los medios de comunicación sólo esperan ese momento de “pillada” en el que puedan sacar a la luz todos los detalles escabrosos de lo terribles que son estas personas y ¡he aquí cómo! Generando así artículos clickbaity sobre todas las pruebas necesarias en los tribunales para despojarles de su riqueza y poder y los sórdidos detalles de sus rarezas habilitadas por el derecho. (Tal vez sea fantasía mía creer que los medios de comunicación y los fiscales del gobierno siguen trabajando para identificar y perseguir a los malos actores; las pruebas recientes parecen apuntar a lo contrario, a que se convierten en idolatrados por los medios de comunicación y protegidos por los fiscales).

      • Probablemente se deba a que las lenguas humanas son a menudo no deterministas y su correcta evaluación requiere un conocimiento contextual de cómo se generaron. Las pistas contextuales no son algo que los ordenadores sepan hacer bien. Por si fuera poco, al aumentar el tamaño del modelo lingüístico es probable que aumente exponencialmente la dependencia del contexto, algo que generalmente se considera no computacional cuando el conjunto de datos se hace grande. Aunque apenas he leído TFS, mi intuición me dice que las matemáticas no respaldan lo que Google quiere hacer, pero Google quiere este mercado para sus asistentes domésticos. Los asistentes domésticos se venden a pesar de su pésimo descifrado del lenguaje por la promesa de que aplicar más tecnología hará que mejore, pero que un ingeniero de Google diga lo contrario, que no hay suficientes recursos computacionales disponibles para hacer que esto funcione tan bien como hablar con un humano real, perjudica su capacidad de vender más dispositivos espía.

      • No es así como lo leo y creo que hay algo de tergiversación en su comentario: El Empleador no está impugnando el periódico. El Empleador está impugnando que se asocie a Google con el periódico. ¿Cómo de ilegítima es esa petición? Incluso le concedieron el beneficio de la duda y le pidieron que se retractara o redactara la afiliación a Google. En respuesta, Google recibió un ultimátum de un empleado: “o el periódico o me voy”. La empresa decidió: “me voy”. ¿Cómo puede ser eso una “argucia”? ¿Es usted de la idea de que una empresa debe ser rehén del ultimátum de cualquier empleado y representar unilateralmente a la empresa?

        Le diré una cosa: el día que un empleado al que yo supervise haga tal ultimátum respecto a publicar algo no autorizado, yo también optaré por irme. Incluso en Europa, eso es desobediencia a una orden directa, lo que constituye un motivo legalmente válido para el despido. Puede que llegue a los tribunales, pero no va a ser un portazo para el empleado.

        Puede leer lo que quiera sobre el despido de un especialista en ética, pero el tipo/la tipa está cobrando. Hay reglas que seguir en cuanto a la representación de la empresa y la imagen pública. Si la persona no está de acuerdo, entonces otro trabajo es más adecuado. No obstante, estoy seguro de que los dólares de Google son de los mejores del mercado e incluso el circuito de conferencias podría no ser tan bueno.

        Dicho todo esto, personalmente evito los productos de google si puedo, y estoy en proceso de alejarme de ellos. Simplemente no son amigables para los negocios y mucho menos para los usuarios. El actual consejero delegado debería estar orgulloso del daño a la marca que ha presidido. Predigo que los males de la nube de Google continuarán debido a la desconfianza general en los compromisos empresariales de Google. También predigo que no serán capaces de abrirse paso en nuevos mercados en los próximos 5 a 10 años, debido a la falta de buena voluntad de los primeros usuarios. ¿Recuerda cómo gmail creció orgánicamente por invitación?

        La cosa es que no le dieron un R&R o una opción real. Le dijeron que se retractara de iure o de facto. No se puede eliminar la autoría de un artículo de conferencia como éste, especialmente después de que haya sido revisado y aceptado. Como mínimo, alguien tiene que ir y presentarlo, después de todo. Y casi todo el mundo allí sabrá quién es y dónde estaba cuando lo redactó, y si no lo saben, lo buscarán. Además, el incumplimiento de las normas puede hacer que tanto ella como los demás autores sean expulsados por deshonestidad intelectual de conferencias de renombre. La conferencia tiene que tener en cuenta su propia reputación y probablemente no le permitiría retirar la autoría, especialmente a los demás, aunque ella quisiera. Así que su alternativa es retractarse del artículo o cambiarlo de una forma que no pueda efectuarse en la mayoría de las circunstancias sin retractarse del artículo. Y hacer eso sin siquiera decir qué es lo que está mal en él es simplemente baboso.

      • ¿He dicho alguna vez que no pudiera ser despedida por insubordinación? Puede estar dentro del alcance de su contrato… Sí, obviamente pueden despedirla. Eso no es lo que se está debatiendo.

        Sigamos, ya hemos hablado de esto una y otra vez. Cumplir órdenes NO ES ÉTICO. Nunca lo ha sido y no lo es ahora. Si tu jefe te ordena que golpees a un anciano y le quites la cartera, el atraco no se convierte de repente en éticamente correcto porque alguien te haya dicho que lo hagas.

        En cuanto a su hombre de paja, permítame que se lo devuelva: Cada vez que un grupo de urbanitas de clase media se niega a gastar su dinero duramente ganado en una obra creada por un imbécil racista, usted llora por la “cultura de la cancelación” y declara que los clientes tienen la obligación moral de dar dinero en efectivo a individuos que consideran repugnantes, ¡pero en cuanto una persona rica exige que se censure algo, usted se pone alerta y declara que la censura no sólo está bien, sino que es un imperativo ético!

        O quizá, sólo quizá, su hombre de paja de la “cultura de la cancelación” ni siquiera sea relevante aquí…

        No, el verdadero presidente de esta situación está en los libros de historia. Esto no es diferente de cuando las tabacaleras ordenaron a sus investigadores que guardaran silencio sobre los riesgos de cáncer [cbsnews.com] o cuando las compañías de gas ocultaron los efectos nocivos de la gasolina con plomo [smithsonianmag.com]. Ahora, al igual que en los ejemplos históricos, tenemos empresas masivas que contratan a investigadores para que realicen estudios relacionados con sus productos y luego intentan silenciar a esos mismos investigadores cuando descubren que la empresa está causando daños. En algunos casos, los científicos e ingenieros han seguido órdenes, han continuado cobrando su cheque y han permitido que un gran número de personas sufran y mueran. En otros casos, como en el de Gebru, los investigadores se han negado a censurar su trabajo.

        Realmente no hay ningún argumento que demuestre que permitir que continúe el daño sea ético, sólo debates sobre qué nivel de acción es justificable para detener el daño y un amplio consenso en que “sólo seguir órdenes” no cambia la ética de sus acciones.

Foro de la Comunidad: ¿Estás satisfecho con tu experiencia? Por favor, sugiere ideas para ampliar o mejorar el contenido, o cómo ha sido tu experiencia:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

▷ Recibe gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Dinero, Políticas, Ecología, Liderazgo, Marketing digital, Startups, Ensayos, Ciencias sociales, Derecho global, Humanidades, y Sectores económicos, en Substack. Cancela cuando quieras.

Este elemento se divide en las siguientes secciones y subsecciones:

Index

Descubre más desde Plataforma de Derecho y Ciencias Sociales

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo