chocolate
Madmaxista
- Desde
- 30 Ene 2009
- Mensajes
- 5.426
- Reputación
- 18.984
En efecto, el sistema de Amazon aprendió que los candidatos masculinos eran preferibles. Se penalizaron los currículos que incluían la palabra "mujeres", como en "capitán del club de ajedrez para mujeres". Y degradó a los graduados de dos universidades femeninas, según personas relacionadas con el tema. No especificaron los nombres de las universidades. Amazon cambió los programas para hacerlos neutrales a estos términos particulares. Pero eso no era garantía de que las máquinas no idearan otras formas de clasificar a los candidatos...
SAN FRANCISCO (Reuters) - Los especialistas en aprendizaje automático de Amazon.com Inc. (AMZN.O) descubrieron un gran problema: a su nuevo motor de reclutamiento no le gustaban las mujeres.
El equipo había estado construyendo programas informáticos desde 2014 para revisar el currículum de los solicitantes de empleo con el objetivo de mecanizar la búsqueda de los mejores talentos, dijeron a Reuters cinco personas familiarizadas con el esfuerzo.
La automatización ha sido clave para el dominio del comercio electrónico de Amazon, ya sea dentro de almacenes o impulsando decisiones de precios. La herramienta experimental de contratación de la compañía usó inteligencia artificial para otorgar puntajes de candidatos de trabajo de una a cinco estrellas, de manera muy similar a como los compradores califican productos en Amazon, dijeron algunas de las personas.
"Todos querían este santo grial", dijo una de las personas. "Literalmente querían que fuera un motor en el que te daré 100 hojas de vida, escupirán los cinco primeros y los contrataremos".
Pero para el año 2015, la compañía se dio cuenta de que su nuevo sistema no estaba calificando a los candidatos para los trabajos de desarrollador de software y otros puestos técnicos de manera neutral al género.
Esto se debe a que los modelos de computadora de Amazon fueron capacitados para evaluar a los solicitantes al observar los patrones en los currículos enviados a la compañía durante un período de 10 años. La mayoría provino de hombres, un reflejo del dominio masculino en la industria de la tecnología.
En efecto, el sistema de Amazon enseñó que los candidatos masculinos eran preferibles. Se penalizaron los currículos que incluían la palabra "mujeres", como en "capitán de clubes de ajedrez para mujeres". Y degradó a los graduados de dos universidades para mujeres, según personas familiarizadas con el tema. No especificaron los nombres de las escuelas.
Amazon editó los programas para hacerlos neutrales a estos términos particulares. Pero eso no era garantía de que las máquinas no idearan otras formas de clasificar a los candidatos que pudieran resultar discriminatorias, dijeron las personas.
La compañía de Seattle finalmente disolvió el equipo a principios del año pasado porque los ejecutivos perdieron la esperanza del proyecto, según la gente, que habló bajo condición de anonimato. Los reclutadores de Amazon observaron las recomendaciones generadas por la herramienta al buscar nuevas contrataciones, pero nunca confiaron únicamente en esas clasificaciones, dijeron.
Amazon se negó a comentar sobre el motor de reclutamiento o sus desafíos, pero la compañía dice que está comprometida con la diversidad y la igualdad en el lugar de trabajo.
El experimento de la compañía, que Reuters es el primero en informar, ofrece un estudio de caso sobre las limitaciones del aprendizaje automático. También sirve como una lección para la creciente lista de grandes compañías, incluyendo Hilton Worldwide Holdings Inc (HLT.N) y Goldman Sachs Group Inc (GS.N) que buscan automatizar partes del proceso de contratación.
Un 55 por ciento de los gerentes de recursos humanos de EE. UU. Dijeron que la inteligencia artificial, o IA, sería una parte regular de su trabajo en los próximos cinco años, según una encuesta realizada en 2017 por la firma de software de talentos CareerBuilder.
Los empleadores siempre han soñado con aprovechar la tecnología para ampliar la red de contratación y reducir la dependencia de las opiniones subjetivas de los reclutadores humanos. Pero los científicos informáticos como Nihar Shah, que enseña aprendizaje automático en la Universidad Carnegie Mellon, dicen que todavía hay mucho trabajo por hacer.
Presentación de diapositivas (6 imágenes)
"Cómo garantizar que el algoritmo es justo, cómo asegurarse de que el algoritmo sea realmente interpretable y explicable, eso todavía está bastante lejos", dijo.
LENGUAJE MASCULINO
El experimento de Amazon comenzó en un momento crucial para el minorista en línea más grande del mundo. El aprendizaje automático estaba ganando terreno en el mundo de la tecnología, gracias a un aumento en el poder de cómputo de bajo costo. Y el departamento de Recursos Humanos de Amazon estaba a punto de embarcarse en una serie de contrataciones: desde junio de 2015, la plantilla global de la compañía se ha triplicado con creces a 575,700 trabajadores, según muestran los documentos regulatorios.
Así que creó un equipo en el centro de ingeniería de Edimburgo en Amazon que creció hasta una docena de personas. Su objetivo era desarrollar una IA que pudiera rastrear rápidamente la web y detectar candidatos que valga la pena reclutar, dijeron las personas familiarizadas con el asunto.
El grupo creó 500 modelos de computadora enfocados en funciones y ubicaciones específicas del trabajo. Enseñaron a cada uno a reconocer unos 50,000 términos que aparecieron en los currículos de los candidatos pasados. Los algoritmos aprendieron a asignar poca importancia a las habilidades que eran comunes en los solicitantes de TI, como la capacidad de escribir varios códigos de computadora, dijeron las personas.
En cambio, la tecnología favoreció a los candidatos que se describían a sí mismos usando verbos que se encuentran con mayor frecuencia en los currículos de ingenieros masculinos, como "ejecutados" y "capturados", dijo una persona.
El sesgo de género no fue el único problema. Las personas dijeron que los problemas con los datos que respaldaban los juicios de los modelos significaban que los candidatos no calificados a menudo se recomendaban para todo tipo de trabajos. Como la tecnología arrojó resultados casi al azar, Amazon cerró el proyecto, dijeron.
¿EL PROBLEMA, O LA CURA?
Otras empresas están avanzando, subrayando el entusiasmo de los empleadores por aprovechar la inteligencia artificial para la contratación.
Kevin Parker, director ejecutivo de HireVue, una empresa emergente cerca de Salt Lake City, dijo que la automatización está ayudando a las empresas a mirar más allá de las mismas redes de reclutamiento en las que siempre han confiado. Su firma analiza el habla y las expresiones faciales de los candidatos en entrevistas en video para reducir la dependencia de los currículos.
"No ibas a volver a los mismos lugares antiguos; no ibas a volver solo a las escuelas de la Ivy League ", dijo Parker. Los clientes de su compañía incluyen Unilever PLC (ULVR.L) y Hilton.
Goldman Sachs ha creado su propia herramienta de análisis de currículum vitae que trata de hacer coincidir a los candidatos con la división en la que serían los "más adecuados", dijo la compañía.
LinkedIn de Microsoft Corp (MSFT.O), la red profesional más grande del mundo, ha ido más allá. Ofrece a los empleadores clasificaciones algorítmicas de los candidatos en función de su ajuste para las ofertas de trabajo en su sitio.
Sin embargo, John Jersin, vicepresidente de LinkedIn Talent Solutions, dijo que el servicio no reemplaza a los reclutadores tradicionales.
“Sin duda, no confiar en cualquier sistema de inteligencia artificial hoy para tomar una decisión de contratar por su cuenta”, dijo. "La tecnología aún no está lista".
Algunos activistas dicen que están preocupados por la tras*parencia en la IA. La American Civil Liberties Union está desafiando una ley que permite el procesamiento penal de los investigadores y periodistas que prueban la contratación de algoritmos de sitios web para la discriminación.
"Nos estamos enfocando cada vez más en la equidad algorítmica como un problema", dijo Rachel Goodman, abogada del Programa de Justicia Racial en la ACLU.
Aun así, Goodman y otros críticos de AI reconocieron que podría ser extremadamente difícil demandar a un empleador por la contratación automática: los candidatos a puestos de trabajo nunca sabrían que se estaba utilizando.
En cuanto a Amazon, la compañía logró salvar algo de lo que aprendió de su experimento de IA fallido. Ahora utiliza una "versión muy diluida" del motor de reclutamiento para ayudar con algunas tareas rudimentarias, incluida la selección de perfiles de candidatos duplicados de bases de datos, dijo una de las personas familiarizadas con el proyecto.
Otro dijo que se ha formado un nuevo equipo en Edimburgo para dar otra oportunidad al examen automatizado de empleo, esta vez con un enfoque en la diversidad.
Amazon scraps secret AI recruiting tool that showed bias against women | Reuters
SAN FRANCISCO (Reuters) - Los especialistas en aprendizaje automático de Amazon.com Inc. (AMZN.O) descubrieron un gran problema: a su nuevo motor de reclutamiento no le gustaban las mujeres.
El equipo había estado construyendo programas informáticos desde 2014 para revisar el currículum de los solicitantes de empleo con el objetivo de mecanizar la búsqueda de los mejores talentos, dijeron a Reuters cinco personas familiarizadas con el esfuerzo.
La automatización ha sido clave para el dominio del comercio electrónico de Amazon, ya sea dentro de almacenes o impulsando decisiones de precios. La herramienta experimental de contratación de la compañía usó inteligencia artificial para otorgar puntajes de candidatos de trabajo de una a cinco estrellas, de manera muy similar a como los compradores califican productos en Amazon, dijeron algunas de las personas.
"Todos querían este santo grial", dijo una de las personas. "Literalmente querían que fuera un motor en el que te daré 100 hojas de vida, escupirán los cinco primeros y los contrataremos".
Pero para el año 2015, la compañía se dio cuenta de que su nuevo sistema no estaba calificando a los candidatos para los trabajos de desarrollador de software y otros puestos técnicos de manera neutral al género.
Esto se debe a que los modelos de computadora de Amazon fueron capacitados para evaluar a los solicitantes al observar los patrones en los currículos enviados a la compañía durante un período de 10 años. La mayoría provino de hombres, un reflejo del dominio masculino en la industria de la tecnología.
En efecto, el sistema de Amazon enseñó que los candidatos masculinos eran preferibles. Se penalizaron los currículos que incluían la palabra "mujeres", como en "capitán de clubes de ajedrez para mujeres". Y degradó a los graduados de dos universidades para mujeres, según personas familiarizadas con el tema. No especificaron los nombres de las escuelas.
Amazon editó los programas para hacerlos neutrales a estos términos particulares. Pero eso no era garantía de que las máquinas no idearan otras formas de clasificar a los candidatos que pudieran resultar discriminatorias, dijeron las personas.
La compañía de Seattle finalmente disolvió el equipo a principios del año pasado porque los ejecutivos perdieron la esperanza del proyecto, según la gente, que habló bajo condición de anonimato. Los reclutadores de Amazon observaron las recomendaciones generadas por la herramienta al buscar nuevas contrataciones, pero nunca confiaron únicamente en esas clasificaciones, dijeron.
Amazon se negó a comentar sobre el motor de reclutamiento o sus desafíos, pero la compañía dice que está comprometida con la diversidad y la igualdad en el lugar de trabajo.
El experimento de la compañía, que Reuters es el primero en informar, ofrece un estudio de caso sobre las limitaciones del aprendizaje automático. También sirve como una lección para la creciente lista de grandes compañías, incluyendo Hilton Worldwide Holdings Inc (HLT.N) y Goldman Sachs Group Inc (GS.N) que buscan automatizar partes del proceso de contratación.
Un 55 por ciento de los gerentes de recursos humanos de EE. UU. Dijeron que la inteligencia artificial, o IA, sería una parte regular de su trabajo en los próximos cinco años, según una encuesta realizada en 2017 por la firma de software de talentos CareerBuilder.
Los empleadores siempre han soñado con aprovechar la tecnología para ampliar la red de contratación y reducir la dependencia de las opiniones subjetivas de los reclutadores humanos. Pero los científicos informáticos como Nihar Shah, que enseña aprendizaje automático en la Universidad Carnegie Mellon, dicen que todavía hay mucho trabajo por hacer.
Presentación de diapositivas (6 imágenes)
"Cómo garantizar que el algoritmo es justo, cómo asegurarse de que el algoritmo sea realmente interpretable y explicable, eso todavía está bastante lejos", dijo.
LENGUAJE MASCULINO
El experimento de Amazon comenzó en un momento crucial para el minorista en línea más grande del mundo. El aprendizaje automático estaba ganando terreno en el mundo de la tecnología, gracias a un aumento en el poder de cómputo de bajo costo. Y el departamento de Recursos Humanos de Amazon estaba a punto de embarcarse en una serie de contrataciones: desde junio de 2015, la plantilla global de la compañía se ha triplicado con creces a 575,700 trabajadores, según muestran los documentos regulatorios.
Así que creó un equipo en el centro de ingeniería de Edimburgo en Amazon que creció hasta una docena de personas. Su objetivo era desarrollar una IA que pudiera rastrear rápidamente la web y detectar candidatos que valga la pena reclutar, dijeron las personas familiarizadas con el asunto.
El grupo creó 500 modelos de computadora enfocados en funciones y ubicaciones específicas del trabajo. Enseñaron a cada uno a reconocer unos 50,000 términos que aparecieron en los currículos de los candidatos pasados. Los algoritmos aprendieron a asignar poca importancia a las habilidades que eran comunes en los solicitantes de TI, como la capacidad de escribir varios códigos de computadora, dijeron las personas.
En cambio, la tecnología favoreció a los candidatos que se describían a sí mismos usando verbos que se encuentran con mayor frecuencia en los currículos de ingenieros masculinos, como "ejecutados" y "capturados", dijo una persona.
El sesgo de género no fue el único problema. Las personas dijeron que los problemas con los datos que respaldaban los juicios de los modelos significaban que los candidatos no calificados a menudo se recomendaban para todo tipo de trabajos. Como la tecnología arrojó resultados casi al azar, Amazon cerró el proyecto, dijeron.
¿EL PROBLEMA, O LA CURA?
Otras empresas están avanzando, subrayando el entusiasmo de los empleadores por aprovechar la inteligencia artificial para la contratación.
Kevin Parker, director ejecutivo de HireVue, una empresa emergente cerca de Salt Lake City, dijo que la automatización está ayudando a las empresas a mirar más allá de las mismas redes de reclutamiento en las que siempre han confiado. Su firma analiza el habla y las expresiones faciales de los candidatos en entrevistas en video para reducir la dependencia de los currículos.
"No ibas a volver a los mismos lugares antiguos; no ibas a volver solo a las escuelas de la Ivy League ", dijo Parker. Los clientes de su compañía incluyen Unilever PLC (ULVR.L) y Hilton.
Goldman Sachs ha creado su propia herramienta de análisis de currículum vitae que trata de hacer coincidir a los candidatos con la división en la que serían los "más adecuados", dijo la compañía.
LinkedIn de Microsoft Corp (MSFT.O), la red profesional más grande del mundo, ha ido más allá. Ofrece a los empleadores clasificaciones algorítmicas de los candidatos en función de su ajuste para las ofertas de trabajo en su sitio.
Sin embargo, John Jersin, vicepresidente de LinkedIn Talent Solutions, dijo que el servicio no reemplaza a los reclutadores tradicionales.
“Sin duda, no confiar en cualquier sistema de inteligencia artificial hoy para tomar una decisión de contratar por su cuenta”, dijo. "La tecnología aún no está lista".
Algunos activistas dicen que están preocupados por la tras*parencia en la IA. La American Civil Liberties Union está desafiando una ley que permite el procesamiento penal de los investigadores y periodistas que prueban la contratación de algoritmos de sitios web para la discriminación.
"Nos estamos enfocando cada vez más en la equidad algorítmica como un problema", dijo Rachel Goodman, abogada del Programa de Justicia Racial en la ACLU.
Aun así, Goodman y otros críticos de AI reconocieron que podría ser extremadamente difícil demandar a un empleador por la contratación automática: los candidatos a puestos de trabajo nunca sabrían que se estaba utilizando.
En cuanto a Amazon, la compañía logró salvar algo de lo que aprendió de su experimento de IA fallido. Ahora utiliza una "versión muy diluida" del motor de reclutamiento para ayudar con algunas tareas rudimentarias, incluida la selección de perfiles de candidatos duplicados de bases de datos, dijo una de las personas familiarizadas con el proyecto.
Otro dijo que se ha formado un nuevo equipo en Edimburgo para dar otra oportunidad al examen automatizado de empleo, esta vez con un enfoque en la diversidad.
Amazon scraps secret AI recruiting tool that showed bias against women | Reuters
Última edición: