Search and Hit Enter

Esta inteligencia artificial detectará si mientes o exageras en una entrevista de trabajo

Si alguna vez has mentido en una entrevista de trabajo con el objetivo de intentar ganar el puesto o tal vez te has sentido rechazado porque el reclutador parece no tener interés en ti, ahora un nuevo sistema de inteligencia artificial conocido como Herman PRO busca eliminar parte de esos vicios o desafíos en el proceso de contratación de personal.

“La pandemia elevó significativamente las tasas de desempleo. Si queremos apoyar la reactivación económica, los departamentos de recursos humanos deben comenzar a contratar personal, pero con los actuales mecanismos de reclutamiento no lo lograrán o el candidato no será el ideal ”, dice Cory Rieken, directora, en entrevista con Forbes México. de Expansión de Herman PRO y agrega: «Estamos a punto de entrar en un mundo pospandémico, ninguno de los que vivimos hoy sabemos cómo es eso».

Herman Pro fue creado por expertos del mundo de los recursos humanos, que buscaban una tecnología para acelerar el proceso de contratación en las empresas, “una de las tareas más complejas, pero también la más importante”, y que, al no encontrarla, decidieron asóciese con ingenieros expertos de empresas como IBM para crear una solución.

Más que ser una plataforma de reclutamiento digital, Herman PRO, dice Germán García, director para México de la firma, utiliza algoritmos de aprendizaje automático e inteligencia artificial de millones de entrevistas para intentar detectar las habilidades blandas y aptitudes de un trabajador de alguna manera. automático.

En ese sentido, la inteligencia artificial no pregunta al candidato por cuestiones específicas de una vacante o puesto, sino que busca inferir las habilidades blandas del candidato como liderazgo, trabajo en equipo, tolerancia a la frustración, comunicación o similares a través de una “entrevista digital” donde puede encontrar patrones de comportamiento específicos o palabras para crear una calificación.

«El sistema puede decirle ‘dame un ejemplo de cuándo hiciste algo en tu trabajo para hacer crecer el negocio’. Herman Pro no califica la respuesta como buena o mala, no emite juicios, sino que busca patrones en su respuesta. Por ejemplo, hemos detectado que las personas que tienden a mentir tienden a hablar en tiempo presente, mientras que una persona quien realmente está dando ejemplo habla en tiempo pasado porque está recordando el hecho ”, dice García.

El sistema de inteligencia artificial, dice el experto, hace un análisis del comportamiento de la persona frente a la cámara, así como del uso excesivo de adjetivos, verbos o la disposición de las palabras.

El sistema funciona a través de una aplicación móvil que el usuario descarga a su teléfono móvil y, una vez asignada la entrevista, ingresa a la sesión con la diferencia de que del otro lado no hay un ser humano, solo una máquina que graba con la cámara y micrófonos móviles la conversación y un algoritmo, que posteriormente califica al usuario.

La idea, dice Rieken, no es desplazar o reemplazar los departamentos de recursos humanos, sino agilizar el proceso de contratación para permitir que el personal se concentre en talentos seleccionados, reclute perfiles de nivel superior o construya un grupo más grande de candidatos. .

El objetivo, dice García, es que los departamentos de RR.HH. dediquen su tiempo a perfilar mejor a los candidatos y tener mejores prospectos, porque «HermanPRO puede entrevistar a diez o 20 personas al mismo tiempo, no puede».

¿Sin prejuicios?

Según un análisis del Foro Económico Mundial, se ha demostrado que en el mercado laboral estadounidense, “los nombres afroamericanos son discriminados sistemáticamente, mientras que los nombres blancos reciben más devoluciones de llamada para entrevistas. Sin embargo, observamos sesgos no solo debido al error humano, sino también porque los algoritmos cada vez más utilizados por los reclutadores no son neutrales. «

El algoritmo que Amazon usó entre 2014 y 2017 para seleccionar a los solicitantes de empleo supuestamente penalizaba palabras como «mujeres» o los nombres de universidades para mujeres en los CV de los solicitantes.

Tras el escándalo, la empresa decidió no utilizar el mismo sistema de inteligencia artificial. De manera similar, investigadores de Northeastern University, University of California y Upturn encontraron que los sesgos en los algoritmos no solo ocurren dentro de los procesos de selección, sino también en la forma en que las ofertas de trabajo o los anuncios de trabajo digitales se entregan a grupos, géneros o razas específicas, incluso si el puesto es indistinto.

Cuando se le preguntó sobre los mecanismos de control que tiene HermanPro para evitar prejuicios por parte de los perfiles de ciertos candidatos, donde el riesgo no es menor, ya que en el pasado se ha demostrado que la programación detrás de estas herramientas puede ser perjudicial, García explica que en En el En el caso de esta herramienta, se descartan prejuicios ya que el sistema no mira al candidato, sino al idioma o las palabras que utiliza.