Aplicação de tecnologias Blockchain, big data e IA em soluções de recursos humanos | Tendências de Contratação e Demissão de IA | Perigos potenciais para disputas trabalhistas

Introdução

No mundo de hoje, a inteligência artificial (“AO”) e o Big Data está fazendo uma grande transformação na forma como os trabalhadores são recrutados, contratados, avaliados e até demitidos/demitidos de seus cargos. Afinal, os recursos humanos são frequentemente chamados para lidar com alguns dos aspectos mais complicados e/ou emocionalmente carregados das operações de uma organização.

Impulsionado pelo desafio dos processos trabalhistas tradicionais causados ​​pelo Covid-19, o uso de tecnologias como Blockchain, Big Data e IA se tornaram mais comuns entre as grandes corporações do mundo.

Na era das mídias sociais e dos requisitos de distanciamento social em muitos lugares devido ao COVID-19, os candidatos a emprego agora descobrirão que as tecnologias de emprego desempenham um papel em todas as etapas de sua contratação. O LinkedIn da Microsoft Corporation fornece aos empregadores classificações algorítmicas de candidatos com base em sua adequação para vagas de emprego em seu site. A HireVue, uma startup perto de Salt Lake City, analisa a fala e as expressões faciais dos candidatos em entrevistas em vídeo para reduzir a dependência de currículos. A Goldman Sachs criou sua própria ferramenta de triagem de currículos que combina os candidatos com a divisão para a qual eles seriam mais adequados. A Tesla e o JPMorgan Chase usam a plataforma pymetrics, que substitui currículos por jogos e questionários online, para avaliar candidatos a cargos específicos em sua empresa.

Limitações do uso de IA no processo de emprego

Embora forneça benefícios como conexão remota, economia de tempo e melhor tomada de decisão de RH, a adoção de tecnologias de IA no recrutamento não é isenta de limitações.

Em 2015, a Amazon interrompeu seu experimento com um mecanismo de recrutamento que analisa os currículos dos candidatos a emprego depois de descobrir que o sistema não qualificou candidatos para cargos de desenvolvedor de software e outros cargos técnicos de maneira neutra em termos de gênero.[1]. Isso porque os modelos de computador da Amazon foram treinados para analisar padrões em currículos enviados à empresa, a maioria deles de homens na última década, refletindo o domínio masculino na indústria de tecnologia. Com efeito, o sistema da Amazon ensinou a si mesmo que candidatos do sexo masculino eram preferíveis e penalizou currículos que incluíssem a palavra “feminino”, como em “capitã de clube de xadrez feminino”.

Outro estudo de 2018[2] descobriram que o Face++ e o Microsoft Face API, software que oferece serviços de reconhecimento facial, interpretam os candidatos negros como tendo mais emoções negativas do que os brancos. Enquanto o Face++ interpreta consistentemente os candidatos negros como mais irritados do que os jogadores brancos, a Microsoft interpreta mais facilmente os candidatos negros como desdenhosos quando suas expressões faciais são ambíguas.

Também foram levantadas preocupações em relação a acomodações no local de trabalho para funcionários grávidas, deficientes e religiosos. Na maioria das vezes, os funcionários relevantes tomam a iniciativa de notificar o empregador sobre a necessidade de uma adaptação razoável, e essa conversa pode ser delicada, pessoal e até difícil para os funcionários. Se a interface principal de um funcionário com seu empregador for um aplicativo ou algoritmo, iniciar esse processo pode ser assustador, e os funcionários podem relutar em revelar alguns de seus problemas mais pessoais e protegidos a um chatbot.

cenário legal

Conclui-se que o uso de soluções de IA nas decisões de contratação pode levar a confrontos com a lei, especialmente no campo da antidiscriminação. Esta seção explora brevemente as leis relevantes em várias jurisdições que podem influenciar a adoção de tecnologias no emprego.

leis americanas

Nos Estados Unidos, embora não haja uma nova lei federal para avaliar o uso de IA na contratação, as tecnologias de IA serão avaliadas sob as principais leis de oportunidades iguais de emprego, incluindo o Título VII da Lei de Direitos Civis, a Lei de Discriminação de Idade no Emprego, a Americans with Disabilities Act e leis estaduais equivalentes. Sob a estrutura legal de impacto díspar, as agências de fiscalização analisarão várias ferramentas usadas pelos empregadores e seu impacto. Se as ferramentas tiverem um impacto adverso, o empregador tem a responsabilidade de validar adequadamente essa ferramenta, o que significa provar que a ferramenta está relacionada ao trabalho e exigida pela necessidade do negócio. Há também a obrigação de avaliar se existem alternativas que diminuam o impacto adverso.

Illinois é atualmente o único estado com uma lei que abrange a nova área de tecnologia de recursos humanos. A Lei de Entrevista por Vídeo de Inteligência Artificial, em vigor em janeiro de 2020, exige que os empregadores (i) notifiquem os candidatos antes da entrevista de que a IA pode ser usada para analisar sua entrevista em vídeo e considerar a adequação do candidato ao cargo e (ii) obter o consentimento dos candidatos a usar o sistema de IA para revisar suas entrevistas. O estatuto afirma que um empregador não pode compartilhar vídeos de candidatos e dá aos candidatos o direito de solicitar que seu vídeo seja removido.

Enquanto isso, o Conselho da Cidade de Nova York aprovou um projeto de lei em novembro de 2021 que proíbe o uso de “ferramentas automatizadas de decisão de emprego” para selecionar um candidato ou funcionário para uma decisão de emprego, a menos que realize especificamente uma “auditoria de viés” anual em processos e ferramentas. Multas serão impostas por uso não divulgado ou tendencioso de IA, cobrando de empregadores e fornecedores até US$ 1.500 por violação. A nova lei entrará em vigor em 1º de janeiro de 2023.

leis de singapura

Embora atualmente não tenha leis que abordem especificamente a IA, Cingapura é uma das primeiras a estabelecer diretrizes para garantir que a ética seja aplicada ao design, desenvolvimento e uso da IA ​​para que os resultados sejam explicáveis ​​e não sujeitos a vieses indesejados. Em janeiro de 2019, a Comissão de Proteção de Dados Pessoais (“PDPC”) lançou sua primeira edição do Model AI Governance Framework (“moldura do modelo”), que fornece orientação detalhada e facilmente implementável para organizações do setor privado para abordar questões-chave de ética e governança ao implementar soluções de IA. Em janeiro de 2020, o PDPC lançou a segunda edição do Model Framework.

Os dois princípios orientadores da estrutura são que (i) as decisões tomadas pela IA devem ser “explicáveis, transparentes e justas” e (ii) os sistemas de IA devem ser centrados no ser humano, em outras palavras, o design e a implementação da IA ​​devem proteger a vida das pessoas. vidas. interesses, incluindo sua segurança e bem-estar. Para este fim, a estrutura do modelo fornece orientação em quatro áreas, incluindo (a) estruturas e medidas de governança interna, (b) determinar o nível de envolvimento humano na tomada de decisões com IA, (c) questões de gerenciamento de operações que devem ser consideradas quando desenvolver, selecionar e manter modelos de IA e (d) interação com as partes interessadas e estratégias de comunicação para comunicação e gerenciamento de relacionamentos com as partes interessadas de uma organização.

Embora não seja juridicamente vinculativo, o Modelo de Estrutura traduz princípios éticos em medidas pragmáticas que as empresas podem tomar voluntariamente, o que as ajudaria a implementar a IA de forma responsável e ética.

leis de hong kong

Hong Kong atualmente não possui leis ou regulamentos específicos de IA. O cenário potencial de discriminação no local de trabalho causado pela IA mencionado na seção anterior se enquadraria no escopo das leis existentes que visam à discriminação. Existem dois tipos de discriminação em Hong Kong: (i) discriminação direta, que ocorre quando uma pessoa é tratada de forma menos favorável do que outra por causa de características protegidas, como sexo, gravidez, amamentação, estado civil, deficiência, situação familiar ou raça, e (ii) a discriminação indireta, que surge quando uma condição ou requisito, não justificável, é aplicado a todos, mas na prática afeta negativamente as pessoas que possuem a referida característica protegida.

Os quatro principais decretos antidiscriminação em Hong Kong são o Decreto de Discriminação Sexual (Cap. 480), o Decreto de Discriminação de Deficiência (Cap. 487), o Decreto de Discriminação de Situação Familiar (Cap. 527) e o Decreto de Discriminação (Cap. 527) • discriminação racial (Cap. 602). ). Resta saber como as Portarias se aplicariam a uma alegação de discriminação causada pelo uso de IA no processo de emprego quando tal caso for a tribunal.

principais conclusões

Em vista das armadilhas legais exploradas acima, os empregadores que pretendem confiar em algoritmos, big data ou IA em suas práticas de contratação devem garantir que seus sistemas de IA levem em consideração acomodações razoáveis ​​e não produzam resultados tendenciosos relacionados ao emprego. gênero, deficiência , gravidez e observância religiosa. etc. A equipe de Recursos Humanos deve realizar uma ampla due diligence para entender como a ferramenta de IA funciona e consultar profissionais jurídicos quando tiver dúvidas sobre possíveis conflitos com leis locais antidiscriminação ou privacidade que as ferramentas de IA produzem.

Leave a Comment