A Verdade sobre Algoritmos de Seleção de Candidatos Como a IA Podem Falhar com Você

No algoritmo, seu último livro, a jornalista Hilke Schellmann examina o uso de software para triagem automatizada de currículos e recomendações de promoção, destacando preocupações sobre discriminação.

A IA poderia impedir que os candidatos a emprego sejam contratados, mas não necessariamente roubar seus empregos atuais.

🔥💻 Últimas notícias no mundo da IA e contratação! 🔥💻

Você já se perguntou como os departamentos de RH usam software de automação para filtrar os candidatos a emprego? Bem, prepare-se porque a verdade está prestes a ser revelada. Em seu novo livro, “O Algoritmo”, a repórter investigativa e professora de jornalismo da NYU, Hilke Schellmann, mergulha no mundo da tecnologia de RH e revela os segredos sujos dos algoritmos de filtragem de candidatos.

O lado sombrio da tecnologia de RH

Schellmann nos leva a uma jornada emocionante enquanto ela se passa por uma candidata a emprego para testar várias ferramentas alimentadas por IA usadas no processo de contratação. Desde filtradores de currículos até testes baseados em jogos de vídeo e avaliações de personalidade, ela descobre falhas chocantes nesses algoritmos que não apenas perpetuam preconceitos, mas também não encontram o melhor candidato para o trabalho.

Uma ferramenta, por exemplo, classificou Schellmann como sendo altamente qualificada para um emprego, mesmo que ela dissesse coisas sem sentido em alemão. Outro algoritmo deu a ela altas pontuações por “constância” com base em seu uso do Twitter, mas uma baixa classificação com base em seu perfil do LinkedIn. 😱

⭐️O bom, o ruim e o esperançoso: Insights de Schellmann

Mas não desanime ainda! Schellmann não apenas expõe as falhas; ela também oferece insights encorajadores e dicas práticas para candidatos a emprego sobre como vencer as máquinas. Em uma entrevista, ela compartilha seus pensamentos sobre como a sociedade pode controlar a tecnologia de RH tendenciosa e recuperar o controle do processo de contratação.

🤔 Preocupações do leitor e perguntas candentes 🤔

P: Os algoritmos de filtragem de candidatos podem realmente ser tendenciosos? R: Absolutamente! Esses algoritmos podem propagar preconceitos, absorvendo e reproduzindo preconceitos presentes nos dados de treinamento que lhes são fornecidos. Schellmann descobriu que até mesmo os filtradores de currículos ajustavam pontuações com base em informações raciais, o que é um claro exemplo de tomada de decisão tendenciosa. 🚫🙅‍♀️

P: Quem é o responsável se esses algoritmos discriminarem candidatos? R: A responsabilidade recai sobre as empresas que utilizam esses algoritmos para decisões de contratação. Embora os fornecedores possam afirmar que não tomam a decisão, a realidade é que eles muitas vezes estabelecem cortes automáticos de rejeição com base em pontuações de algoritmos. Portanto, as empresas devem assumir a responsabilidade por qualquer discriminação resultante do uso dessas tecnologias. 💼🤝

P: Como os candidatos a emprego podem recuperar o controle sobre seu processo de candidatura? R: A IA generativa devolveu o poder aos candidatos! Ferramentas como o ChatGPT podem ser usadas para criar melhores currículos, cartas de apresentação e até mesmo se preparar para entrevistas. Os candidatos a emprego também devem ajustar seus materiais de candidatura para corresponder à descrição do trabalho sem copiá-la integralmente. Além disso, entrar em contato com recrutadores em plataformas como o LinkedIn e se inscrever diretamente por meio dos sites das empresas pode aumentar a visibilidade. 📝💪

A duvidosa ciência por trás das ferramentas de contratação com IA

Da Fisonomia à Análise de Expressões Faciais: As Ilusões Inabaláveis

Schellmann traça paralelos intrigantes entre algumas avaliações baseadas em IA e pseudociências antigas como fisonomia e frenologia. Ela destaca a crença profundamente enraizada de que nossos sinais externos, como expressões faciais e linguagem corporal, levam a essência de quem somos. No entanto, ela adverte contra atribuir significado a esses sinais, pois os computadores podem quantificar, mas não compreender verdadeiramente nossas emoções e intenções. 🎭😲

O caminho a seguir: Transparência e responsabilidade

Embora esses algoritmos de contratação possam parecer maravilhas futuristas, eles podem perpetuar preconceitos e tomar decisões arbitrárias sobre o futuro dos candidatos a emprego. Schellmann enfatiza a necessidade de transparência e testes no cenário de contratação com IA. Ela ressalta que uma organização sem fins lucrativos deve surgir como uma autoridade, realizando testes regularmente e compartilhando publicamente os resultados das ferramentas de contratação com IA.

🌟 Impacto e desenvolvimentos futuros: O que está por vir? 🌟

Conforme navegamos pelo mundo da tecnologia e da sociedade, a mudança não apenas é possível, mas também necessária. Schellmann imagina as universidades desempenhando um papel crucial ao reunirem especialistas em questões sociais e técnicas. Além disso, os jornalistas podem usar o jornalismo de dados para descobrir respostas autoritativas para perguntas importantes sobre IA e tecnologia de RH. Juntos, podemos avançar em direção a um processo de contratação mais justo e inclusivo. ✨🤝

Referências:

📢 Vamos Conectar e Compartilhar!

Não guarde essa informação impressionante apenas para você. Compartilhe este artigo com seus amigos, família e comunidades da internet favoritas. Vamos iniciar uma conversa sobre o futuro da IA na contratação! 💬📲