{"id":4023,"date":"2025-02-19T00:31:32","date_gmt":"2025-02-19T03:31:32","guid":{"rendered":"https:\/\/gpmat-ufmt.com.br\/?p=4023"},"modified":"2025-02-19T00:31:33","modified_gmt":"2025-02-19T03:31:33","slug":"a-discriminacao-algoritmica-na-selecao-ao-emprego","status":"publish","type":"post","link":"https:\/\/gpmat-ufmt.com.br\/index.php\/2025\/02\/19\/a-discriminacao-algoritmica-na-selecao-ao-emprego\/","title":{"rendered":"A discrimina\u00e7\u00e3o algor\u00edtmica na sele\u00e7\u00e3o ao emprego"},"content":{"rendered":"\n<div class=\"wp-block-group\"><div class=\"wp-block-group__inner-container is-layout-constrained wp-block-group-is-layout-constrained\">\n<p><strong>Carla Reita Faria Leal<br>Antonio Raul Alencar<\/strong><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignright size-large is-resized\"><img fetchpriority=\"high\" decoding=\"async\" width=\"684\" height=\"1024\" src=\"http:\/\/gpmat-ufmt.com.br\/wp-content\/uploads\/2025\/02\/WhatsApp-Image-2025-02-13-at-08.22.00-1-684x1024.jpeg\" alt=\"\" class=\"wp-image-3949\" style=\"width:265px;height:auto\" srcset=\"https:\/\/gpmat-ufmt.com.br\/wp-content\/uploads\/2025\/02\/WhatsApp-Image-2025-02-13-at-08.22.00-1-684x1024.jpeg 684w, https:\/\/gpmat-ufmt.com.br\/wp-content\/uploads\/2025\/02\/WhatsApp-Image-2025-02-13-at-08.22.00-1-200x300.jpeg 200w, https:\/\/gpmat-ufmt.com.br\/wp-content\/uploads\/2025\/02\/WhatsApp-Image-2025-02-13-at-08.22.00-1-768x1151.jpeg 768w, https:\/\/gpmat-ufmt.com.br\/wp-content\/uploads\/2025\/02\/WhatsApp-Image-2025-02-13-at-08.22.00-1-1025x1536.jpeg 1025w, https:\/\/gpmat-ufmt.com.br\/wp-content\/uploads\/2025\/02\/WhatsApp-Image-2025-02-13-at-08.22.00-1-1000x1498.jpeg 1000w, https:\/\/gpmat-ufmt.com.br\/wp-content\/uploads\/2025\/02\/WhatsApp-Image-2025-02-13-at-08.22.00-1-500x749.jpeg 500w, https:\/\/gpmat-ufmt.com.br\/wp-content\/uploads\/2025\/02\/WhatsApp-Image-2025-02-13-at-08.22.00-1.jpeg 1068w\" sizes=\"(max-width: 684px) 100vw, 684px\" \/><\/figure><\/div><\/div><\/div>\n\n\n\n<div class=\"wp-block-group\"><div class=\"wp-block-group__inner-container is-layout-constrained wp-block-group-is-layout-constrained\">\n<p class=\"has-text-align-justify\">Resultado da ado\u00e7\u00e3o de t\u00e9cnicas de intelig\u00eancia artificial, como a aprendizagem de m\u00e1quina, a discrimina\u00e7\u00e3o algor\u00edtmica ou digital, conforme apontam os pesquisadores Nat\u00e1lia Criado e Jos\u00e9 M. Such, \u00e9 uma forma de discrimina\u00e7\u00e3o na qual decis\u00f5es tomadas por algoritmos tratam usu\u00e1rios de forma injusta, anti\u00e9tica, ou, de algum modo, diferenciada, sem que essa diferen\u00e7a se justifique, em raz\u00e3o de seus dados pessoais, como: n\u00edvel de renda, educa\u00e7\u00e3o, idade, g\u00eanero e outras caracter\u00edsticas , sejam elas sens\u00edveis ou n\u00e3o. Isso acontece, pois, cada vez mais, a tomada de decis\u00f5es em diversas \u00e1reas estrat\u00e9gicas da vida humana, como as finan\u00e7as, os servi\u00e7os e o pr\u00f3prio acesso ao mercado de trabalho, \u00e9 transferida para m\u00e1quinas sofisticadas. Os sistemas automatizados de elegibilidade, os algoritmos de classifica\u00e7\u00e3o e os modelos de risco preditivos s\u00e3o utilizados com frequ\u00eancia cada vez maior para decidir aspectos importantes de nossas vidas, como, por exemplo, quem obt\u00e9m um financiamento ou quem ser\u00e1 selecionado para uma determinada vaga de emprego. Para se ter uma compreens\u00e3o melhor do problema, podemos citar o caso da empresa Amazon que, em 2018, teve sua ferramenta de sele\u00e7\u00e3o de pessoal apontada como discriminat\u00f3ria. O sistema de sele\u00e7\u00e3o, constru\u00eddo a partir de t\u00e9cnicas de machine learning \u2013 ou aprendizado de m\u00e1quina \u2013, detectou que nos \u00faltimos 10 anos a empresa havia contratado um n\u00famero muito maior de homens do que de mulheres para seus postos de trabalho. Com essa informa\u00e7\u00e3o, o algoritmo estabeleceu um padr\u00e3o de contra\u00e7\u00e3o e passou a preferir a sele\u00e7\u00e3o de homens para a ocupa\u00e7\u00e3o das vagas abertas, em rela\u00e7\u00e3o a mulheres, em um claro vi\u00e9s sexista. Outro exemplo bastante claro desses casos foi apontado por pesquisadores de universidade e instituto de pesquisa norte &#8211; americanos que, em 2015, verificaram uma esp\u00e9cie de direcionamento na publicidade relativa a vagas de empregos na web. O estudo demonstrou que an\u00fancios com vagas de maior remunera\u00e7\u00e3o apareciam com maior frequ\u00eancia para usu\u00e1rios do g\u00eanero masculino, enquanto as vagas de menor remunera\u00e7\u00e3o eram exibidas com mais assiduidade aos perfis femininos. Al\u00e9m disso, talvez o exemplo mais cr\u00edtico a ser analisado diga respeito a um teste de personalidade aplicado por diversas empresas nos EUA que se assemelhava a um teste m\u00e9dico &#8211;  psicol\u00f3gico e sinalizava pessoas que sofriam de algum transtorno mental, ainda que essas pessoas estivessem em acompanhamento e tratamento m\u00e9dico efetivo, tais indiv\u00edduos eram exclu\u00eddos dos processos seletivos, e por conseguinte, do mercado de trabalho. Nesse sentido, \u00e9 importante observar que o trabalhador na presta\u00e7\u00e3o laboral n\u00e3o busca apenas um meio de subsistir, mas tamb\u00e9m a realiza\u00e7\u00e3o nas \u00e1reas pessoal, profissional e social, o que \u00e9 obstado a esses candidatos em raz\u00e3o da pr\u00e1tica discriminat\u00f3ria. O problema abordado, emergente da modernidade, encontra alguma tutela normativa na Lei Geral de Prote\u00e7\u00e3o de Dados que veda o tratamento discriminat\u00f3rio de dados pessoais, como com as informa\u00e7\u00f5es relacionadas nos curr\u00edculos dos candidatos. Em conson\u00e2ncia, a Lei n.\u00ba 9.029\/1995 pro\u00edbe a ado\u00e7\u00e3o de qualquer pr\u00e1tica discriminat\u00f3ria e limitativa para efeito de acesso \u00e0 rela\u00e7\u00e3o de trabalho ou de sua manuten\u00e7\u00e3o. Tais leis, a nosso ver, podem ser invocadas para coibir pr\u00e1ticas discriminat\u00f3rias automatizadas, cujo potencial ofensivo \u00e9 maximizado em raz\u00e3o do tratamento massivo de informa\u00e7\u00e3o. Diante desse cen\u00e1rio, e considerando que as ferramentas de sele\u00e7\u00e3o automatizadas j\u00e1 representam, segundo estudiosos, um neg\u00f3cio de 500 milh\u00f5es de d\u00f3lares anuais, tendente a crescer de 10 a 15% ao ano, a discrimina\u00e7\u00e3o algor\u00edtmica \u00e9 uma quest\u00e3o que tende a se tornar mais frequente, demandando vigil\u00e2ncia e aprimoramento dos mecanismos de fiscaliza\u00e7\u00e3o, orienta\u00e7\u00e3o e monitoramento no que se refere ao tratamento de dados do candidato ao emprego Isso somente \u00e9 poss\u00edvel atrav\u00e9s do est\u00edmulo a pr\u00e1ticas de governan\u00e7a, especialmente da transpar\u00eancia ativa e passiva, e da presta\u00e7\u00e3o de contas aos acionistas e \u00e0 sociedade, evitando que os algoritmos se tornem verdadeiras caixas pretas, perpetuadoras de desigualdades hist\u00f3ricas.<br>Carla Reita Faria Leal e Antonio Raul Alencar s\u00e3o membros do Grupo de Pesquisa sobre meio ambiente de trabalho da UFMT, o GPMAT.<\/p>\n<\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Carla Reita Faria LealAntonio Raul Alencar Resultado da ado\u00e7\u00e3o de t\u00e9cnicas de intelig\u00eancia artificial, como a aprendizagem de m\u00e1quina, a discrimina\u00e7\u00e3o algor\u00edtmica ou digital, conforme apontam os pesquisadores Nat\u00e1lia Criado e Jos\u00e9 M. Such, \u00e9 uma forma de discrimina\u00e7\u00e3o na qual decis\u00f5es tomadas por algoritmos tratam usu\u00e1rios de forma injusta, anti\u00e9tica, ou, de algum modo,&#8230; <span class=\"more\"><a class=\"more-link\" href=\"https:\/\/gpmat-ufmt.com.br\/index.php\/2025\/02\/19\/a-discriminacao-algoritmica-na-selecao-ao-emprego\/\">Continue reading <span class=\"meta-nav\">&#8594;<\/span><\/a><\/span><\/p>\n","protected":false},"author":3,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_editorskit_title_hidden":false,"_editorskit_reading_time":0,"_editorskit_is_block_options_detached":false,"_editorskit_block_options_position":"{}","footnotes":""},"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/posts\/4023"}],"collection":[{"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/comments?post=4023"}],"version-history":[{"count":1,"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/posts\/4023\/revisions"}],"predecessor-version":[{"id":4024,"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/posts\/4023\/revisions\/4024"}],"wp:attachment":[{"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/media?parent=4023"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/categories?post=4023"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/gpmat-ufmt.com.br\/index.php\/wp-json\/wp\/v2\/tags?post=4023"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}