Subscribe:

Pages

quarta-feira, 7 de outubro de 2020

Documento de Discussão SST E O FUTURO DO TRABALHO: BENEFÍCIOS E RISCOS DE FERRAMENTAS DE INTELIGÊNCIA ARTIFICIAL NOS LOCAIS DE TRABALHO - Parte II

 


(imagem com DR)


As máquinas podem comportar-se como seres humanos?

 

Esta questão filosófica não é amplamente tratada neste artigo, mas vale a pena notar que questões mais amplas sobre os seres humanos e a nossa relação com as máquinas foram fulcrais para as primeiras experiências desta área de investigação (ver, por exemplo, Simão, 1969; Dreyfus, 1972; Weizenbaum, 1976), e ainda operam no fundo da experimentação e aplicação de IA nos dias de hoje.

 

Central a estas questões é a pergunta bastante óbvia, mas raramente vocalizada: por que queremos que as máquinas se comportem como nós e ainda melhor do que nós? Socialmente, o que falta para precisarmos de tais melhorias? Em todo o caso, embora existam algumas definições de IA, para efeitos do presente relatório, a definição de McCarthy será utilizada como uma visão geral para localizar as questões emergentes epistemológicos.

 

A definição da Comissão Europeia, tal como está prevista na sua Comunicação de 2018, é aprovada para este relatório, segundo a qual a IA "refere-se a sistemas que exibem comportamentos inteligentes, analisando o seu ambiente e tomando medidas — com algum grau de autonomia – para atingir objetivos específicos" (Comissão Europeia, 2018).

 

Outro relatório de 2018 intitulado “Liderança europeia da inteligência artificial, o caminho para uma visão integrada” define ainda a IA como um "termo de capa para técnicas associadas à análise de dados e ao reconhecimento de padrões" (Delponte, 2018, p. 11).

 

Este relatório, solicitado pela Comissão da Indústria, Investigação e Energia do Parlamento Europeu, diferencia a IA de outras tecnologias digitais, na qual "a IA está destinada a aprender com os seus ambientes para tomar decisões autónomas" (Delponte, 2018, p. 11).

 

Estas definições facilitam uma discussão clara sobre o que está em jogo, uma vez que os sistemas e máquinas de IA estão integrados nos locais de trabalho, onde os sistemas demonstram competências que permitem a tomada de decisões e a previsão muito mais rápida e precisamente do que os seres humanos e fornecem comportamentos e assistência semelhantes ao homem aos trabalhadores.

 

Há vários níveis de IA agora discutidos por especialistas: fracos e fortes. 'AI fraca' é onde uma máquina depende de software para orientar a sua investigação e respostas. Este tipo de IA não atinge um nível de consciência ou total sensibilidade como tal, mas atua como um solucionador de problemas dentro de um campo de aplicação específico.

 

A "IA fraca" aplica-se assim aos sistemas especializados e ao reconhecimento de texto e imagem. 'AI forte', também chamada de “IA universal” (Hutter, 2012), por outro lado, refere-se quando uma máquina pode demonstrar um comportamento que é igual ou superior à competência e à habilidade dos seres humanos, e este é o tipo de IA que mais intriga os investigadores, como Alan Turing.

 

Mesmo antes da conferência de McCarthy e dos seus colegas (1956) em 1950, já Alan Turing se tinha questionado: "As máquinas podem pensar?" (Turing, 1950). A fase da IA universal é alcançada quando um único agente universal pode aprender a comportar-se da melhor forma em qualquer ambiente, onde as competências universais são demonstradas por um robô, como andar, ver e falar.

 

Atualmente, à medida que a capacidade de memória do computador aumenta e os programas se tornam mais sofisticados, a IA universal está a tornar-se cada vez mais provável. Este é um avanço que poderia concluir o processo de automação, pelo que os robôs se tornam tão bons a trabalhar como as pessoas e não exemplificam as caraterísticas humanas, como o cansaço ou a doença, e assim por diante.

 

As pessoas parecem sentir-se mais confortáveis com a IA fraca, o que melhora as máquinas e significa que se comportam como assistentes dos seres humanos, em vez de nos substituírem como trabalhadores ou substituírem a gestão humana.

 

Agora delineamos a utilização da IA no trabalho e o potencial e evidência de riscos e benefícios para a SST, com base em pesquisas baseadas em numa série de entrevistas a peritos que foram realizadas pelo autor.

 

2 - IA no local de trabalho

 

Embora existam possibilidades significativas de progresso no local de trabalho e de crescimento da produtividade, existem também questões importantes em termos de segurança e saúde, uma vez que a IA está integrada nos locais de trabalho. O stresse, a discriminação, a precariedade acrescida, as perturbações músculo-esqueléticas e as possibilidades de intensificação do trabalho e a perda de postos de trabalho já se mostraram como um risco psicossocial, incluindo a violência física nos locais de trabalho digitalizados (Moore, 2018a).

 

Estes riscos são exacerbados quando a IA aumenta as ferramentas tecnológicas já existentes ou são recentemente introduzidas para a gestão e conceção do local de trabalho. Na verdade, a IA exagera os riscos de SST nos locais de trabalho digitalizados, pois pode permitir um maior acompanhamento e rastreio e, assim, pode levar à micro-gestão, que é uma das principais causas de stresse e de ansiedade (Moore, 2018a).

 

A IA sublinha o imperativo de dar mais credibilidade e potencial autoridade ao que Agarwal e colegas (2018) chamam de "máquinas de previsão", robótica e processos algorítmicos no trabalho. Mas vale a pena sublinhar que não é a tecnologia isoladamente que cria benefícios ou riscos na SST. Em vez disso, é a implementação  de tecnologias que cria condições negativas ou positivas.

 

 

 

2.1 - IA em recursos humanos

 

Na área da execução de negócios de RH, uma área cada vez mais popular de integração de IA, é chamada de "análise de pessoas", definida amplamente como o uso de big data e de ferramentas digitais para "medir, reportar e compreender o desempenho dos colaboradores, aspetos do planeamento da força de trabalho, gestão de talento e gestão operacional" (Collins, Fineman e Tsuchida, 2017).

 

As ferramentas de informatização, recolha de dados e monitorização permitem às organizações realizar "análises em tempo real no ponto de necessidade no processo de negócio ... [e permitir] uma compreensão mais profunda das questões benéficas para o negócio".

 

Os algoritmos de máquina de previsão aplicados a estes processos residem frequentemente numa 'caixa preta' (Pasquale, 2015), e as pessoas não entendem bem como funcionam, mas, mesmo assim, os programas de computador têm autoridade para fazer 'previsão[s] por exceção (Agarwal, Gans e Goldfarb, 2018).

 

Nem todas as pessoas analíticas têm de ser, estritamente falando, IA. No entanto, as respostas inteligentes dos programas às equações algorítmicas permitem a aprendizagem automática, o que gera previsões e coloca questões associadas que emergem sem intervenção humana, exceto na fase de entrada de dados, e são IA no sentido da definição da UE, acima referido.

 

O big data, há alguns anos, que tem sido visto como uma área de crescimento lucrativa, pelo que a recolha de informação sobre tudo, sempre, tem sido um investimento atrativo. Agora, a grande era do dado está a dar frutos nos círculos de RH, porque os vastos conjuntos de dados, agora disponíveis, podem ser usados para formar algoritmos, para formar análises e fazer previsões sobre o comportamento dos trabalhadores através da aprendizagem automática e, assim, ajudar a tomar decisões de gestão.

 

Com base nos padrões identificados, a IA permite que um algoritmo produza soluções e respostas a inquéritos sobre padrões através de dados muito mais rapidamente do que as pessoas poderiam. As respostas de aprendizagem automática são muitas vezes diferentes daquelas que um humano por si só, ou talvez até poderia, gerar.

 

Os dados sobre os trabalhadores podem ser recolhidos de várias fontes dentro e fora do local de trabalho, tais como o número de cliques de teclado, informações das redes sociais, número e conteúdo de chamadas telefónicas, websites visitados, presença física, locais visitados fora do local de trabalho através do rastreio de GPS (sistema global de posicionamento), movimentos em torno do escritório, conteúdos de e-mails e até mesmo tom de voz e movimentos corporais nos sociométricos (Moore). , 2018a, 2018b).

 

Também denominada "análise humana", análise de talentos e "análise de recursos humanos", numa era de "RH estratégico", esta aplicação de ferramentas via IA é definida amplamente como o uso de dados individualizados sobre pessoas para ajudar a gestão e profissionais de RH a tomar decisões sobre recrutamento, ou seja, quem contratar, para avaliações de desempenho e considerações de promoção, para identificar quando as pessoas são suscetíveis de deixar os seus empregos e selecionar futuros líderes.

 

As pessoas que analisam também são usadas para procurar padrões entre os dados dos trabalhadores, o que pode ajudar a identificar as tendências de atendimento, a moral do pessoal e os problemas de saúde a nível organizacional.

 

Cerca de 40 % das funções de RH em empresas internacionais utilizam atualmente aplicações de IA. Estas empresas têm sede principal nos Estados Unidos, mas algumas organizações europeias e asiáticas também estão a bordo. Um inquérito da PwC mostra que cada vez mais empresas globais começam a ver o valor da IA no apoio à gestão da força de trabalho (PwC, 2018a).

 

Um relatório mostra que 32 % dos departamentos de pessoal das empresas tecnológicas e outros estão a redesenhar organizações com a ajuda da IA para otimizar "para a adaptabilidade e aprendizagem e para melhor integrar os conhecimentos obtidos a partir do feedback dos colaboradores e da tecnologia" (Kar, 2018).

 

Pesquisas recentes da IBM indicam que, nas 10 maiores economias do mundo, mesmo que 120 milhões de trabalhadores possam precisar de voltar a ser treinados, formados e requalificados para lidar com a IA e com a automação inteligente. Este relatório indica que dois terços dos CEO acreditam que a IA vai impulsionar o valor em RH (IBM, 2018).

 

Um relatório da Deloitte mostra que 71% das empresas internacionais consideram a análise das pessoas como uma grande prioridade para as suas organizações (Collins, Fineman e Tsuchida, 2017), porque deve permitir que as organizações não só forneçam bons conhecimentos empresariais, mas também lidem com o que tem sido chamado de "problema das pessoas" (ibid.).

 

Os "problemas das pessoas" também são chamados de "riscos de pessoas" (Houghton e Green, 2018), que estão divididos em sete dimensões num relatório do Chartered Institute for Personnel Development (CIPD) (Houghton and Green, 2018) como:

 

1. Gestão de talentos,

2. Saúde e segurança,

3. Ética dos trabalhadores,

4. Diversidade e igualdade,

5. Relações com os trabalhadores,

6. Continuidade das empresas,

7. Risco para a reputação.

 

Mas talvez as pessoas não sejam o único "problema". Com base na definição original de IA, na qual se prevê que as máquinas eventualmente tenham a capacidade de se comportarem como um ser humano, se os seres humanos forem discriminados e tendenciosos, então não nos devemos surpreender quando a IA fornece respostas tendenciosas.

 

Por outras palavras, a aprendizagem automática funciona apenas com base nos dados que é alimentado, e se esses dados revelarem práticas de contratação e despedimento discriminatórias passadas, então os resultados do processo algorítmico também serão discriminatórios.

 

Se as informações recolhidas sobre os trabalhadores não forem repletas de informações qualitativas sobre as experiências de vida dos indivíduos e a consulta com os trabalhadores, poderão ser tomadas decisões desleais (ver abaixo para mais informações sobre esta matéria).

 

As práticas de RH reforçadas pela IA podem ajudar os gestores a obter uma sabedoria aparentemente objetiva sobre as pessoas mesmo antes de as contratarem, desde que a gestão tenha acesso a dados sobre potenciais trabalhadores, o que tem implicações significativas na adaptação da proteção dos trabalhadores e na prevenção dos riscos de SST a nível individual. Idealmente, as ferramentas de análise de pessoas podem ajudar os empregadores a "medir, reportar e compreender o desempenho dos colaboradores, aspetos do planeamento da força de trabalho, gestão de talentos e gestão operacional" (Collins, Fineman e Tsuchida, 2017).

 

Com efeito, a tomada de decisões algorítmicas em análise de pessoas poderia ser usada para apoiar os trabalhadores, alinhando o feedback do desempenho dos colaboradores e os custos de desempenho — e os custos da mão de obra — com a estratégia empresarial e o apoio a trabalhadores específicos (Aral et al., 2012, citado em Houghton e Green, 2018, p. 5). Os trabalhadores devem ser pessoalmente capacitados por terem acesso a novas formas de dados que os ajudem a identificar áreas de melhoria, que estimulem o desenvolvimento pessoal e que atinjam um maior envolvimento.

 

No entanto, se os processos de tomada de decisão algorítmica em pessoas analíticas não envolverem intervenção humana e consideração ética, esta ferramenta de recursos humanos poderia expor os trabalhadores a riscos estruturais, físicos e psicossociais acrescidos e a stresse. Como é que os trabalhadores podem ter a certeza de que as decisões estão a ser tomadas de forma justa, precisa e honesta, se não têm acesso aos dados que o seu empregador detém e utiliza?

 

Os riscos de stresse e ansiedade surgem se os trabalhadores sentirem que as decisões estão a ser tomadas com base em números e dados a que não têm acesso nem poder. Isto é particularmente preocupante se os dados de análise de pessoas conduzem a reestruturações no local de trabalho, substituição de empregos, alterações na descrição do emprego e afins.

 

É provável que a análise das pessoas aumente o stresse dos trabalhadores se os dados forem utilizados em avaliações e gestão de desempenho sem a devida diligência no processo e implementação, levando a questões sobre a microgestão e os trabalhadores que se sentem "espiados". Se os trabalhadores souberem que os seus dados estão a ser lidos para detetar talentos ou para decidir possíveis despedimentos, podem sentir-se pressionados a melhorar o seu desempenho e a começar a trabalhar em excesso, colocando riscos para a SST.

 

Um perito em participação dos trabalhadores indicou que a recolha de dados dos trabalhadores para a tomada de decisões, como a verificada na análise de pessoas, criou as questões mais urgentes que surgem com a IA nos locais de trabalho. Muitas vezes, os conselhos de empresa não têm conhecimento das possíveis utilizações de tais instrumentos de gestão. Ou, os sistemas estão a ser implementados sem consultar conselhos de empresa e trabalhadores. Surgem ainda mais riscos de SST, como o stresse dos trabalhadores e a perda de postos de trabalho, quando as tecnologias são implementadas à pressa e sem consulta e formação ou comunicação adequadas.

 

Neste contexto, é interessante considerar um projeto executado na sede da IG Metall, em que os currículos de formação no local de trabalho estão a ser revistos em 2019 no contexto da Industrie 4.0. (ver também secção 3.4).

 

Os resultados demonstram que a formação precisa de ser atualizada não só para preparar os trabalhadores para riscos físicos, como tem sido padrão na formação de SST da indústria pesada, mas também para os riscos mentais e psicossociais introduzidos pela digitalização no trabalho, que inclui aplicações de análise de pessoas.

 

Outra forma de análise de pessoas envolve filmar entrevistas de emprego. Esta prática é levada a cabo por organizações como a Nike, a Unilever e as Escolas Públicas atlânticas. Estas empresas estão a usar produtos que permitem aos empregadores entrevistar candidatos em câmara, em que a IA é usada para julgar pistas verbais e não verbais. Um desses produtos é feito por um grupo chamado HireVue e é utilizado por mais de 600 empresas.

 

O objetivo é reduzir o enviesamento que pode surgir se, por exemplo, os níveis de energia de um entrevistado forem baixos ou se o gestor de contratação tiver mais afinidade para um entrevistado com base em idade, raça e demografia semelhantes. No entanto, existem evidências de que as preferências dos gestores de contratação anteriores se refletem na contratação, e os homens brancos heterossexuais são, revela um relatório do Business Insider, a preferência pela contratação, outras coisas iguais (Feloni, 2017).

 

Se os dados fornecidos a um algoritmo refletirem o enviesamento dominante ao longo do tempo, então pode marcar alguém com expressões faciais 'em grupo' mais altas e dar uma classificação mais baixa a outras pistas ligadas à orientação sexual, idade e género que não se assemelham a um homem branco.

 

No geral, a análise de pessoas representa tanto benefícios como riscos para a SST. Uma vez que esta ferramenta utiliza algoritmos, as máquinas devem ser sujeitas a testes extensivos antes de serem utilizadas para qualquer uma das aplicações de RH delineadas. Outra possibilidade é que um algoritmo de análise de pessoas seja projetado especificamente para eliminar preconceitos, o que não é uma tarefa fácil.

 

As avaliações de risco já estão a ser experimentadas em sistemas criminosos em que a IA informa os conselhos de condenação e liberdade condicional para tentar eliminar o preconceito. A IBM publicou recentemente uma ferramenta que pretende igualmente reduzir os riscos de discriminação. Espera-se que este tipo de iniciativas tratem dos riscos crescentes para a SST na tomada de decisões assistidas pela IA. No entanto, a força da IA é também a sua fraqueza.


Nota: Tradução da responsabilidade do Departamento de SST da UGT

Aceda à versão original Aqui.

0 comentários:

Enviar um comentário