(imagem com DR)
As máquinas podem comportar-se como
seres humanos?
Esta questão filosófica não é
amplamente tratada neste artigo, mas vale a pena notar que questões mais amplas
sobre os seres humanos e a nossa relação com as máquinas foram fulcrais para as
primeiras experiências desta área de investigação (ver, por exemplo, Simão,
1969; Dreyfus, 1972; Weizenbaum, 1976), e ainda operam no fundo da
experimentação e aplicação de IA nos dias de hoje.
Central a estas questões é a pergunta
bastante óbvia, mas raramente vocalizada: por que queremos que as
máquinas se comportem como nós e ainda melhor do que nós? Socialmente, o que
falta para precisarmos de tais melhorias? Em todo o caso, embora existam
algumas definições de IA, para efeitos do presente relatório, a definição de
McCarthy será utilizada como uma visão geral para localizar as questões
emergentes epistemológicos.
A definição da Comissão Europeia, tal
como está prevista na sua Comunicação de 2018, é aprovada para este relatório,
segundo a qual a IA "refere-se a sistemas que exibem comportamentos
inteligentes, analisando o seu ambiente e tomando medidas — com algum grau de
autonomia – para atingir objetivos específicos" (Comissão Europeia, 2018).
Outro relatório de 2018 intitulado “Liderança
europeia da inteligência artificial, o caminho para uma visão integrada”
define ainda a IA como um "termo de capa para técnicas associadas à
análise de dados e ao reconhecimento de padrões" (Delponte, 2018, p. 11).
Este relatório, solicitado pela
Comissão da Indústria, Investigação e Energia do Parlamento Europeu, diferencia
a IA de outras tecnologias digitais, na qual "a IA está destinada a
aprender com os seus ambientes para tomar decisões autónomas" (Delponte,
2018, p. 11).
Estas definições facilitam uma
discussão clara sobre o que está em jogo, uma vez que os sistemas e máquinas de
IA estão integrados nos locais de trabalho, onde os sistemas demonstram
competências que permitem a tomada de decisões e a previsão muito mais rápida e
precisamente do que os seres humanos e fornecem comportamentos e assistência
semelhantes ao homem aos trabalhadores.
Há vários níveis de IA agora
discutidos por especialistas: fracos e fortes. 'AI fraca' é onde uma máquina
depende de software para orientar a sua investigação e respostas. Este tipo de
IA não atinge um nível de consciência ou total sensibilidade como tal, mas atua
como um solucionador de problemas dentro de um campo de aplicação específico.
A "IA fraca" aplica-se assim
aos sistemas especializados e ao reconhecimento de texto e imagem. 'AI forte',
também chamada de “IA universal” (Hutter, 2012), por outro lado, refere-se quando
uma máquina pode demonstrar um comportamento que é igual ou superior à
competência e à habilidade dos seres humanos, e este é o tipo de IA que mais
intriga os investigadores, como Alan Turing.
Mesmo antes da conferência de McCarthy
e dos seus colegas (1956) em 1950, já Alan Turing se tinha questionado: "As
máquinas podem pensar?" (Turing, 1950). A fase da IA universal é alcançada
quando um único agente universal pode aprender a comportar-se da melhor forma
em qualquer ambiente, onde as competências universais são demonstradas por um
robô, como andar, ver e falar.
Atualmente, à medida que a capacidade
de memória do computador aumenta e os programas se tornam mais sofisticados, a
IA universal está a tornar-se cada vez mais provável. Este é um avanço que
poderia concluir o processo de automação, pelo que os robôs se tornam tão bons
a trabalhar como as pessoas e não exemplificam as caraterísticas humanas, como
o cansaço ou a doença, e assim por diante.
As pessoas parecem sentir-se mais
confortáveis com a IA fraca, o que melhora as máquinas e significa que se
comportam como assistentes dos seres humanos, em vez de nos substituírem como
trabalhadores ou substituírem a gestão humana.
Agora delineamos a utilização da IA no
trabalho e o potencial e evidência de riscos e benefícios para a SST, com base
em pesquisas baseadas em numa série de entrevistas a peritos que foram realizadas
pelo autor.
2 - IA no local de trabalho
Embora existam possibilidades
significativas de progresso no local de trabalho e de crescimento da
produtividade, existem também questões importantes em termos de segurança e
saúde, uma vez que a IA está integrada nos locais de trabalho. O stresse, a
discriminação, a precariedade acrescida, as perturbações músculo-esqueléticas e
as possibilidades de intensificação do trabalho e a perda de postos de trabalho
já se mostraram como um risco psicossocial, incluindo a violência física nos
locais de trabalho digitalizados (Moore, 2018a).
Estes riscos são exacerbados quando a
IA aumenta as ferramentas tecnológicas já existentes ou são recentemente
introduzidas para a gestão e conceção do local de trabalho. Na verdade, a IA
exagera os riscos de SST nos locais de trabalho digitalizados, pois pode
permitir um maior acompanhamento e rastreio e, assim, pode levar à micro-gestão,
que é uma das principais causas de stresse e de ansiedade (Moore, 2018a).
A IA sublinha o imperativo de dar mais
credibilidade e potencial autoridade ao que Agarwal e colegas (2018) chamam de
"máquinas de previsão", robótica e processos algorítmicos no
trabalho. Mas vale a pena sublinhar que não é a tecnologia isoladamente que
cria benefícios ou riscos na SST. Em vez disso, é a implementação de tecnologias que cria condições negativas
ou positivas.
2.1 - IA em recursos humanos
Na área da execução de negócios de RH,
uma área cada vez mais popular de integração de IA, é chamada de "análise
de pessoas", definida amplamente como o uso de big data e de ferramentas
digitais para "medir, reportar e compreender o desempenho dos
colaboradores, aspetos do planeamento da força de trabalho, gestão de talento e
gestão operacional" (Collins, Fineman e Tsuchida, 2017).
As ferramentas de informatização,
recolha de dados e monitorização permitem às organizações realizar
"análises em tempo real no ponto de necessidade no processo de negócio ...
[e permitir] uma compreensão mais profunda das questões benéficas para o
negócio".
Os algoritmos de máquina de previsão aplicados
a estes processos residem frequentemente numa 'caixa preta' (Pasquale, 2015), e
as pessoas não entendem bem como funcionam, mas, mesmo assim, os programas de
computador têm autoridade para fazer 'previsão[s] por exceção (Agarwal, Gans e
Goldfarb, 2018).
Nem todas as pessoas analíticas têm de
ser, estritamente falando, IA. No entanto, as respostas inteligentes dos
programas às equações algorítmicas permitem a aprendizagem automática, o que
gera previsões e coloca questões associadas que emergem sem intervenção humana,
exceto na fase de entrada de dados, e são IA no sentido da definição da UE,
acima referido.
O big data, há alguns anos, que
tem sido visto como uma área de crescimento lucrativa, pelo que a recolha de
informação sobre tudo, sempre, tem sido um investimento atrativo. Agora, a
grande era do dado está a dar frutos nos círculos de RH, porque os vastos
conjuntos de dados, agora disponíveis, podem ser usados para formar algoritmos,
para formar análises e fazer previsões sobre o comportamento dos trabalhadores
através da aprendizagem automática e, assim, ajudar a tomar decisões de gestão.
Com base nos padrões identificados, a
IA permite que um algoritmo produza soluções e respostas a inquéritos sobre
padrões através de dados muito mais rapidamente do que as pessoas poderiam. As
respostas de aprendizagem automática são muitas vezes diferentes daquelas que
um humano por si só, ou talvez até poderia, gerar.
Os dados sobre os trabalhadores podem
ser recolhidos de várias fontes dentro e fora do local de trabalho, tais como o
número de cliques de teclado, informações das redes sociais, número e conteúdo
de chamadas telefónicas, websites visitados, presença física, locais visitados
fora do local de trabalho através do rastreio de GPS (sistema global de
posicionamento), movimentos em torno do escritório, conteúdos de e-mails e até
mesmo tom de voz e movimentos corporais nos sociométricos (Moore). , 2018a,
2018b).
Também denominada "análise
humana", análise de talentos e "análise de recursos humanos",
numa era de "RH estratégico", esta aplicação de ferramentas via IA é
definida amplamente como o uso de dados individualizados sobre pessoas para
ajudar a gestão e profissionais de RH a tomar decisões sobre recrutamento, ou
seja, quem contratar, para avaliações de desempenho e considerações de
promoção, para identificar quando as pessoas são suscetíveis de deixar os seus
empregos e selecionar futuros líderes.
As pessoas que analisam também são
usadas para procurar padrões entre os dados dos trabalhadores, o que pode
ajudar a identificar as tendências de atendimento, a moral do pessoal e os problemas
de saúde a nível organizacional.
Cerca de 40 % das funções de RH em
empresas internacionais utilizam atualmente aplicações de IA. Estas empresas
têm sede principal nos Estados Unidos, mas algumas organizações europeias e
asiáticas também estão a bordo. Um inquérito da PwC mostra que cada vez mais
empresas globais começam a ver o valor da IA no apoio à gestão da força de
trabalho (PwC, 2018a).
Um relatório mostra que 32 % dos
departamentos de pessoal das empresas tecnológicas e outros estão a redesenhar
organizações com a ajuda da IA para otimizar "para a adaptabilidade e
aprendizagem e para melhor integrar os conhecimentos obtidos a partir do
feedback dos colaboradores e da tecnologia" (Kar, 2018).
Pesquisas recentes da IBM indicam que,
nas 10 maiores economias do mundo, mesmo que 120 milhões de trabalhadores
possam precisar de voltar a ser treinados, formados e requalificados para lidar
com a IA e com a automação inteligente. Este relatório indica que dois terços
dos CEO acreditam que a IA vai impulsionar o valor em RH (IBM, 2018).
Um relatório da Deloitte mostra que
71% das empresas internacionais consideram a análise das pessoas como uma
grande prioridade para as suas organizações (Collins, Fineman e Tsuchida,
2017), porque deve permitir que as organizações não só forneçam bons
conhecimentos empresariais, mas também lidem com o que tem sido chamado de
"problema das pessoas" (ibid.).
Os "problemas das pessoas"
também são chamados de "riscos de pessoas" (Houghton e Green, 2018),
que estão divididos em sete dimensões num relatório do Chartered Institute for
Personnel Development (CIPD) (Houghton and Green, 2018) como:
1. Gestão de talentos,
2. Saúde e segurança,
3. Ética dos trabalhadores,
4. Diversidade e igualdade,
5. Relações com os trabalhadores,
6. Continuidade das empresas,
7. Risco para a reputação.
Mas talvez as pessoas não sejam o
único "problema". Com base na definição original de IA, na qual se prevê
que as máquinas eventualmente tenham a capacidade de se comportarem como um ser
humano, se os seres humanos forem discriminados e tendenciosos, então não nos
devemos surpreender quando a IA fornece respostas tendenciosas.
Por outras palavras, a aprendizagem
automática funciona apenas com base nos dados que é alimentado, e se esses
dados revelarem práticas de contratação e despedimento discriminatórias
passadas, então os resultados do processo algorítmico também serão
discriminatórios.
Se as informações recolhidas sobre os
trabalhadores não forem repletas de informações qualitativas sobre as
experiências de vida dos indivíduos e a consulta com os trabalhadores, poderão
ser tomadas decisões desleais (ver abaixo para mais informações sobre esta matéria).
As práticas de RH reforçadas pela IA
podem ajudar os gestores a obter uma sabedoria aparentemente objetiva sobre as
pessoas mesmo antes de as contratarem, desde que a gestão tenha acesso a dados
sobre potenciais trabalhadores, o que tem implicações significativas na
adaptação da proteção dos trabalhadores e na prevenção dos riscos de SST a
nível individual. Idealmente, as ferramentas de análise de pessoas podem ajudar
os empregadores a "medir, reportar e compreender o desempenho dos
colaboradores, aspetos do planeamento da força de trabalho, gestão de talentos
e gestão operacional" (Collins, Fineman e Tsuchida, 2017).
Com efeito, a tomada de decisões
algorítmicas em análise de pessoas poderia ser usada para apoiar os
trabalhadores, alinhando o feedback do desempenho dos colaboradores e os custos
de desempenho — e os custos da mão de obra — com a estratégia empresarial e o
apoio a trabalhadores específicos (Aral et al., 2012, citado em Houghton e
Green, 2018, p. 5). Os trabalhadores devem ser pessoalmente capacitados por
terem acesso a novas formas de dados que os ajudem a identificar áreas de
melhoria, que estimulem o desenvolvimento pessoal e que atinjam um maior
envolvimento.
No entanto, se os processos de tomada
de decisão algorítmica em pessoas analíticas não envolverem intervenção humana
e consideração ética, esta ferramenta de recursos humanos poderia expor os
trabalhadores a riscos estruturais, físicos e psicossociais acrescidos e a stresse.
Como é que os trabalhadores podem ter a certeza de que as decisões estão a ser
tomadas de forma justa, precisa e honesta, se não têm acesso aos dados que o
seu empregador detém e utiliza?
Os riscos de stresse e ansiedade
surgem se os trabalhadores sentirem que as decisões estão a ser tomadas com
base em números e dados a que não têm acesso nem poder. Isto é particularmente
preocupante se os dados de análise de pessoas conduzem a reestruturações no
local de trabalho, substituição de empregos, alterações na descrição do emprego
e afins.
É provável que a análise das pessoas
aumente o stresse dos trabalhadores se os dados forem utilizados em avaliações
e gestão de desempenho sem a devida diligência no processo e implementação,
levando a questões sobre a microgestão e os trabalhadores que se sentem
"espiados". Se os trabalhadores souberem que os seus dados estão a
ser lidos para detetar talentos ou para decidir possíveis despedimentos, podem
sentir-se pressionados a melhorar o seu desempenho e a começar a trabalhar em
excesso, colocando riscos para a SST.
Um perito em participação dos
trabalhadores indicou que a recolha de dados dos trabalhadores para a tomada de
decisões, como a verificada na análise de pessoas, criou as questões mais
urgentes que surgem com a IA nos locais de trabalho. Muitas vezes, os conselhos
de empresa não têm conhecimento das possíveis utilizações de tais instrumentos
de gestão. Ou, os sistemas estão a ser implementados sem consultar conselhos de
empresa e trabalhadores. Surgem ainda mais riscos de SST, como o stresse dos
trabalhadores e a perda de postos de trabalho, quando as tecnologias são
implementadas à pressa e sem consulta e formação ou comunicação adequadas.
Neste contexto, é interessante
considerar um projeto executado na sede da IG Metall, em que os currículos de
formação no local de trabalho estão a ser revistos em 2019 no contexto da
Industrie 4.0. (ver também secção 3.4).
Os resultados demonstram que a
formação precisa de ser atualizada não só para preparar os trabalhadores para
riscos físicos, como tem sido padrão na formação de SST da indústria pesada,
mas também para os riscos mentais e psicossociais introduzidos pela
digitalização no trabalho, que inclui aplicações de análise de pessoas.
Outra forma de análise de pessoas
envolve filmar entrevistas de emprego. Esta prática é levada a cabo por
organizações como a Nike, a Unilever e as Escolas Públicas atlânticas. Estas
empresas estão a usar produtos que permitem aos empregadores entrevistar
candidatos em câmara, em que a IA é usada para julgar pistas verbais e não
verbais. Um desses produtos é feito por um grupo chamado HireVue e é utilizado
por mais de 600 empresas.
O objetivo é reduzir o enviesamento
que pode surgir se, por exemplo, os níveis de energia de um entrevistado forem
baixos ou se o gestor de contratação tiver mais afinidade para um entrevistado
com base em idade, raça e demografia semelhantes. No entanto, existem
evidências de que as preferências dos gestores de contratação anteriores se
refletem na contratação, e os homens brancos heterossexuais são, revela um
relatório do Business Insider, a preferência pela contratação, outras coisas
iguais (Feloni, 2017).
Se os dados fornecidos a um algoritmo
refletirem o enviesamento dominante ao longo do tempo, então pode marcar alguém
com expressões faciais 'em grupo' mais altas e dar uma classificação mais baixa
a outras pistas ligadas à orientação sexual, idade e género que não se
assemelham a um homem branco.
No
geral, a análise de pessoas representa tanto benefícios como riscos para a SST.
Uma vez que esta ferramenta utiliza algoritmos, as máquinas devem ser sujeitas
a testes extensivos antes de serem utilizadas para qualquer uma das aplicações
de RH delineadas. Outra possibilidade é que um algoritmo de análise de pessoas
seja projetado especificamente para eliminar preconceitos, o que não é uma
tarefa fácil.
As
avaliações de risco já estão a ser experimentadas em sistemas criminosos em que
a IA informa os conselhos de condenação e liberdade condicional para tentar
eliminar o preconceito. A IBM publicou recentemente uma ferramenta que pretende
igualmente reduzir os riscos de discriminação. Espera-se que este tipo de
iniciativas tratem dos riscos crescentes para a SST na tomada de decisões
assistidas pela IA. No entanto, a força da IA é também a sua fraqueza.
Nota: Tradução da responsabilidade do Departamento de SST da UGT
Aceda à versão original Aqui.
0 comentários:
Enviar um comentário