3.4 - Fórum Económico Mundial e RGPD
O
Fórum Económico Mundial (WEF) Global Future Council on Human Rights and
Technology informou, em 2018, que mesmo quando são usados bons conjuntos de
dados para criar algoritmos existem riscos consideráveis de ocorrer
discriminação, como os seguintes (WEF, 2018):
1. Escolher
o modelo errado;
2.
Construir um modelo com caraterísticas inadvertidamente discriminatórias;
3.
Ausência de supervisão e envolvimento humano;
4.
Sistemas imprevisíveis e inescrutáveis;
5.
Discriminação sem controlo e intencional.
O
WEF sublinha que existe uma necessidade distinta de "auto-governação mais
ativa por parte das empresas privadas", que está em consonância com a
Declaração Tripartida de Princípios da OIT relativa às Empresas Multinacionais
e à Política Social — 5ª Edição (Rev. 2017), e que fornece uma orientação
direta para as empresas nas áreas das práticas de trabalho sustentáveis,
responsáveis e inclusivas e da política social em torno destas, segundo a qual
o Objetivo de Desenvolvimento Sustentável (ODS) visa alcançar ambientes de
trabalho seguros e seguros para todos os trabalhadores até 2030.
A prevenção de discriminações injustas e ilegais deve ser claramente assegurada à medida que a IA é cada vez mais introduzida nos locais de trabalho, e os relatórios do WEF (2018) e da OIT acima mencionados são vitais para orientar esse processo em curso.
O
primeiro erro que uma empresa pode cometer ao usar a IA, e que pode levar à
discriminação listada pelo WEF, encontra-se numa situação em que um utilizador
aplica o mesmo algoritmo a dois problemas que podem por si só não ter contextos
ou pontos de dados idênticos.
Um
possível exemplo no local de trabalho pode ser onde são consideradas potenciais
contratações usando um algoritmo que procura pistas sobre tipos de
personalidade através de pesquisas nas redes sociais, em vídeos que detetam
movimentos faciais ou outros dados que são recolhidos em conjuntos de dados do
curriculum vitae.
No
entanto, se, por exemplo, o algoritmo estiver à procura de pessoas
extrovertidas para um trabalho de call center, o mesmo algoritmo não seria
apropriado para encontrar o assistente de laboratório certo, onde a conversação
não é inerente à descrição do trabalho. Embora a aplicação do algoritmo não
conduza necessariamente a uma discriminação ilegal como tal, não é difícil
extrapolar as possibilidades de afetação errada.
O
segundo erro - "construir um modelo com características inadvertidamente
discriminatórias" - pode referir-se, por exemplo, à utilização de um banco
de dados que já exemplifica a discriminação.
Por
exemplo, no Reino Unido, o fosso salarial entre homens e mulheres tem sido
exposto recentemente, revelando que há anos que as mulheres trabalham usufruindo
salários mais baixos, sendo que em alguns casos, fazem o mesmo trabalho que os
homens, recebendo um salário inferior.
Se
os dados que demonstram esta tendência fossem usados para criar um algoritmo
para tomar decisões sobre a contratação, a máquina "aprenderia" que
as mulheres deviam receber menos. Isto demonstra que as máquinas não podem
fazer juízos éticos independentemente da intervenção humana. Com efeito, há uma
crescente área de investigação que demonstra que a discriminação não é eliminada
pela IA na tomada de decisões e na previsão, mas sim que a codificação de dados
perpetua os problemas (Noble, 2018).
O
terceiro erro sublinha a intervenção humana, que agora é necessária em toda a
Europa. Em maio de 2018, o RGPD tornou-se um requisito, pelo que se aplica o
consentimento dos trabalhadores para a recolha e para a utilização de dados.
Embora o RGPD olhe principalmente para os direitos dos dados dos consumidores,
existem aplicações significativas para o local de trabalho, porque as decisões
no local de trabalho não podem ser tomadas apenas através de processos
automatizados.
A
secção 4 do RGPD descreve o "Direito à tomada de decisões individuais de
objeção e automatizada". Artigo 22.o, «Tomada de decisão individual
automatizada, incluindo perfis», indica que:
- O titular
dos dados tem o direito de não estar sujeito a uma decisão baseada unicamente
no tratamento automatizado, incluindo perfis, que produza efeitos jurídicos que
lhe digam respeito ou que o afetem de forma significativa.
As
bases do regulamento, enumeradas nas primeiras secções do documento, deixam
claro que:
- O
titular dos dados tem o direito de não estar sujeito a uma decisão, que pode
incluir uma medida, avaliando aspetos pessoais que lhe digam respeito, que se
baseia unicamente no tratamento automatizado e que produz efeitos jurídicos que
lhe digam respeito ou que lhe afetam igualmente, tais como... práticas de recrutamento
sem qualquer intervenção humana.
Esse tratamento inclui perfis que consistam em qualquer forma de tratamento automatizado de dados pessoais que avaliem os aspetos pessoais de uma pessoa singular, nomeadamente para analisar ou prever aspetos relativos ao desempenho do titular dos dados no trabalho... fiabilidade ou comportamento, localização ou movimentos, sempre que produza efeitos legais que lhe digam respeito ou que o afetem de forma semelhante.
A
não aplicação destes critérios pode conduzir a decisões discriminatórias injustas
ou ilegais.
Quanto
ao quarto erro, "sistemas imprevisíveis e inescrutáveis", a descrição
do relatório do WEF (2018) indica que "quando um ser humano toma uma
decisão, como contratar ou não alguém, podemos perguntar por que razão decidiu
de uma forma ou de outra".
Obviamente,
uma máquina não pode discutir a sua "lógica" para as decisões que
atinge com base na extração de dados. A eliminação de juízos qualificados e a
falta de intervenção humana criam, por conseguinte, um caminho claro para a
discriminação.
O
erro final na implementação da IA pode ser quando ocorre uma
"discriminação não controlada e intencional". Isto pode acontecer,
por exemplo, quando uma empresa não quer contratar mulheres que possam
engravidar.
Embora
esta posição explícita não se sustentasse em tribunal, um sistema de
aprendizagem automática poderia fornecer táticas secretas para fazê-lo
acontecer através de um algoritmo projetado para filtrar um subconjunto de
mulheres candidatas onde isso poderia ser o caso, com base em dados de idade e
de relacionamento. Não é difícil ver como isto abre a porta não só aos riscos,
mas também à probabilidade, de ocorrer discriminação ilegal.
3.5 -
Formação para IA e SST
A IG
Metall está a trabalhar com empresas nos seus programas de formação sobre SST
para acomodar as últimas mudanças tecnológicas nos locais de trabalho. As
discussões com os peritos que lideram esta iniciativa indicaram que a formação
para a SST tem sido tipicamente vista como uma arena exclusivamente povoada por
um ou dois agentes de segurança e saúde nos locais de trabalho e não foi
totalmente integrada em todos os sistemas.
As
descobertas demonstram agora que as pessoas precisam de ser treinadas e
formadas para adquirir capacidades de aprendizagem rápida, porque a tecnologia
muda rapidamente e as competências devem, portanto, adaptar-se. Este perito
indicou que a formação deve ser ajustada com relevância na era da Indústria 4.0
e da digitalização, de modo a que os trabalhadores estejam preparados para
lidar com os riscos emergentes. No entanto, esta não é uma panaceia e deve
fazer parte de um plano de implementação maior e mais abrangente.
Se
não houver um plano para implementar e utilizar quaisquer novos conhecimentos e
competências proporcionados pela formação, perder-se-ão novas competências.
Neste sentido, é necessário um melhor alinhamento entre a formação em SST e as
tecnologias integradas. Dito isto, a formação de pedagogia também deve ser
ajustada, uma vez que a aprendizagem é um processo que terá de continuar ao
longo da vida dos trabalhadores, nomeadamente no atual clima de incerteza
laboral.
Será
igualmente importante que os trabalhadores adquiram competências e princípios
de resolução de problemas, bem como as "competências"
tradicionalmente compreendidas.
Atualmente, os trabalhadores devem compreender e escolher os seus próprios caminhos e estilos de aprendizagem. Só o tempo dirá o quão omnipresente se torna a IA nos locais de trabalho, mas vale a pena ficar atento aos riscos e aos benefícios da SST e envolver os trabalhadores nestes processos, proporcionando formação a cada momento.
4 - Em
conclusão
Mesmo
na década de 1920, o escritor E. M. Forster traçou um quadro distópico da
tecnologia e da humanidade:
A máquina (Forster, 1928):
...
alimenta-nos e abriga-nos; através dela falamos uns com os outros, através dela
nos vemos. A Máquina é amiga das ideias e inimiga da superstição: a Máquina é
omnipotente, eterna; abençoada é a Máquina!
Mas
a omnipotente geringonça começa logo a deteriorar-se nesta clássica obra-prima
literária, e a experiência humana não é suficiente para a sua manutenção,
levando a um final sombrio para toda a humanidade.
Embora
esta seja uma peça clássica de ficção científica, hoje em dia, a aparente
invisibilidade e o poder potencial da tecnologia são aparentemente perpetuados
infinitamente, porque as suas operações são muitas vezes escondidas dentro de
uma caixa preta, onde o seu funcionamento é muitas vezes considerado para além
da compreensão, mas parece, ainda assim, aceite pela maioria das pessoas.
A
maioria das pessoas não são engenheiros, por isso não entendem como funcionam
os computadores e os sistemas de IA. No entanto, os especialistas humanos são
surpreendidos por ações de IA, como o xadrez ou o jogador que foi derrotado por
um programa de computador.
Na
China, o governo em breve dará a cada pessoa uma pontuação de cidadão, ou uma
pontuação de reputação económica e pessoal, que olhará para os pagamentos das
rendas das pessoas, os rankings de crédito, o uso do telefone, e assim por
diante. Será utilizado para determinar as condições de obtenção de empréstimos,
empregos e vistos de viagem.
A
"condição algorítmica" é um termo também cunhado num recente
relatório da UE (Colman et al., 2018) que se refere à lógica cada vez mais
normalizada de algoritmos, em que os símbolos são transformados em realidade.
Hoje, esta condição começa a ter impacto em muitos locais de trabalho, em que
as reputações online estão sujeitas a correspondência algorítmica e os perfis
das pessoas sujeitos a bots de mineração de dados. O problema é que os
algoritmos não veem os aspetos qualitativos da vida ou os contextos
circundantes.
Sergey
Brin, cofundador da Google, dirigiu-se aos investidores no início de 2018,
afirmando que:
...
a nova primavera em IA é o desenvolvimento mais significativo na computação na
minha vida... no entanto, tais ferramentas poderosas também trazem consigo
novas questões e responsabilidades. Como é que afetam o emprego em diferentes
setores? Como podemos entender o que estão a fazer debaixo do capot? E as
medidas de equidade? Como podemos manipulá-los? Estão a salvo?
No entanto, as questões éticas na IA devem ser discutidas para além da esfera empresarial, e este relatório abordou estas questões em torno da SST e dos riscos, bem como os benefícios que são introduzidos. A invenção mítica da máquina abrangente de E. M. Forster na sua história clássica de ficção científica não estava, naturalmente, sujeita a uma série de painéis de revisão ética e moral antes de toda a humanidade começar a viver dentro dela sob a crosta terrestre.
Esta
distopia não é exatamente o que enfrentamos agora, é claro, mas as discussões
atuais - dos que são detidos para informar a Comissão Europeia de Comunicações
e o Plano Coordenado Europeu de Inteligência Artificial a grupos sindicais de
revisão curricular, como os do IG Metall - mostram um interesse significativo
em prevenir os piores riscos e em facilitar os benefícios da SST, uma vez que a
IA é cada vez mais implementada para a tomada de decisões no local de trabalho
e para o trabalho assistido.
Em
conclusão, uma vez que a implementação da IA no trabalho é relativamente nova,
existem apenas evidências iniciais de riscos e benefícios da SST. No entanto,
este relatório abordou algumas das áreas em que os benefícios são anotados e
apoiados e os riscos são salientados, bem como a prudência e a regulamentação
que estão a ser aplicadas.
Na
tomada de decisões de RH com a utilização de análises de pessoas aumentadas
pela IA, é assinalado o risco de tratamento e discriminação desleais. Na
automação e na Indústria 4.0, os riscos envolvem treino inadequado ou
indisponível que conduz ao excesso de trabalho e ao stress (Downey, 2018),
acidentes imprevisíveis como colisões entre humanos e robôs.
A desqualificação do trabalho está em jogo na indústria transformadora e noutras indústrias, com a integração de processos de tamanho de lote e a utilização de tecnologias wearables para práticas automatizadas de formação.
Foram
relatados riscos de privacidade relacionados com a intensificação da vigilância
e sentimentos de microgestão, uma vez que a gestão é capaz de aceder a dados
mais íntimos sobre os trabalhadores devido a tecnologias wearables tanto em
fábricas como em escritórios. No trabalho de gig, os algoritmos não podem ser
colocados como únicos decisores. Os benefícios devem ser salientados em todos
os casos.
Com
efeito, será importante que todas as partes interessadas mantenham a sua
atenção nas possibilidades de assistência à aplicação das empresas e garantam a
supervisão governamental e outras medidas de supervisão regulamentar dos
instrumentos e aplicações da IA no local de trabalho.
Os
efeitos positivos da IA, quando é implementado com processos adequados, são que
pode ajudar a gestão a reduzir o enviesamento humano nos processos de
entrevista, se os algoritmos forem concebidos para identificar evidências de
discriminação passada na tomada de decisões e decisões são tomadas com total
intervenção humana e até mesmo ação afirmativa.
A IA pode ajudar a melhorar as relações com os colaboradores, e entre eles, quando os dados recolhidos demonstram potencial de colaboração. As ferramentas de RH melhoradas pela IA podem melhorar a tomada de decisões usando a previsão por exceção e podem dar mais tempo às pessoas para o desenvolvimento pessoal e profissional, se a IA puder começar a assumir o trabalho repetitivo e insatisfatório.
Para
evitar riscos para a SST, o autor recomenda focar-se na implementação de IA
assistida e colaborativa em vez de se dirigir para as competências gerais e
generalizadas da IA universal. Deve ser ministrada uma formação adequada em
todos os pontos, devendo também ser efetuados controlos de forma coerente,
incluindo pelos departamentos e autoridades da SST.
Os
trabalhadores devem ser consultados em todos os pontos sempre que as novas
tecnologias forem integradas nos locais de trabalho, sustentando uma abordagem
centrada no trabalhador e priorizando uma abordagem "humana no
comando" (De Stefano, 2018).
Os
empregadores e os governos devem estar atentos à normalização internacional, à
regulamentação governamental e às atividades sindicais, em que já estão a ser
feitos progressos significativos para mitigar os piores riscos da IA e para
desenvolver ganhos positivos e benéficos.
Em
conclusão, não é a própria tecnologia da IA que cria riscos para a segurança e
a saúde dos trabalhadores, é a forma como é implementada, e cabe a todos nós
assegurar uma transição suave para uma maior integração da IA nos locais de
trabalho.
Nota:
Este documento foi traduzido pelo Departamento de SST da UGT.
Aversão original pode ser consultada Aqui.
0 comentários:
Enviar um comentário