Subscribe:

Pages

terça-feira, 13 de outubro de 2020

Documento de Discussão SST E O FUTURO DO TRABALHO: BENEFÍCIOS E RISCOS DE FERRAMENTAS DE INTELIGÊNCIA ARTIFICIAL NOS LOCAIS DE TRABALHO - Parte VII

 


(imagem com DR)


3.4 - Fórum Económico Mundial e RGPD

 

O Fórum Económico Mundial (WEF) Global Future Council on Human Rights and Technology informou, em 2018, que mesmo quando são usados bons conjuntos de dados para criar algoritmos existem riscos consideráveis de ocorrer discriminação, como os seguintes (WEF, 2018):

1. Escolher o modelo errado;

2. Construir um modelo com caraterísticas inadvertidamente discriminatórias;

3. Ausência de supervisão e envolvimento humano;

4. Sistemas imprevisíveis e inescrutáveis;

5. Discriminação sem controlo e intencional.

O WEF sublinha que existe uma necessidade distinta de "auto-governação mais ativa por parte das empresas privadas", que está em consonância com a Declaração Tripartida de Princípios da OIT relativa às Empresas Multinacionais e à Política Social — 5ª Edição (Rev. 2017), e que fornece uma orientação direta para as empresas nas áreas das práticas de trabalho sustentáveis, responsáveis e inclusivas e da política social em torno destas, segundo a qual o Objetivo de Desenvolvimento Sustentável (ODS) visa alcançar ambientes de trabalho seguros e seguros para todos os trabalhadores até 2030.

A prevenção de discriminações injustas e ilegais deve ser claramente assegurada à medida que a IA é cada vez mais introduzida nos locais de trabalho, e os relatórios do WEF (2018) e da OIT acima mencionados são vitais para orientar esse processo em curso.

O primeiro erro que uma empresa pode cometer ao usar a IA, e que pode levar à discriminação listada pelo WEF, encontra-se numa situação em que um utilizador aplica o mesmo algoritmo a dois problemas que podem por si só não ter contextos ou pontos de dados idênticos.

Um possível exemplo no local de trabalho pode ser onde são consideradas potenciais contratações usando um algoritmo que procura pistas sobre tipos de personalidade através de pesquisas nas redes sociais, em vídeos que detetam movimentos faciais ou outros dados que são recolhidos em conjuntos de dados do curriculum vitae.

No entanto, se, por exemplo, o algoritmo estiver à procura de pessoas extrovertidas para um trabalho de call center, o mesmo algoritmo não seria apropriado para encontrar o assistente de laboratório certo, onde a conversação não é inerente à descrição do trabalho. Embora a aplicação do algoritmo não conduza necessariamente a uma discriminação ilegal como tal, não é difícil extrapolar as possibilidades de afetação errada.

O segundo erro - "construir um modelo com características inadvertidamente discriminatórias" - pode referir-se, por exemplo, à utilização de um banco de dados que já exemplifica a discriminação.

Por exemplo, no Reino Unido, o fosso salarial entre homens e mulheres tem sido exposto recentemente, revelando que há anos que as mulheres trabalham usufruindo salários mais baixos, sendo que em alguns casos, fazem o mesmo trabalho que os homens, recebendo um salário inferior.

Se os dados que demonstram esta tendência fossem usados para criar um algoritmo para tomar decisões sobre a contratação, a máquina "aprenderia" que as mulheres deviam receber menos. Isto demonstra que as máquinas não podem fazer juízos éticos independentemente da intervenção humana. Com efeito, há uma crescente área de investigação que demonstra que a discriminação não é eliminada pela IA na tomada de decisões e na previsão, mas sim que a codificação de dados perpetua os problemas (Noble, 2018).

O terceiro erro sublinha a intervenção humana, que agora é necessária em toda a Europa. Em maio de 2018, o RGPD tornou-se um requisito, pelo que se aplica o consentimento dos trabalhadores para a recolha e para a utilização de dados. Embora o RGPD olhe principalmente para os direitos dos dados dos consumidores, existem aplicações significativas para o local de trabalho, porque as decisões no local de trabalho não podem ser tomadas apenas através de processos automatizados.

A secção 4 do RGPD descreve o "Direito à tomada de decisões individuais de objeção e automatizada". Artigo 22.o, «Tomada de decisão individual automatizada, incluindo perfis», indica que:

- O titular dos dados tem o direito de não estar sujeito a uma decisão baseada unicamente no tratamento automatizado, incluindo perfis, que produza efeitos jurídicos que lhe digam respeito ou que o afetem de forma significativa.

As bases do regulamento, enumeradas nas primeiras secções do documento, deixam claro que:

- O titular dos dados tem o direito de não estar sujeito a uma decisão, que pode incluir uma medida, avaliando aspetos pessoais que lhe digam respeito, que se baseia unicamente no tratamento automatizado e que produz efeitos jurídicos que lhe digam respeito ou que lhe afetam igualmente, tais como... práticas de recrutamento sem qualquer intervenção humana.

Esse tratamento inclui perfis que consistam em qualquer forma de tratamento automatizado de dados pessoais que avaliem os aspetos pessoais de uma pessoa singular, nomeadamente para analisar ou prever aspetos relativos ao desempenho do titular dos dados no trabalho... fiabilidade ou comportamento, localização ou movimentos, sempre que produza efeitos legais que lhe digam respeito ou que o afetem de forma semelhante.

A não aplicação destes critérios pode conduzir a decisões discriminatórias injustas ou ilegais.

Quanto ao quarto erro, "sistemas imprevisíveis e inescrutáveis", a descrição do relatório do WEF (2018) indica que "quando um ser humano toma uma decisão, como contratar ou não alguém, podemos perguntar por que razão decidiu de uma forma ou de outra".

Obviamente, uma máquina não pode discutir a sua "lógica" para as decisões que atinge com base na extração de dados. A eliminação de juízos qualificados e a falta de intervenção humana criam, por conseguinte, um caminho claro para a discriminação.

O erro final na implementação da IA pode ser quando ocorre uma "discriminação não controlada e intencional". Isto pode acontecer, por exemplo, quando uma empresa não quer contratar mulheres que possam engravidar.

Embora esta posição explícita não se sustentasse em tribunal, um sistema de aprendizagem automática poderia fornecer táticas secretas para fazê-lo acontecer através de um algoritmo projetado para filtrar um subconjunto de mulheres candidatas onde isso poderia ser o caso, com base em dados de idade e de relacionamento. Não é difícil ver como isto abre a porta não só aos riscos, mas também à probabilidade, de ocorrer discriminação ilegal.

 

3.5 - Formação para IA e SST

 

A IG Metall está a trabalhar com empresas nos seus programas de formação sobre SST para acomodar as últimas mudanças tecnológicas nos locais de trabalho. As discussões com os peritos que lideram esta iniciativa indicaram que a formação para a SST tem sido tipicamente vista como uma arena exclusivamente povoada por um ou dois agentes de segurança e saúde nos locais de trabalho e não foi totalmente integrada em todos os sistemas.

As descobertas demonstram agora que as pessoas precisam de ser treinadas e formadas para adquirir capacidades de aprendizagem rápida, porque a tecnologia muda rapidamente e as competências devem, portanto, adaptar-se. Este perito indicou que a formação deve ser ajustada com relevância na era da Indústria 4.0 e da digitalização, de modo a que os trabalhadores estejam preparados para lidar com os riscos emergentes. No entanto, esta não é uma panaceia e deve fazer parte de um plano de implementação maior e mais abrangente.

Se não houver um plano para implementar e utilizar quaisquer novos conhecimentos e competências proporcionados pela formação, perder-se-ão novas competências. Neste sentido, é necessário um melhor alinhamento entre a formação em SST e as tecnologias integradas. Dito isto, a formação de pedagogia também deve ser ajustada, uma vez que a aprendizagem é um processo que terá de continuar ao longo da vida dos trabalhadores, nomeadamente no atual clima de incerteza laboral.

Será igualmente importante que os trabalhadores adquiram competências e princípios de resolução de problemas, bem como as "competências" tradicionalmente compreendidas.

Atualmente, os trabalhadores devem compreender e escolher os seus próprios caminhos e estilos de aprendizagem. Só o tempo dirá o quão omnipresente se torna a IA nos locais de trabalho, mas vale a pena ficar atento aos riscos e aos benefícios da SST e envolver os trabalhadores nestes processos, proporcionando formação a cada momento.

 

4 - Em conclusão

 

Mesmo na década de 1920, o escritor E. M. Forster traçou um quadro distópico da tecnologia e da humanidade:

 A máquina (Forster, 1928):

... alimenta-nos e abriga-nos; através dela falamos uns com os outros, através dela nos vemos. A Máquina é amiga das ideias e inimiga da superstição: a Máquina é omnipotente, eterna; abençoada é a Máquina!

Mas a omnipotente geringonça começa logo a deteriorar-se nesta clássica obra-prima literária, e a experiência humana não é suficiente para a sua manutenção, levando a um final sombrio para toda a humanidade.

Embora esta seja uma peça clássica de ficção científica, hoje em dia, a aparente invisibilidade e o poder potencial da tecnologia são aparentemente perpetuados infinitamente, porque as suas operações são muitas vezes escondidas dentro de uma caixa preta, onde o seu funcionamento é muitas vezes considerado para além da compreensão, mas parece, ainda assim, aceite pela maioria das pessoas.

A maioria das pessoas não são engenheiros, por isso não entendem como funcionam os computadores e os sistemas de IA. No entanto, os especialistas humanos são surpreendidos por ações de IA, como o xadrez ou o jogador que foi derrotado por um programa de computador.

Na China, o governo em breve dará a cada pessoa uma pontuação de cidadão, ou uma pontuação de reputação económica e pessoal, que olhará para os pagamentos das rendas das pessoas, os rankings de crédito, o uso do telefone, e assim por diante. Será utilizado para determinar as condições de obtenção de empréstimos, empregos e vistos de viagem.

A "condição algorítmica" é um termo também cunhado num recente relatório da UE (Colman et al., 2018) que se refere à lógica cada vez mais normalizada de algoritmos, em que os símbolos são transformados em realidade. Hoje, esta condição começa a ter impacto em muitos locais de trabalho, em que as reputações online estão sujeitas a correspondência algorítmica e os perfis das pessoas sujeitos a bots de mineração de dados. O problema é que os algoritmos não veem os aspetos qualitativos da vida ou os contextos circundantes.

Sergey Brin, cofundador da Google, dirigiu-se aos investidores no início de 2018, afirmando que:

... a nova primavera em IA é o desenvolvimento mais significativo na computação na minha vida... no entanto, tais ferramentas poderosas também trazem consigo novas questões e responsabilidades. Como é que afetam o emprego em diferentes setores? Como podemos entender o que estão a fazer debaixo do capot? E as medidas de equidade? Como podemos manipulá-los? Estão a salvo?

No entanto, as questões éticas na IA devem ser discutidas para além da esfera empresarial, e este relatório abordou estas questões em torno da SST e dos riscos, bem como os benefícios que são introduzidos. A invenção mítica da máquina abrangente de E. M. Forster na sua história clássica de ficção científica não estava, naturalmente, sujeita a uma série de painéis de revisão ética e moral antes de toda a humanidade começar a viver dentro dela sob a crosta terrestre.

Esta distopia não é exatamente o que enfrentamos agora, é claro, mas as discussões atuais - dos que são detidos para informar a Comissão Europeia de Comunicações e o Plano Coordenado Europeu de Inteligência Artificial a grupos sindicais de revisão curricular, como os do IG Metall - mostram um interesse significativo em prevenir os piores riscos e em facilitar os benefícios da SST, uma vez que a IA é cada vez mais implementada para a tomada de decisões no local de trabalho e para o trabalho assistido.

Em conclusão, uma vez que a implementação da IA no trabalho é relativamente nova, existem apenas evidências iniciais de riscos e benefícios da SST. No entanto, este relatório abordou algumas das áreas em que os benefícios são anotados e apoiados e os riscos são salientados, bem como a prudência e a regulamentação que estão a ser aplicadas.

Na tomada de decisões de RH com a utilização de análises de pessoas aumentadas pela IA, é assinalado o risco de tratamento e discriminação desleais. Na automação e na Indústria 4.0, os riscos envolvem treino inadequado ou indisponível que conduz ao excesso de trabalho e ao stress (Downey, 2018), acidentes imprevisíveis como colisões entre humanos e robôs.

 A desqualificação do trabalho está em jogo na indústria transformadora e noutras indústrias, com a integração de processos de tamanho de lote e a utilização de tecnologias wearables para práticas automatizadas de formação.

Foram relatados riscos de privacidade relacionados com a intensificação da vigilância e sentimentos de microgestão, uma vez que a gestão é capaz de aceder a dados mais íntimos sobre os trabalhadores devido a tecnologias wearables tanto em fábricas como em escritórios. No trabalho de gig, os algoritmos não podem ser colocados como únicos decisores. Os benefícios devem ser salientados em todos os casos.

Com efeito, será importante que todas as partes interessadas mantenham a sua atenção nas possibilidades de assistência à aplicação das empresas e garantam a supervisão governamental e outras medidas de supervisão regulamentar dos instrumentos e aplicações da IA no local de trabalho.

Os efeitos positivos da IA, quando é implementado com processos adequados, são que pode ajudar a gestão a reduzir o enviesamento humano nos processos de entrevista, se os algoritmos forem concebidos para identificar evidências de discriminação passada na tomada de decisões e decisões são tomadas com total intervenção humana e até mesmo ação afirmativa.

A IA pode ajudar a melhorar as relações com os colaboradores, e entre eles, quando os dados recolhidos demonstram potencial de colaboração. As ferramentas de RH melhoradas pela IA podem melhorar a tomada de decisões usando a previsão por exceção e podem dar mais tempo às pessoas para o desenvolvimento pessoal e profissional, se a IA puder começar a assumir o trabalho repetitivo e insatisfatório.

Para evitar riscos para a SST, o autor recomenda focar-se na implementação de IA assistida e colaborativa em vez de se dirigir para as competências gerais e generalizadas da IA universal. Deve ser ministrada uma formação adequada em todos os pontos, devendo também ser efetuados controlos de forma coerente, incluindo pelos departamentos e autoridades da SST.

Os trabalhadores devem ser consultados em todos os pontos sempre que as novas tecnologias forem integradas nos locais de trabalho, sustentando uma abordagem centrada no trabalhador e priorizando uma abordagem "humana no comando" (De Stefano, 2018).

Os empregadores e os governos devem estar atentos à normalização internacional, à regulamentação governamental e às atividades sindicais, em que já estão a ser feitos progressos significativos para mitigar os piores riscos da IA e para desenvolver ganhos positivos e benéficos.

Em conclusão, não é a própria tecnologia da IA que cria riscos para a segurança e a saúde dos trabalhadores, é a forma como é implementada, e cabe a todos nós assegurar uma transição suave para uma maior integração da IA nos locais de trabalho.

 

 

Nota: Este documento foi traduzido pelo Departamento de SST da UGT.

 

Aversão original pode ser consultada Aqui.


0 comentários:

Enviar um comentário