“Os dados pessoais são o petróleo do século XXI”

0

António Valente Andrade é professor na Universidade Católica Portuguesa e considera que “estamos perante uma nova revolução que terá muito impacto na organização do trabalho e no porvir do trabalho”.

Rui Saraiva – Portugal

A propósito do Dia Mundial das Comunicações Sociais, a Rádio Renascença e a Agência Ecclesia entrevistaram António Valente Andrade, especialista em sistemas de informação e professor na Universidade Católica Portuguesa.

Tem investigado os impactos da inteligência artificial em várias áreas e sublinha que “faz todo o sentido” o Papa Leão XIV ter referido nas suas primeiras intervenções os desafios da inteligência artificial.

A entrevista é conduzida por Henrique Cunha da Rádio Renascença e Octávio Carmo da Agência Ecclesia.

O Papa Leão XIV, nas suas primeiras intervenções, referiu-se várias vezes aos desafios da inteligência artificial, inclusivamente para justificar a escolha do seu nome, face aos novos desafios que se colocam no mundo do trabalho. Faz sentido esta sua preocupação?

Sim, creio que faz todo sentido porque estamos perante uma nova revolução que terá muito impacto na organização do trabalho e no porvir do trabalho. Já estamos a assistir a muita automação que vem do uso da informática e, agora, a esta nova onda que é a inteligência artificial e que pode ter, de facto, bastante impacto no emprego e na organização do trabalho. Por isso, faz todo sentido as preocupações que ele tem a nível social.

Recorrendo à sua experiência, pergunto: que principais riscos e desafios é que devemos valorizar? Por exemplo, é previsível um aumento do desemprego?

Pois, não sabemos… Há sinais contraditórios, mas eu estou em crer que haverá uma redução do tempo de trabalho. Fala-se muito na sociedade de pós-trabalho…

Isso até poderá não ser mau…

Exatamente. Até se fala na semana de quatro dias. Porque isso já aconteceu no passado: tivemos uma redução. Trabalhava-se ao sábado, depois só de manhã e, depois, deixou de se trabalhar ao sábado, genericamente falando. Agora, fala-se na semana de quatro dias, portanto com mais tempo para a família, para o lazer, para a cultura…

Isso será positivo, mas tudo que sejam profissões mais rotineiras podem ser dispensadas para a automação. E, efetivamente, temos o exemplo da IBM, que é um grande construtor de tecnologias de informação, tanto de hardware como de software. Só trabalha com grandes companhias e previu reduzir oito mil postos de trabalho. Fez essas dispensas e automatizou o departamento de Recursos Humanos, poupando 3,6 mil milhões de dólares, mas, depois, acabou por empregar mais pessoas, mais engenheiros, de que precisava para o desenvolvimento da utilização da inteligência artificial na companhia. E também pessoas para o marketing, para as vendas, que não têm competências necessariamente em inteligência artificial. Há esses sinais contraditórios, mas eu estou em crer que, de facto, a redução dos postos de trabalho se fará sentir, sobretudo em profissões que tenham menos empatia humana, digamos assim.

E a inteligência artificial pode acentuar desigualdades e injustiças?

Sim, isso é um problema entre países mais desenvolvidos e menos desenvolvidos no acesso à tecnologia que permita, de facto, esse tipo de avanços. Digamos que o meta-problema deste século XXI será para onde é que nos levam as tecnologias, porque as empresas de tecnologia tentaram, no início, fazer um certo pacto sobre o desenvolvimento da inteligência artificial e, depois, isso não foi feito. Portanto, é cada um por si a desenvolver e, depois, vê-se no que dá, não é? Estamos a correr este risco que terá fortes impactos nos próximos anos, depois de 2030, segundo alguns, quando pudermos ter uma inteligência artificial mais equiparada ao ser humano.

Estamos a celebrar o Dia Mundial das Comunicações Sociais. A forma como os mais novos procuram informações e são bombardeados nas redes sociais com dados, muitas vezes deturpados e manipulados, constitui um desafio para todos…

Sem dúvida, é um desafio e uma ameaça porque, se me permitem, eu acho que, no plano da educação, o uso da inteligência artificial deve ser equacionado em torno de cinco eixos: ensinar com inteligência artificial, investigar com inteligência artificial, preparar os jovens para o mundo com inteligência artificial e melhorar a eficiência administrativa e operacional das escolas com inteligência artificial. E preparar os jovens para o mundo com inteligência artificial é muito relevante porque a fraude personalizada é uma ameaça muito presente com o desenvolvimento de inteligência artificial.

A pergunta ia muito nesse sentido, porque há uma tendência do agravamento de manipulação, que passa até o avanço da inteligência artificial…

Pois, a manipulação da opinião, a discriminação…

E até dos vídeos que parecem verdadeiros, mas que são completamente falsos, com coisas que as pessoas nunca disseram. O desenvolvimento desta capacidade de perceber quais são as fontes de informação fiáveis também é um desafio específico?

Sim, sem dúvida, sem dúvida, cada vez mais. Vai ser muito difícil distinguir o que é verdadeiro e falso, embora existem algoritmos em sentido contrário, para detetar essas situações. Mas, andamos sempre a correr atrás de quem utiliza a tecnologia de forma errada, não é? Mas, sim, isso é um perigo muito grande e as crianças e os jovens deviam ser formados nessa precaução que têm que ter.

Do ponto de vista da educação, é preciso passar para uma lógica de um trabalho de desenvolvimento de espírito crítico?

Sem dúvida. Nós ainda usamos muito a pedagogia da explicação e temos de ir para a pedagogia da emancipação. Porque, antigamente, o professor era mais a fonte do conhecimento e hoje estamos perante a globalização das fontes do conhecimento e, efetivamente, os alunos, quando pesquisam, já não encontram informação, encontram conhecimento.

Já antes, em 2006, havia um site, um serviço que era o “Wolfram Alpha”, que permitia chegar ao conhecimento e tinha bases de dados fiáveis. Hoje em dia, a inteligência artificial lê coisas fiáveis e não fiáveis e, por isso, temos de ter certa cautela em verificar os factos, ou os dados, ou as respostas, porque existe sempre uma tentativa de dar respostas a qualquer pergunta que se lhe faça. E dá respostas que podem ser falsas ou enviesadas em algumas circunstâncias, embora esses algoritmos vão melhorando. Mas, sem dúvida, a pedagogia tem de mudar.

O ensinar com a inteligência artificial passa um bocadinho por isso e a inteligência artificial pode ser tutor de um aluno. Há um estudo de 84, de Blume, que diz que um aluno que tem um explicador pode melhorar duas vezes o desvio padrão face à sua média de avaliação. E, portanto, se a inteligência artificial for um tutor, ele pode ser um melhor estudante, se não delegar na inteligência artificial as suas competências e a sua capacidade de autocrítica e as suas competências de trabalho. Se fizer uma transferência cognitiva, fica a perder para sempre, mas é um risco que se corre, é uma certa preguiça.

Entende, então, que quem fala numa cultura do facilitismo e alerta para a dependência da tecnologia nas novas gerações…

Sim, sim, sim, isso é uma ameaça muito presente. Por um lado, os alunos podem desmotivar-se por verem que há resposta para tudo e, portanto, eles não têm de saber, não têm de trabalhar, mas, assim, o mundo não evolui. E eles poderão ficar reféns daqueles que estudarem, trabalharem e forem mais competentes no porvir. Sem dúvida que há uma ameaça e, depois, também, antigamente, tinha-se receio que os alunos plagiassem trabalhos e hoje em dia não se trata propriamente de plágio porque a inteligência artificial gera textos novos e é mais difícil de perceber.

Há sistemas que detetam padrões que a inteligência artificial tem na escrita, mas ainda cometem muitos erros, detetando plágio em situações que não é e deixando também passar outras que de facto são. Depois, há estes sistemas que escrevem metadados, que não são visíveis nos textos que produzem, mas depois também há sistemas que limpam esses metadados. Estamos aqui sempre num problema. Portanto, temos que mudar a forma como desenvolvemos as aprendizagens e como fazemos as avaliações.

Este é um momento de grande metamorfose. Temos falado da área da educação, já falamos também da área da comunicação, começámos evocando as transformações expectáveis na área do trabalho… Qual o papel que a Igreja Católica pode desempenhar neste momento em que a própria definição do que é ser humano pode ser posta em causa?

Pois, pode trabalhar muito esta questão dos valores, da integridade do ser humano e também no plano da escola, da integridade académica e científica. Em relação a estas dimensões éticas e sociais, acho que a Igreja Católica tem um papel e uma autoridade reconhecidos pela sociedade em geral, creio eu, e que deve continuar a desenvolver, atenta estes novos fenómenos e desenvolvimentos, porque estamos no início desta revolução.

P: Não o surpreende que haja preocupação assumida com grupos de trabalho, com encontros no Vaticano, com propostas de reflexão, com a ideia de uma ética do algoritmo? Faz sentido da parte da Santa Sé este esforço?

R: Sem dúvida que sim.

P: Há uma tendência para se traçarem cenários catastrofistas neste debate, mas que caminhos é que a investigação científica tem vindo a abrir para que a inteligência artificial seja um recurso ao serviço do desenvolvimento humano?

R: Há sempre esse lado positivo de ver a inteligência artificial como um recurso, uma mais-valia que nos pode ajudar a acelerar a investigação científica e a chegar a bons resultados. Há exemplos fantásticos no plano da saúde, por exemplo. Mas, ao mesmo tempo, também se pode estar perante uma ameaça, por chegarmos a um determinado tipo de fraude no desenvolvimento científico. É um risco, é uma ameaça também. Há aqui esta presença cada vez mais visível dos dois lados. E uma das ameaças pode surgir no desenvolvimento da bioengenharia, que pode, digamos, acelerar, sobretudo em mundos onde há menos regulação. Por exemplo, a Europa está muito regulada e nós sentimo-nos mais seguros. Nos Estados Unidos, um pouco menos, mas também estão mais avançados, como o mundo chinês, que é muito competente. Aí, não sabemos o que se passa, mas sabemos que eles são muito bons, mas têm menos regulação e, portanto, podem avançar com desenvolvimentos que poderão ser mais uma ameaça para a humanidade. Por exemplo, eles, nas escolas, têm sistemas de seguir o olhar do estudante para perceber como é que ele reage a determinado tipo de estímulos, se está atento, se não está atento, para com isto desenvolver pedagogias diferentes.

Na Europa, nunca consentiríamos filmar o olhar de um estudante. Claro que nisto há desenvolvimentos paralelos interessantes para perceber se a pessoa vai adormecer ao volante ou outro tipo de situações de perigo. Mas isto utilizado de forma massiva na educação ou noutra área tem as suas ameaças, tal como tem, um lado que pode ser positivo em algumas circunstâncias.

P: Estamos no Dia Mundial das Comunicações Sociais. A mensagem que a Igreja Católica propõe ainda foi assinada pelo Papa Francisco. Foi a última mensagem que ele assinou para o Dia Mundial das Comunicações Sociais, em janeiro. Nesse documento, o Papa alertava para um tempo marcado pela desinformação, pela polarização e com alguns centros de poder que controlam uma grande massa sem precedentes de dados e de informações sem precedentes. Que a caminho é necessário seguir para combater estes riscos de centralização dos dados, que são absolutamente fundamentais, nas mãos de centros de poder não democráticos ou que não são regulamentados por outros poderes?

R: Pois, isso é um dos grandes perigos… Nós, às vezes, para termos determinado tipo de serviço, não nos importamos em ceder dados ou nem nos apercebemos, não é? E esses dados estão muito centralizados e nem sempre nos Estados, mas em grandes companhias que acumulam fortunas e mais poder, grandes companhias tecnológicas das quais o mundo parece depender. E os Estados também. Isso, de facto, é uma ameaça muito grande.

P: Por vezes, até ficamos surpreendidos quando somos contactados sem saber quem deu o nosso número de telefone, não é?

R: Exatamente, sim.

P: E estamos também, por exemplo, a falar de ceder os nossos dados, reflexões, imagens, comentários para o desenvolvimento da inteligência artificial dessas companhias…

R: Sim, sim. Tudo isso alimenta, não é? Por isso é que se diz que os dados, os dados pessoais são o petróleo do século XXI.

P: Sente que falta a consciencialização das pessoas para as consequências daquilo que fazem? Inadvertidamente, podem estar a alimentar um negócio pelo qual, depois, vão ter de pagar…

R: Sim. As pessoas não têm essa perceção, tal como não têm no uso das plataformas sociais, não é? Portanto, é um fenómeno muito interessante, mas é a cultura da incultura, de certa forma, que se está a viver.

António Valente Andrade é professor da Universidade Católica Portuguesa.

Laudetur Iesus Christus

Oiça aqui a reportagem e partilhe

Fonte

Escreva abaixo seu comentário.

Por favor escreva um comentário
Por favor insira o seu nome aqui