Gallagher: a tecnologia não deve substituir o julgamento humano em questões de vida ou morte

0

Em um debate aberto no Conselho de Segurança das Nações Unidas, em Nova York, o Secretário do Vaticano para as Relações com os Estados e as Organizações Internacionais ressaltou a “realidade urgente” dos riscos associados ao desenvolvimento da inteligência artificial no campo militar; reiterou o apelo da Santa Sé por uma “moratória imediata” sobre armas autônomas letais e recordou os perigos do uso da IA em sistemas de comando e controle nuclear.

Isabella H. de Carvalho – Vatican News

Em sua intervenção, em um debate aberto, em 24 de setembro nas Nações Unidas, em Nova York, o Arcebispo Paul Richard Gallagher, Secretário para as Relações com os Estados e Organizações Internacionais, fez o seguinte apelo: “Precisamos de uma abordagem centralizada no ser humano para o desenvolvimento e o uso de tecnologias emergentes, sobretudo, no campo militar, porque não podem substituir o julgamento humano em questões de vida ou morte”, pois ultrapassariam limites, que jamais devem ser superados”.

Durante o evento, promovido pelo Conselho de Segurança da ONU, que teve como tema central “a Inteligência Artificial, a paz e a segurança internacionais”, o Arcebispo Gallagher enfatizou ainda: “Se o desenvolvimento e o uso da Inteligência Artificial não estiverem firmemente ancorados no respeito da dignidade humana e na busca do bem comum, corremos o risco de tornar-nos instrumentos de divisão e agressão, além de alimentarmos, ainda mais, os conflitos”. E insistiu: “Esta não é uma preocupação abstrata ou distante, mas uma realidade urgente, visto a atual instabilidade global e a rápida integração da Inteligência Artificial em sistemas de armas convencionais e nucleares”.

Moratória sobre armas autônomas letais

Como vem reiterando, frequentemente, nos últimos anos, o Secretário para as Relações com os Estados reafirmo: “A Santa Sé apoia, com firmeza, a adoção de uma moratória imediata sobre o desenvolvimento de sistemas de armas autônomas letais (SALA). O desenvolvimento de tais tecnologias suscita graves preocupações para a comunidade internacional, em níveis jurídico, humanitário, ético e de segurança, uma vez que se trata de sistemas desprovidos da capacidade humana de julgamento ética e discernimento ético”. E o Arcebispo acrescentou: “A Santa Sé sugere a criação de um instrumento juridicamente vinculativo para garantir que as decisões sobre a vida e a morte permaneçam sob um controle humano significativo”.

Dom Gallagher recordou ainda: “É igualmente preocupante o surgimento de uma nova corrida armamentista, assinalada pela integração da inteligência artificial em sistemas militares, inclusive tecnologias espaciais e defesa antimísseis”. Para o Arcebispo, “este contexto corre o risco de alterar a natureza das armas e da guerra, criando um nível de incertezas sem precedentes”. E continuou: “O uso da Inteligência Artificial, em sistemas de comando e controle nuclear, pode causar novos riscos desconhecidos, que vão bem além da lógica já frágil e moralmente questionável da dissuasão”.

Papel do Conselho de Segurança

Por fim, o Arcebispo Paul Richard Gallagher reiterou: “O Conselho de Segurança tem a responsabilidade primordial de manter a paz e a segurança internacionais. Por isso, deve prestar atenção especial ao progresso científico e tecnológico, que ocorre no mundo contemporâneo”. Ao agradecer à Coreia do Sul, por ter convocado este debate sobre um tema oportuno, o Arcebispo esclareceu: “A Inteligência Artificial já está tendo um profundo impacto em áreas como a educação, mundo do trabalho, comunicações, saúde, entre outras. Esta tecnologia, tem o poder de ajudar a realizar as aspirações, que, há oitenta anos, orientaram a criação das Nações Unidas, como a paz, a segurança e a garantia da liberdade e dos direitos humanos”.

Fonte

Escreva abaixo seu comentário.

Por favor escreva um comentário
Por favor insira o seu nome aqui