Construção de Inteligência Artificial confiável – do AI HLEG ao ALLAI

Após dois anos de intenso e produtivo trabalho, o “High Level Expert Group on AI”, AI HLEG para os amigos, grupo de 52 peritos em inteligência artificial, criado no âmbito da União Europeia, cessou a sua atividade numa última reunião em final de junho.

Este grupo de peritos, criado em junho de 2018, tinha como objetivo geral o de apoiar a implementação de uma estratégia europeia para a inteligência artificial.

Por essa altura já não era possível ignorar a AI (Artificial Intelligence – AI), por mais que se desejasse poder fazê-lo. Desde o início do milénio que os computadores e a internet vinham assumindo uma importância crescente na sociedade, nas empresas e nos Estados, de um modo transversal a todas as áreas e global a todas as geografias. A sociedade do terror despoletada no Ocidente pelo 11 de setembro de 2001, o aparecimento de dispositivos e redes de comunicação móveis e a criação de redes sociais, que tiveram adesão massiva, foram alguns dos componentes do caldo de cultura que determinou um enorme crescimento tecnológico e digital.

Iniciada a segunda década do século XXI, a tração aumentou e disparou com a autoaprendizagem das máquinas. O Machine Learning (ML), em que os sistemas computacionais aprendem com a sua própria experiência, e o Deep Learning (DL), em que na aprendizagem são usadas redes neurais artificiais, permitiram em poucos anos alcançar resultados que espantam os próprios cientistas e profissionais que os desenvolvem e operacionalizam.

Foi assim que, num instante, a AI tomou conta de tudo e que nós, pessoas, com um smartphone na mão temos disponível mais poder computacional que o usado para colocar os primeiros humanos na Lua.

É fácil a todos experienciar os benefícios da AI e constatar que são imensos. Os mais prudentes, analíticos ou informados não podem deixar de se preocupar com os riscos que, inevitavelmente, existem quem sabe se na mesma proporção.

Cada perito do AI HLEG da EU sabe que as moedas têm duas faces e, todos juntos, sabem muitíssimo mais. Decidiram, por isso, que era fundamental deixar muito claro nos seus trabalhos que a AI devia servir as pessoas e ser construída e usada para o bem comum.

Este grupo, tendo em vista uma AI centrada no ser humano, criou as “Ethics Guidelines on Artificial Intelligence” e as “Policy and Investment Recommendations”. Das primeiras resultam sete princípios-chave para a construção de inteligência artificial confiável. As segundas contêm 33 recomendações para que essa AI confiável, capacite, beneficie e proteja os seres humanos, enquanto é orientada para a sustentabilidade, o crescimento, a competitividade e a inclusão. Não pouparam em ousadia e produziram resultados ambiciosos.

Em 2019, foi criada a European AI Alliance (EAIA), um fórum da União Europeia que visa propiciar uma discussão ampla e aberta de todos os aspetos do desenvolvimento da AI e do seu impacto na economia e na sociedade. O AI HLEG teve aí uma intensa participação e desenvolveu uma forte interação com os membros do fórum, procurando-se estabelecer linhas para futuras decisões políticas.

Fortemente influenciada pelo trabalho produzido pelo AI HLEG, a Comissão Europeia publicou em 19 de fevereiro de 2020 o “LIVRO BRANCO sobre a inteligência artificial – Uma abordagem europeia virada para a excelência e a confiança” e o “Relatório sobre as implicações em matéria de segurança e de responsabilidade decorrentes da inteligência artificial, da Internet das coisas e da robótica”.

Considerando que é necessário dar continuidade ao que foi realizado, três peritas participantes no AI HLEG, Catelijne MullerVirginia Dignum e Aimee van Wynsberghe, criaram o ALLAI, “the Alliance on Artificial Intelligence to involve all stakeholders in the process of achieving Responsible AI.”.

O ALLAI, que tem um site excelente, propõe que colaboremos para o desenvolvimento de inteligência artificial responsável, isto é, legal, ética e robusta. O trabalho continua.

Posted in Nossa Pesquisa and tagged , , .

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *