A Web Summit no presente do futuro do consumo

Doutrina

Estamos no day after da Web Summit que, como a maioria das pessoas em Portugal sabe, aconteceu em Lisboa, de terça a sexta. Neste fim de semana, na próxima semana e, se tudo correr bem, nos próximos meses, os contactos entre quem se encontrou por ali vão dar frutos contribuindo, entre outras coisas, para alterar as relações entre profissionais e consumidores, o modo como se consome e para trazer novos desafios ao Direito que tem de conseguir enquadrar e dar solução aos desenvolvimentos que os mercados vão impondo.

A Web Summit, já em pré-registo para 2023, fechou a 4 de novembro, com o Presidente da nossa República a cumprimentar Paddy Cosgrave, o CEO da organização, com um carinho que lhe pode ter deslocado um ombro e a anunciar-lhe que a feira vai ficar em Portugal até 2028, como está combinado, mas também depois, como espera que se irá combinar, com a promessa de aumento de construção do espaço, feita pelo mayor anterior, agora Ministro das Finanças, a dever ser cumprida pelo mayor atual, de nome Moedas, sob a atenta vigilância do PR, que do palco o avisou. Paddy, a tentar recuperar o equilíbrio do aperto de mão de entrada, do rombo que a pandemia fez nas suas finanças e do facto de ter de encaixar o evento numa área que afinal ainda não cresceu, não disse que sim, nem que não.

Para quem por lá andou é muito evidente que o espaço se torna exíguo para este retorno pleno ao presencial. Estiveram mais de 70.000 participantes de cerca de 160 países e o maior número de sempre de startups e investidores. Incluindo o Altice Arena, quatro pavilhões de consideráveis dimensões a que foi possível acrescentar um quinto improvisado, uns food trucks e mais umas barracas e estruturas amovíveis, ou não fosse uma feira, ainda assim a simples circulação é difícil, implicando uma permanente gincana, no perpetuo movimento que é necessário entre a visita às empresas, às mais de dez salas e palcos de Conferências e de apresentações que estiveram sempre a abarrotar e as reuniões entre os participantes. Ser o ponto de encontro é o mantra da Web Summit: “Where the tech world meets”.

A efervescência impera e, saudavelmente, são mais as perguntas que as respostas. Impera, também, a investigação. Toda a gente está a fazer investigação. Ligada a Universidades, a empresas, a ambas, a consórcios, a grupos de várias naturezas, investigar, desenvolver, experimentar, falhar, voltar a tentar é o dia a dia de quase todos. Qual vai ser o resultado é o que menos importa, porque é pelo caminho que vai acontecendo o que é relevante. Vive-se um ambiente de dúvida, mas metódica e criadora.

Se há uma certeza, é a de que é tudo muito rápido, sempre mais rápido, por várias razões. A principal, provavelmente, é o facto de que a par do desenvolvimento autónomo de tecnologias diferenciadas, se vai dando a interligação entre elas, o que provoca saltos, muitas vezes inesperados e intensos. É o que está a acontecer, por exemplo, com o denominado metaverso. A big data e a inteligência artificial aliadas à realidade virtual e aumentada, que foi caminhando para a denominada realidade mista, estão a levar a indústria e o comércio a novos modelos de negócio, alterando-se a relação entre profissionais e consumidores e a maneira como estes atuam no(s) mercado(s). Este assunto foi já abordado neste blog, a propósito dos smartglasses. A conjugação daquelas tecnologias, com as potencialidades da blockchain, o aumento da capacidade de computação e a imaginação, estão na base do enorme desenvolvimento daquilo a que se vem apresentando como o metaverso. Do que vimos, os mundos “alternativos”, virtuais, mistos, em que a realidade física se mistura com a realidade virtual, têm tudo para se tornarem incontornáveis. Saíram, definitivamente, do campo restrito dos jogos, para entrarem no do trabalho, da produção, da venda de bens e produtos, físicos e virtuais.

Naomi Gleit, responsável de produto da Meta (que veio a incluir o Facebook, o Instagram, o Whatsapp e mais uma série de outras empresas e/ou marcas), será provavelmente uma das pessoas mais habilitadas a explicar e no palco principal da Web Summit, fê-lo da melhor forma possível: com toda a simplicidade. Disse que o metaverso é o futuro da internet, que vamos experienciar a três dimensões. É isto. O metaverso é, pois, a internet a três dimensões. A gestora afirmou ainda, entre várias outras coisas muito interessantes, que “A Meta não vai ser dona do metaverso”, como nenhuma empresa é dona da internet e que o metaverso vai acontecer, com ou sem a Meta. Vão existir vários players no mercado a fornecer as plataformas e os serviços para que todos possam vir a usar.  

O tema das realidades virtual e aumentada, na internet, não é nada novo. Por certo que muitos se lembram do Second Life que, lançado em 2003, já tinha avatares e permitia uma vida paralela num mundo virtual. E, desde há vários anos que jogadores passam grande parte do seu tempo dentro de mundos virtuais em jogos crescentemente complexos e com ambientes próximos da “realidade real”. Também a experiência de óculos como os da Google, do Facebook ou outros é relativamente comum. Já para não falar do fenómeno incrível que dominou o verão de 2016 quando o mundo se lançou numa insana caça aos Pokemons, descarregando a aplicação para smartphone do jogo que ganhou 25 milhões de utilizadores no mês de lançamento. Nas suas casas e nas ruas, parques, campos e cidades pelo mundo fora, as pessoas corriam, de telefone em punho, em direção de desenhos animados virtuais, que através do telemóvel apareciam no mundo físico. Depois passou. No entanto, de um modo bastante corrente, estas tecnologias foram ficando, tornando-se quase banais. Muitos de nós usam, sem grandes reflexões prévias, aplicações de telemóvel para experimentar, online, roupa, ou como é que um móvel ficaria na sua sala, ou algo de semelhante. Isto é, seja em jogos, seja comercialmente, estas tecnologias vão estando incluídas no cardápio do cidadão comum que as usa porque é divertido e prático, sem pensar muito, nem antes, nem depois

O tema ainda será relativamente de nicho, mas do que foi possível observar, dir-se-ia que vai haver uma explosão de metaverso, muito rapidamente. Se vai ser um hype, ou se virá para ficar e dominar, é o que se verá. Por vezes há temas em grande ascensão que, de repente, estagnam. Foi o que aconteceu, por exemplo, com os veículos autónomos e com os robots “humanoides”, quem sabe se por evidenciarem demasiado a possibilidade de a humanidade ser ultrapassada por máquinas.

A humanidade não gosta de pensar nessas coisas e, talvez por isso e por não ser o melhor para o negócio, terá havido várias pressões para que fosse desconvidado o linguista, cientista cognitivo e filósofo Noam Chomsky que, juntamente com Gary Markus, da Universidade de Nova York foram “Desmascarar a grande mentira da Inteligência Artificial” (Debunking the great AI lie), no último painel da Web Summit, numa Altice Arena a rebentar pelas costuras. O foco foi nas habilidades do GPT-3 e de outros sistemas semelhantes de processamento de linguagem natural (NLP) que, laboriosamente, colocam palavras a seguir a palavras, naturalmente não percebendo patavina do que fazem, pelo menos do ponto de vista do que é a construção e a compreensão humana da linguagem. Quando uma pessoa diz ou escreve “Este quadro de Picasso é bonito” estará a equacionar o conceito de beleza, objetivo e subjetivo, a comparar a obra com outras que conheça do autor, com a de outros autores, com a realidade que representa e a pensar em mais uma infinidade de coisas que contribuem para o juízo que profere. Quando o GPT-3 diz ou escreve a mesma frase, está a contabilizar as vezes que foi dita e escrita a propósito do quadro em causa e a calcular, com base na quantidade descomunal de informação a que acede e que consegue processar, qual a melhor sucessão de palavras que pode apresentar no contexto em que é solicitado. O que pode dar sarilho.

São, pois, de grande pertinência as advertências em relação à Inteligência Artificial, principalmente quando foram feitas atempadamente, há décadas.

Com a convergência de tecnologias, o aumento da informação, da capacidade de computação e das habilidades da inteligência artificial, a caminho do metaverso, riscos e benefícios sobem de escala.

A proteção dos consumidores, vamos ver como se fará, mas poder-se-á admitir como provável a existência de novos elencos de informação, que o avatar do consumidor, como o próprio, aceitará. 

Ética na Inteligência Artificial – UNESCO aprova Recomendação com enquadramento global

Legislação

A UNESCO adotou o primeiro conjunto de regras globais sobre a ética na Inteligência Artificial (IA), na sua 41ª Conferência Geral, que decorreu, em novembro, em Paris.

Audrey Azoulay, Diretora-Geral daquela Organização Internacional, que havia lançado, em 2018, o projeto ambicioso de dar ao mundo um enquadramento ético para a utilização da inteligência artificial, anunciou, em 24 de novembro de 2021, que esse objetivo havia sido alcançado. Três anos mais tarde, e graças à mobilização de centenas de peritos de todo o mundo e a intensas negociações internacionais, foi possível que os 193 Estados-membros da UNESCO aprovassem o enquadramento universal da IA.

Este é um texto que faz história ao definir, a nível global, os valores e princípios comuns que irão orientar a construção das bases legais necessárias para assegurar o desenvolvimento adequado da IA.

Este assunto já foi abordado neste blog, por altura da discussão destas regras, inclusive relacionando-o com a Proposta de Regulamento relativo à IA, apresentada pela Comissão Europeia. Este Regulamento, caso venha a ser aprovado e embora o seu âmbito de aplicação geográfica seja a União Europeia, também assume uma vocação universalista, um pouco à imagem do que tem vindo a acontecer com o Regulamento Geral de Proteção de Dados (RGPD).

As preocupações com a IA têm vindo a crescer, na proporção do seu próprio desenvolvimento, para o que contribui a consciência de que se vai tornando omnipresente, quer nas nossas rotinas diárias, quer no apoio à tomada de decisões de empresas e governos. Desde potenciar atividades como reservar voos, escolher filmes ou personalizar as nossas notícias da manhã, até apoiar decisões relativas, por exemplo, a medidas nacionais, ou internacionais, de combate à pandemia de Covid-19, os sistemas de IA vão estando presentes um pouco por todo o lado. 

As suas vantagens são enormes. Por exemplo, estão a produzir resultados notáveis em campos altamente especializados, como o rastreio do cancro e de outras doenças. Por outro lado, podem, também, ajudar a combater problemas globais, como as alterações climáticas e a fome no mundo, bem como a reduzir a pobreza com a otimização da ajuda económica.

No entanto, a tecnologia está também a trazer novos desafios, sem precedentes, como a disseminação de preconceitos, ou os perigos da vigilância em massa, seja pública ou privada. Na área do consumo, podem destacar-se zonas de alerta, como a publicidade crescentemente direcionada e invasiva, a possibilidade de personalizar preços e o aumento das compras e respetivos pagamentos online.

Até agora, não existiam normas universais para dar resposta às questões que a IA origina e a Recomendação da UNESCO vem colmatar esta ausência. Procura potenciar as vantagens que o recurso a sistemas de inteligência artificial traz à sociedade e reduzir os riscos que implica, assegurando que as transformações digitais promovem os direitos humanos e contribuem para a realização dos Objetivos de Desenvolvimento Sustentável, e tratando de questões como a transparência, responsabilidade e privacidade. Vem, ainda, apresentar políticas orientadas para a ação em várias áreas, como a governação de dados, a educação, a cultura, o trabalho, os cuidados de saúde e a economia.

A Recomendação aborda, também, a questão da proteção de dados, nomeadamente procurando assegurar maior transparência e controlo pelo titular dos dados pessoais. É proibido o uso de sistemas de IA para estabelecer pontuações sociais (social scoring) e vigilância em massa, por se considerar que infringem direitos humanos e liberdades fundamentais e é recomendado aos Estados-Membros que, ao desenvolverem os seus quadros regulamentares, devem considerar que a responsabilidade final deve sempre caber aos seres humanos e que as tecnologias não devem ser dotadas de personalidade jurídica.

No que diz respeito à sua implementação, procura-se abrir caminho à criação de ferramentas que a facilitem. Desde logo, a “Avaliação de Impacto Ético”, que países e empresas devem desenvolver, para prever o impacto que os sistemas de IA que pretendem usar possam ter nos indivíduos, na sociedade e no ambiente. Prevê-se, também, a avaliação da estrutura legal e institucional já existente e os Estados-Membros são encorajados a considerar a possibilidade de criar a figura do “Responsável pela Ética da AI” independente, um pouco como o encarregado da proteção de dados do RGPD, ou algum outro mecanismo de auditoria e monitorização contínua.

A proteção do ambiente é uma preocupação que surge, tanto do ponto de vista de como pode a IA ajudar na luta contra as alterações climáticas, mas também de que modo poderá ser reduzido o impacto ambiental da própria IA.

A Recomendação apresenta um conjunto de valores relativos ao respeito, proteção e promoção dos direitos e liberdades fundamentais e da dignidade humana, garantindo a diversidade e inclusão, num ambiente saudável, em que a paz e a justiça prevaleçam, nas sociedades interconectadas. Estes valores são, depois, concretizados em princípios e políticas em várias áreas.

A UNESCO, ao aprovar esta Recomendação está, certamente, a dar um forte contributo para o aumento da consciência sobre os benefícios e riscos resultantes da utilização de sistemas de inteligência artificial e a estabelecer qual deverá ser o seu enquadramento, relembrando muito do que nos é, a nós humanos, precioso. Vamos ver em que medida consegue, efetivamente, influenciar Estados, empresas e indivíduos. Independentemente disso, as declarações de princípios, direitos, liberdades e a consagração de intenções em instrumentos globais, de organizações internacionais com esta relevância são, fundamentalmente, humanas e têm estado na base do melhor que a humanidade tem conseguido.   

Inteligência Artificial – Recomendações universais da UNESCO em discussão

Doutrina, Legislação

A UNESCO apresentou o draft da sua “Recommendation on the Ethics of Artificial Intelligence (AI)” que, a ser aprovado, será o primeiro instrumento normativo global sobre a matéria.

O Comité Especial Intergovernamental de peritos da UNESCO (CEI) discutiu o documento numa primeira reunião, entre 26 e 30 de abril, a que se seguirá outra, prevista para entre 21 e 25 de junho. O vídeo dos trabalhos encontra-se disponível aqui, nas seis línguas oficiais (inglês, francês, espanhol, russo, árabe e chinês).

Esta iniciativa ocorre poucos dias após a Comissão Europeia anunciar o novo pacote legislativo que contém uma Proposta de Regulamento relativo à Inteligência Artificial (IA), com o primeiro quadro jurídico comunitário sobre a matéria, aqui divulgado e algum tempo depois da União Europeia aprovar as suas próprias “Ethics Guidelines on Artificial Intelligence”, elaboradas pelo grupo de peritos que criou para o efeito, o “High Level Expert Group on AI”, apresentadas neste blog aqui.

Na sua 40ª sessão, em novembro de 2019, a Conferência Geral da UNESCO decidiu desenvolver um instrumento de definição de padrões internacionais sobre a ética da Inteligência Artificial tendo, desde então, liderado um esforço multidisciplinar, multicultural e pluralista que permitiu a elaboração de um relatório preliminar e um primeiro draft da Recomendação. Em setembro de 2020, foi distribuído aos Estados Membros para recolha dos seus comentários que foram tidos em consideração para a preparação do relatório final e do draft da Recomendação sobre a Ética da IA agora em discussão.

Nas reuniões do CEI será consensualizado o texto que constituirá o draft final da Recomendação, a ser submetido aos Estados Membros para adoção na 41ª sessão da Conferência Geral da UNESCO.

Se adotada, a Recomendação será o primeiro instrumento normativo global neste campo de crítica importância em todo o mundo.

A União Europeia pretende aprovar um Regulamento relativo à Inteligência Artificial, de aplicação tendencialmente universal, como tem vindo a acontecer com o Regulamento Geral de Proteção de Dados (RGPD), com impacto em países terceiros que se relacionam com a UE e já tem as suas Orientações relativas à Ética na Inteligência Artificial.

A UNESCO prepara Recomendações universais sobre o tema.

Destacam-se, como diferenças relevantes entre o futuro Regulamento e a futura Recomendação, o facto de aquele ser vinculativo e esta indicativa, bem como o facto de o Regulamento assentar numa análise de risco (risk assessement), excluindo da sua aplicação o que considera ter risco mínimo ou nenhum e a Recomendação abranger nas suas considerações éticas toda a IA, independentemente do nível de risco que comporte.    

A UNESCO enuncia a ideia de soberania da informação (data sovereignty) e a necessidade de a manter, a par do incentivo à partilha de informação (data sharing).

Esta é a quadratura do círculo que todos procuram. É preciso que os dados circulem, por serem fundamentais à eficácia da inteligência artificial e ao desenvolvimento dos negócios e da economia e é desejável que cada individuo decida sobre os seus dados e seja protegido. O ponto final aqui serve para evitar avançar para as questões críticas “protegido de quem e de quê”, já que essas além de poderem não gerar consensos, são essencialmente desconhecidas e em permanente e muito rápida evolução.

Inteligência Artificial, codificação das emoções e consumo

Doutrina

Os cientistas andam a codificar a emoção, o que nem sequer é muito novo, para a integrarem em sistemas de inteligência artificial.

A Artificial Intelligence (AI) ganha um E, transformando-se em EAI (Emotional Artificial Intelligence), o que a vai aproximando da ainda considerada praticamente inatingível AGI (Artificial General Intelligence), que implicaria que a inteligência da máquina seria semelhante à do ser humano, no sentido de que em vez de ser só magnífica na resolução de problemas e tarefas específicas, como fazer cirurgias, dirigir carros ou outros veículos, organizar cidades, seria também excecional na resposta a questões gerais e até de senso comum.

Até ver, as pessoas têm-se divertido bastante com as limitações dos sistemas de AI, sentindo-se ainda bastante superiores, já que sem qualquer dificuldade conseguem perceber coisas que a máquina nem vislumbra. Por exemplo, foi feita uma experiência com um sistema muito simples, em que uma pessoa representada em meia dúzia de traços no ecrã, “chutava à baliza” onde estava um “guarda-redes”, de aspeto semelhante. Naquele sistema de AI, tanto a figura que rematava como a que defendia, eram cada vez melhores na sua tarefa. Até que os cientistas resolveram apresentar o “guarda-redes” deitado no chão, deixando a “baliza aberta”. O marcador, perante a surpresa da situação, simplesmente colapsou. Não aproveitou a oportunidade “de fazer golo” e, em completo desnorte, acabou por se deitar também. Para a máquina, aquilo não era futebol, era evitar um obstáculo enquadrado num retângulo. Se o obstáculo é removido, a falta de lógica arrasa a estrutura. O humano, em face disto, ri-se por lhe ser tão evidente o que deveria ser feito.

Vários exemplos de comparação entre a inteligência humana e o desenvolvimento de uma (ainda incipiente) AGI, nomeadamente inserida em robôs, pode ser vista na extraordinária apresentação que José Santos-Victor, do IST, fez na Conferência sobre o tema “Cérebros e Robôs”, inserida na exposição da Fundação Calouste Gulbenkian denominada “Cérebro – mais vasto que o céu”, disponível aqui. Também no Técnico, Ana Paiva trabalha no desenvolvimento de “robôs sociais”, que exprimam emoções e sejam amáveis com as pessoas.

Os cientistas já codificam a emoção há muito tempo, sendo um clássico com provas dadas o sistema BET (Basic Emotion Theory), que assenta na tipificação das principais emoções humanas e sua manifestação.

Ora, com sistemas de AI, com algoritmos que aprendem através de técnicas de Machine Learning (ML) que, num nível de maior sofisticação opera através de redes neurais artificiais (Artificial Neural Nets – ANN), tomando a designação de Deep Learning (DL) e com uma quantidade crescente de material para alimentar o processo – a Big Data – fácil será perceber que as emoções humanas são facilmente reconhecíveis pela “máquina”. Tanto mais reconhecíveis, quanto maior for a quantidade de informação disponível.

O que é que isto tem a ver com o consumo, já vai apetecendo perguntar.

Pois tem tudo. Se pensarmos que o recurso a assistentes digitais, que recebem ordens de voz em que transparece a nossa disposição e até conversam connosco (chatbots) é já uma realidade vulgar, que o uso de câmaras que recebem e registam as nossas expressões faciais é quase permanente e ainda que é frequente que dados biométricos ligados à emoção, como o batimento cardíaco, estejam a ser registados, é fácil ver como empresas que têm acesso a tudo isso podem escolher o melhor momento para nos fazer lembrar que estamos mesmo a precisar de comprar alguma coisa.

A fasquia, que já estava alta com a análise do comportamento, é elevada a um nível muito superior, com a análise da emoção por sistemas de inteligência artificial.

A propósito de um artigo na área das ciências da computação, “The Ethics of Emotion in AI Systems”, de Luke Stark e Jesse Hoey, disponível aqui ou aqui, pode-se ler aqui um “Research Summary”, de Alexandrine Royer, uma cientista da área das ciências humanas (social scientist), publicado este mês pelo Montreal AI Ethics Institute, que explica com clareza a problemática em questão. Estas leituras dão-nos a perspetiva das ciências da computação, enunciada e complementada pela das ciências sociais, o que nos fornece um ponto de partida para grande reflexão.

Entretanto, pelo menos quando comprar online, através de um gigante tecnológico, faça um esforço para evitar, como tão bem disse Ricardo Araújo Pereira, “sentir sentimentos” ou, se tal for impossível, evite mostrá-los. É provável que poupe algum dinheiro.

Pode ler mais neste blog sobre a ética ligada à inteligência artificial, aqui e aqui e sobre AI na sociedade aqui.

Inteligência Artificial Confiável – Livro Branco e operacionalização ALTAI

Doutrina

A Comissão Europeia publicou, em 19 de fevereiro de 2020, o “Livro Branco sobre a inteligência artificial: uma abordagem europeia virada para a excelência e a confiança”.

Este documento é resultado dum forte investimento europeu nesta área, assente na convicção da União Europeia sobre a importância estratégica da inteligência artificial (Artificial Intelligence – AI), que é considerada um fator-chave do desenvolvimento económico. A possibilidade de soluções para muitos desafios da sociedade existia a par da consciência de que aos benefícios certamente se associariam riscos, o que implicava forte ponderação dos impactos socioeconómicos, legais e éticos. A Europa comunitária pretendia permanecer na vanguarda da revolução tecnológica em curso por todo o mundo e, para isso, havia que unir esforços e garantir tanto a competitividade, como o respeito pelos valores europeus. É neste contexto que se desenvolve a estratégia europeia para a inteligência artificial.

O Livro Branco deixa claro, logo de início, que “Num contexto de forte concorrência global, é necessária uma abordagem europeia sólida, com base na estratégia europeia para a IA apresentada em abril de 2018. Tendo em vista enfrentar as oportunidades e os desafios da IA, a UE deve agir unida e definir o seu próprio caminho, baseado nos valores europeus, para promover o desenvolvimento e a implantação da IA. A Comissão está empenhada em facilitar os progressos científicos, preservar a liderança tecnológica da UE e assegurar que as novas tecnologias estão ao serviço de todos os cidadãos europeus, melhorando as suas vidas e respeitando simultaneamente os seus direitos.”.

É, ainda, salientado que “A presidente da Comissão, Ursula von der Leyen, anunciou nas suas orientações políticas uma abordagem europeia coordenada sobre as implicações humanas e éticas da inteligência artificial, bem como uma reflexão sobre a melhor utilização de grandes volumes de dados para a inovação. Assim, a Comissão apoia uma abordagem regulamentar e orientada para o investimento com o duplo objetivo de promover a adoção da IA e de abordar os riscos associados a determinadas utilizações desta nova tecnologia.”.

Na sequência da publicação do Livro Branco sobre a inteligência artificial foi lançada uma consulta pública, que decorreu entre 19 de fevereiro e 14 de junho de 2020, aberta a todos os cidadãos europeus, sendo incentivada a participação da sociedade civil, da academia, das empresas no mercado e de todos os interessados, quer através da resposta a um questionário online, quer através do envio de documentos expondo a sua posição. As contribuições através de questionário encontram-se disponíveis aqui . Um relatório síntese dos resultados quantitativos encontra-se disponível aqui.

Este processo levou à elaboração da versão final da “Assessment List for Trustworthy AI (ALTAI)” que transforma os princípios relativos à AI numa ferramenta que ajuda à sua operacionalização. Consiste numa check-list acessível e dinâmica para autoavaliação dos sistemas de inteligência artificial por quem os constrói e implementa.

A ALTAI, tornada publica em 17 de julho de 2020, está online num documento e num protótipo de ferramenta web, disponível para quem a queira conhecer e aplicar.

Crédito ao consumo e crédito social chinês

Doutrina

Crédito, palavra que vem do latim creditu, significa acreditar, ter confiança. É figura antiga e, juridicamente, tem a sua mais intensa manifestação, no mútuo, em regra de dinheiro e oneroso. Alguém entrega determinada quantia a outrem e crê, por isso é credor, que a mesma lhe vai ser devolvida. São normalmente estipulados juros como contrapartida. Sendo excessivos, consubstanciam usura[1]. Ao longo da História ocorreram várias vicissitudes, por vezes extremamente desagradáveis, como a prisão por dívidas e por usura.

O crédito tem, subjacente, duas ideias. Do lado do credor, a confiança de que o dinheiro entregue vai ser devolvido gerando, entretanto, alguma remuneração e do lado do consumidor, a possibilidade de aceder imediatamente a algo que precisa ou deseja, diferindo o pagamento.

O sistema de crédito social chinês tem, subjacente, duas ideias. Do lado do Estado e do credor, a confiança é substituída pela posse de informação pessoal detalhada que determina se o consumidor vai ou não pagar, assistida por uma vertente punitiva que desincentiva fortemente algum desvio. Do lado do consumidor, a possibilidade de consumir e viver bem se for bom cidadão e de ser fortemente limitado no consumo e na vida se calhar a ser incluído numa lista negra.

No mundo ocidental industrializado, o crédito ao consumo é um instrumento relacionado com a massificação da compra de bens e serviços, impulsionada pela necessidade de reconstrução da Europa de meados do século XX destruída pela guerra. O incentivo à procura que estimulasse a oferta e a resposta do mercado criando bens e serviços, originava um crescimento económico que restaurava os Estados devassados. Desenvolve-se, assim, a denominada sociedade de consumo, ligada ao capitalismo, pressupondo o funcionamento livre do mercado.

Na China, um regime comunista de partido único, política e economicamente centralizado zelava para que o Estado se mantivesse fechado, evitando relações com outros países. Além de ser esta a caraterística dominante da sua história milenar, permitida pela sua própria riqueza e dimensão, a cedência a relações comerciais com os europeus no século XIX saiu-lhe desmesuradamente cara.

No entanto, vários fatores de que se destaca a globalização, vieram originar na China a vontade de enriquecer, produzir e consumir, de acrescentar à relevância política e militar, a relevância económica no mercado global, o que deu origem a uma espécie de contradição nos termos, um regime comunista capitalista.

Ora, é neste contexto que crédito ao consumo liberal e capitalista se mistura com o que usualmente é considerado totalitarismo comunista, originando o “Sistema de Crédito Social” chinês[2].

É um programa que, com total transparência[3], o Governo chinês criou e com toda a clareza explicou: “[Desejamos] permitir aos cidadãos de confiança que passeiem livremente sob o céu e dificultar aos desacreditados darem um único passo”, no Esboço de Planeamento para a Construção de um Sistema de Crédito Social (2014-2020). Conforme planeado, começou a ser implementado em 2014.

Para a sua concretização, foi instalado um sistema de vigilância generalizado, através de câmaras que, ligadas a potentes sistemas de inteligência artificial (AI – Artificial Intelligence) de reconhecimento facial, permitem verificar infrações no espaço público.

Segundo a CNN, na sequência da Pandemia de Covid-19, a vigilância alargou-se ainda mais, sendo instaladas câmaras à porta, e até dentro das casas, dos que estavam em quarentena.

Não tendo o Governo chinês capacidade para aceder a toda a informação que pretendia para a construção do seu sistema, estabeleceu “parcerias” com empresas “privadas”, essencialmente de comércio online, que a recolhiam principalmente para estabelecer classificações (scores) em que iriam basear as suas decisões sobre a concessão ou recusa de crédito ao consumo.

A Sesame, por exemplo, terá ligação direta à base de dados do Supremo Tribunal do Povo que possui uma lista negra, em tempo real, dos que desrespeitam as sentenças dos tribunais, incluindo devedores. Com base nessa informação as pessoas podem ser banidas de acesso a crédito, impedidas de comprar bens mais caros e de viajar (não podem, por exemplo, adquirir bilhetes de avião ou comboio). O objetivo seria compeli-las a cumprir as decisões judiciais.

Shazeda Ahmed, em estudo disponível no Citizen Lab da Univesidade de Toronto, analisa o sistema do “Sesame Credit’s social credit score”.

Assim, o crédito vai estando menos ligado à confiança e mais ligado à tecnologia e à Inteligência Artificial que determinam, com base num sistema de recolha e tratamento de informação instituído na sociedade, quem tem ou não acesso e em que condições ao crédito em geral e ao crédito ao consumo em particular. Determinam também, dentro de lógica semelhante, quem é bom ou mau cidadão, com as simpáticas ou dramáticas consequências de tal classificação.

[1] Tipifica o Código Civil, no seu artigo 1142º, que “Mútuo é o contrato pelo qual uma das partes empresta à outra dinheiro ou outra coisa fungível, ficando a segunda obrigada a restituir outro tanto do mesmo género e qualidade.” e trata a usura, no artigo 1146º, limitando os juros possíveis.

[2] Informação mais detalhada em artigo da revista Wired “The complicated truth about China’s social credit system”, aqui.

[3] Cfr, por exemplo, notícia publicada no Jornal de Negócios, disponível aqui.

Construção de Inteligência Artificial confiável – do AI HLEG ao ALLAI

Doutrina

Após dois anos de intenso e produtivo trabalho, o “High Level Expert Group on AI”, AI HLEG para os amigos, grupo de 52 peritos em inteligência artificial, criado no âmbito da União Europeia, cessou a sua atividade numa última reunião em final de junho.

Este grupo de peritos, criado em junho de 2018, tinha como objetivo geral o de apoiar a implementação de uma estratégia europeia para a inteligência artificial.

Por essa altura já não era possível ignorar a AI (Artificial Intelligence – AI), por mais que se desejasse poder fazê-lo. Desde o início do milénio que os computadores e a internet vinham assumindo uma importância crescente na sociedade, nas empresas e nos Estados, de um modo transversal a todas as áreas e global a todas as geografias. A sociedade do terror despoletada no Ocidente pelo 11 de setembro de 2001, o aparecimento de dispositivos e redes de comunicação móveis e a criação de redes sociais, que tiveram adesão massiva, foram alguns dos componentes do caldo de cultura que determinou um enorme crescimento tecnológico e digital.

Iniciada a segunda década do século XXI, a tração aumentou e disparou com a autoaprendizagem das máquinas. O Machine Learning (ML), em que os sistemas computacionais aprendem com a sua própria experiência, e o Deep Learning (DL), em que na aprendizagem são usadas redes neurais artificiais, permitiram em poucos anos alcançar resultados que espantam os próprios cientistas e profissionais que os desenvolvem e operacionalizam.

Foi assim que, num instante, a AI tomou conta de tudo e que nós, pessoas, com um smartphone na mão temos disponível mais poder computacional que o usado para colocar os primeiros humanos na Lua.

É fácil a todos experienciar os benefícios da AI e constatar que são imensos. Os mais prudentes, analíticos ou informados não podem deixar de se preocupar com os riscos que, inevitavelmente, existem quem sabe se na mesma proporção.

Cada perito do AI HLEG da EU sabe que as moedas têm duas faces e, todos juntos, sabem muitíssimo mais. Decidiram, por isso, que era fundamental deixar muito claro nos seus trabalhos que a AI devia servir as pessoas e ser construída e usada para o bem comum.

Este grupo, tendo em vista uma AI centrada no ser humano, criou as “Ethics Guidelines on Artificial Intelligence” e as “Policy and Investment Recommendations”. Das primeiras resultam sete princípios-chave para a construção de inteligência artificial confiável. As segundas contêm 33 recomendações para que essa AI confiável, capacite, beneficie e proteja os seres humanos, enquanto é orientada para a sustentabilidade, o crescimento, a competitividade e a inclusão. Não pouparam em ousadia e produziram resultados ambiciosos.

Em 2019, foi criada a European AI Alliance (EAIA), um fórum da União Europeia que visa propiciar uma discussão ampla e aberta de todos os aspetos do desenvolvimento da AI e do seu impacto na economia e na sociedade. O AI HLEG teve aí uma intensa participação e desenvolveu uma forte interação com os membros do fórum, procurando-se estabelecer linhas para futuras decisões políticas.

Fortemente influenciada pelo trabalho produzido pelo AI HLEG, a Comissão Europeia publicou em 19 de fevereiro de 2020 o “LIVRO BRANCO sobre a inteligência artificial – Uma abordagem europeia virada para a excelência e a confiança” e o “Relatório sobre as implicações em matéria de segurança e de responsabilidade decorrentes da inteligência artificial, da Internet das coisas e da robótica”.

Considerando que é necessário dar continuidade ao que foi realizado, três peritas participantes no AI HLEG, Catelijne MullerVirginia Dignum e Aimee van Wynsberghe, criaram o ALLAI, “the Alliance on Artificial Intelligence to involve all stakeholders in the process of achieving Responsible AI.”.

O ALLAI, que tem um site excelente, propõe que colaboremos para o desenvolvimento de inteligência artificial responsável, isto é, legal, ética e robusta. O trabalho continua.