Dados intra commercium e extra commercium – A propósito do tema da Worldcoin

Doutrina

A CNPD decidiu, a 26 de março, suspender a recolha de dados biométricos faciais e da íris que a empresa Worldcoin recolhe há vários meses. A decisão surge na sequência de uma avalanche de denúncias recebidas pela CNPD, denunciando a recolha de dados biométricos de menores sem autorização dos pais ou representantes legais, bem como deficiências na informação prestada para a recolha desses dados, e na sequência de uma recomendação de prudência da própria CNPD aos cidadãos relativamente ao fornecimento desses dados, encorajando “as pessoas a refletirem sobre a sensibilidade dos dados que pretendem fornecer, que são únicos e fazem parte da sua identidade, e os riscos que tal implica, e a ponderarem o significado de a cedência dos seus dados biométricos envolver, em contraprestação, um eventual pagamento”. É preciso ainda ter em conta que, em troca dos dados, a empresa entregou criptomoedas cuja existência tem sido reportada como duvidosa (já para não falar da sua elevadíssima volatilidade em geral).

Em Espanha, no início de março, a AEPD ordenou a suspensão cautelar da atividade da Worldcoin pelos mesmos motivos que a CNPD hoje apresenta. A medida foi objeto de recurso pela Worldcoin. Porém, a Audiencia Nacional considerou que a atuação da AEPD foi correta, porque a salvaguarda do interesse geral, que consiste na garantia do direito à proteção dos dados pessoais dos seus titulares, deve prevalecer sobre o interesse particular da empresa recorrente, de conteúdo fundamentalmente económico. A Audiencia Nacional argumenta que, se se verificasse que a Worldcoin cumpre o RGPD, poderia solicitar uma compensação financeira baseada na medida cautelar, estando reunidos os respetivos requisitos. Não parece muito provável, uma vez que a medida cumpre os três requisitos fundamentais: fumus boni iuris, periculum in mora e proporcionalidade.

O caso, como se pode ver, deu origem a um intenso debate em Espanha e em Portugal, bem como noutros países da União Europeia. A conduta da empresa é duvidosa – e não só devido às deficiências na informação contratual fornecida ou às características da contraprestação oferecida. São também utilizadas práticas questionáveis nos stands de informação e venda da Worldcoin para convencer as pessoas (muitas delas menores de idade) a vender os seus dados biométricos.

Há, no entanto, outro aspeto que importa analisar. Estamos a falar da natureza intra commercium dos dados pessoais.

Há alguns meses, neste blog, discuti os requisitos do pagamento com dados, partindo do princípio de que esta realidade é legalmente possível, e até aconselhável, apesar das reticências expressas na altura pelo EDPS e pelo EDPB, recentemente atualizadas em relação ao debate em torno do modelo “pay or ok”. Isto implica também que a lei deve encarar os dados pessoais não só como parte de um direito fundamental (art. 8.º da Carta Europeia de Direitos Fundamentais; art. 18.º, n.º 4, da Constituição Espanhola; art. 26.º da Constituição Portuguesa), mas também como um ativo económico, ou seja, como bens num sentido patrimonial, que podem ser transacionados e, por conseguinte, utilizados como contraprestação. Se os dados podem constituir uma contraprestação, devem também poder ser uma prestação principal. Por outras palavras, se uma pessoa pode pagar certos bens e serviços digitais com os seus dados pessoais, nada deve impedi-la, pela mesma razão, mas em sentido inverso, de entregar os seus dados pessoais em troca de pagamento (seja em moeda com curso legal, criptomoeda ou qualquer outro tipo de contraprestação).

De acordo com esta lógica, não deveria haver qualquer impedimento à comercialização de dados pessoais, apesar de o direito à proteção de dados ser um direito fundamental; tal como o direito à vida privada e familiar (art. 7.º da Carta Europeia de Direitos Fundamentais; art. 18.º, n.º 1, da Constituição Espanhola; art. 26.º da Constituição Portuguesa), o que não impede que sejam objeto de comercialização através da venda de direitos de imagem a marcas comerciais, da venda de exclusivos de pessoas conhecidas, ou da própria atividade de alguns influencers e youtubers, que claramente comercializam tanto a sua imagem como a sua privacidade.

O caso Worldcoin sugere uma reflexão mais aprofundada sobre o carácter intra commercium dos dados pessoais: será que todos os dados pessoais devem ser comercializáveis e, portanto, servir de contraprestação para o pagamento de certos bens e serviços digitais (ou vice-versa)?

Uma primeira resposta a esta questão pode ser afirmativa: todos os dados pessoais devem ser comercializáveis porque o direito fundamental à proteção de dados pode ser comercializável na mesma medida que outros direitos fundamentais que lhe são próximos, como o direito à privacidade pessoal ou familiar ou o direito à própria imagem. A comercialidade do direito à própria imagem não difere em função do conteúdo da imagem pessoal que é objeto de comércio: é tão comercial posar para uma marca como ser filmado nu para um filme. Será diferente a questão das regras específicas aplicáveis a cada atividade, além da comercialização do direito à própria imagem. Pensemos, por exemplo, na atuação de menores em filmes.

A segunda resposta que pode ser dada é não. Esta resposta, formulada em termos absolutos, já foi partilhada pelo EDPS e pelo EDPB, e já foi respondida em várias ocasiões, em relação à desproporcionalidade da posição e do argumento. Resta, portanto, optar por uma resposta à moda galega: depende. Segundo esta opção (a nosso ver mais precisa e proporcionada), os dados pessoais não devem ser considerados comercializáveis ou não pelo simples facto de serem dados pessoais, mas em função do tipo de informação a que se referem. Deve estabelecer-se uma presunção geral iuris tantum de comercialidade e prever-se restritivamente as categorias de dados pessoais que devem ser excluídas do comércio. Uma primeira tentativa de situar este “depende” seria a grande divisão traçada pelo RGPD entre dados pessoais comuns e categorias especiais de dados pessoais. É claro que os dados pessoais “comuns” seriam totalmente comercializáveis.

O RGPD define dados pessoais como “qualquer informação relativa a uma pessoa identificada ou identificável” (art. 4.1) e distingue duas grandes categorias de dados pessoais: dados pessoais comuns e categorias especiais de dados pessoais. Os dados pessoais comuns são definidos por exclusão: todos os dados que não são considerados categorias especiais de dados pessoais. As categorias especiais de dados pessoais são os dados que revelam a origem racial ou étnica, as opiniões políticas, as convicções religiosas ou filosóficas ou a filiação sindical; e os dados genéticos, os dados biométricos, os dados relativos à saúde, à vida sexual e à orientação sexual de uma pessoa singular (art. 9.1 RGPD).

As categorias especiais de dados pessoais representam um risco mais elevado para os direitos e liberdades fundamentais (Cons. 51 RGPD), razão pela qual o art. 9.1 RGPD prevê uma proibição geral de tratamento destas categorias de dados. Na prática, este sistema bipartido implica o seguinte: (1) em princípio, todo o tratamento de dados deve ser efetuado de acordo com uma base legítima, tal como estabelecido no art. 6 RGPD. No caso de categorias especiais de dados, não só deve ser selecionado pelo menos um fundamento de legitimação do art. 6 RGPD, como também deve ser encontrada uma exceção à proibição geral de tratamento de categorias especiais de dados (art. 9.1 e 9.2 RGPD).

Embora seja verdade que, em geral, o tratamento de categorias especiais de dados implica um risco maior para os direitos e liberdades das pessoas em causa, nem todos eles devem ser excluídos do comércio, mas apenas aqueles cujo tratamento não está sujeito a um controlo ou regulamento específico e que, por si só, implica um risco ainda maior para os direitos e liberdades não só das pessoas em causa, mas da população em geral. Recordemos que partimos da presunção iuris tantum de que os dados pessoais são bens intra commercium e que, por conseguinte, a exclusão do comércio de certas categorias de dados deve encontrar uma razão justificada que permita destruir a presunção e que mesmo essa razão deve ser interpretada de forma restritiva.

Que dados pessoais devem então ser excluídos do comércio?

Entendemos que a exclusão deve estender-se principalmente a três categorias de dados pessoais, tal como definidas no RGPD: (1) dados genéticos, (2) dados biométricos e (3) dados relativos à saúde:

– Os dados genéticos são “dados pessoais relativos às características genéticas herdadas ou adquiridas de uma pessoa singular que fornecem informações únicas sobre a fisiologia ou a saúde dessa pessoa, obtidas, nomeadamente, a partir da análise de uma amostra biológica dessa pessoa” (art. 4.13 RGPD);

– Os dados biométricos são “dados pessoais obtidos a partir de um tratamento técnico específico, relativos às características físicas, fisiológicas ou comportamentais de uma pessoa singular, que permitem ou confirmam a identificação única dessa pessoa, tais como imagens faciais ou dados dactiloscópicos” (art. 4.14 RGPD);

– E os dados relativos à saúde são “dados pessoais relativos à saúde física ou mental de uma pessoa singular, incluindo a prestação de serviços de saúde, que revelem informações sobre o seu estado de saúde” (art. 4.15 RGPD).

As interfaces cérebro-computador (ICC) permitem medir e registar a atividade gerada pelo cérebro, que servirá de identificador biométrico. As ondas cerebrais registadas por uma BCI são traduzidas em dados fisiológicos depois de processadas e descodificadas. Aplicando ferramentas avançadas de análise de dados e sistemas de IA, é possível inferir pensamentos, sentimentos, estados de saúde, traçar o perfil do indivíduo e fazer inferências sobre o seu passado, presente e futuro. Por outro lado, o cérebro é um identificador único, tal como a impressão digital ou o genoma. Além disso, a neurotecnologia permite não só recolher informações neurológicas em tempo real, mas também gerar estímulos que alteram a atividade cerebral e modificam o comportamento da pessoa a curto e a longo prazo. Em última análise, esta tecnologia e a utilização de dados neurológicos apresentam sérios riscos para os direitos e liberdades fundamentais dos indivíduos. Isto levou alguns Estados, como o espanhol, a começar a propor a elaboração de direitos dos cidadãos em relação à utilização das neurotecnologias, embora, por enquanto, apenas como propostas regulamentares sujeitas a debate (Artigo XXVI Carta dos Direitos Digitais). No que nos diz respeito, os neurodados devem ser entendidos como uma subcategoria dos dados biométricos.

Os dados genéticos, os dados biométricos e os dados relativos à saúde são as únicas três categorias especiais de dados pessoais definidas no art. 4 RGPD e as únicas para as quais o RGPD permite que os Estados-Membros introduzam restrições ao tratamento, desde que não constituam um obstáculo à sua livre circulação (art. 9.4 RGPD). Estas circunstâncias demonstram a importância destas três categorias de dados pessoais, além de serem categorias especiais de dados.

O tráfico de dados genéticos, biométricos e relativos à saúde deve ser objeto de uma regulamentação específica, de modo a que a sua circulação constitua um “tráfico regulamentado”, devido à natureza especial das informações a que se referem. Esta é a razão das possíveis restrições nacionais que o RGPD permite que os Estados-Membros imponham e, sobretudo, a razão da atual construção do Espaço Europeu de Dados de Saúde (EEDS). No âmbito do EEDS, foi publicada uma Proposta de Regulamento sobre o Espaço Europeu de Dados de Saúde, relativa à utilização de dados de saúde, ou seja, dados de saúde e dados genéticos (art. 2.2, alíneas a), b) e c)). No que diz respeito aos dados biométricos, o seu impacto particular nos direitos e liberdades fundamentais refletiu-se no Regulamento relativo à Inteligência Artificial, que classifica os sistemas de identificação biométrica como de alto risco (Anexo III, nº 1, e Cons. 44 e 54).

Uma questão discutível é a de saber onde termina a fronteira dos dados biométricos ou relacionados com a saúde ou, por outras palavras, como lidar com a vis expansiva destas categorias de dados. Um exemplo desta vis expansiva é o facto de uma fotografia de uma pessoa poder ser considerada um dado biométrico se permitir a identificação unívoca ou de uma pessoa (Cons. 51 RGPD), ou o facto de, por vezes, a mera consulta de determinados sítios web também poder ser considerada um dado relativo à saúde (Cons. 68 a 73 da Sentença do TJUE, de 4 de julho de 2023).

Em suma, o princípio da livre circulação de dados pessoais protegido e promovido pelo RGPD (e anteriormente pela Diretiva 95/46/CE) deve levar ao entendimento de que o tráfego económico de dados pessoais é legal, desde que os requisitos para qualquer troca de serviços onerosos sejam cumpridos de acordo com as regras dos Estados-Membros em matéria de obrigações e contratos. Isto implica que o pagamento com dados pessoais para determinados bens e serviços deve ser entendido como possível, por exemplo, escolhendo entre o pagamento com dados de modo a permitir uma navegação personalizada com base em perfis (ver o art. 38 do Digital Services Act) ou pagamento monetário pelo mismo serviço, como recentemente recordado pelo TJUE, na Sentença de 4 de julho de 2023 (Cons. 150 em particular). Do que precede deve resultar que é igualmente lícito vender os próprios dados pessoais em troca de uma contraprestação.

No entanto, embora se deva partir do princípio de que todos os dados pessoais são comercializáveis, devem ser excluídos do comércio os dados pessoais cujo tratamento (e especialmente cujo tráfico não está sujeito a regulamentação específica) tem um maior impacto nos direitos e liberdades fundamentais. Estes dados são, a nosso ver, os dados biométricos (incluindo os neurodados), os dados genéticos e os dados relativos à saúde.

Considerar certas categorias de dados como dados fora do comércio não implica que essas categorias de dados não sejam objeto de análise, nem exclui o desenvolvimento de perfis com base nessa análise de dados. Trata-se apenas de fazer avançar a barreira da proteção, não no final da cadeia de valor dos dados (ou seja, proteção contra atividades de definição de perfis de indivíduos específicos), mas no início (recolha e tráfico livres dos dados que alimentam os perfis). A livre circulação destas categorias de dados também não seria impedida: trata-se apenas de submeter essa circulação a um controlo público no interesse de uma melhor proteção dos direitos e liberdades afetados pela informação a que estas categorias de dados se referem. Aliás, isto já está no espírito do Regulamento europeu relativo ao espaço de dados de saúde.

De acordo com isto, a atividade desenvolvida pela Worldcoin não só constituiria um tratamento de dados questionável pelas razões já invocadas por autoridades nacionais como a AEPD ou a CNPD, mas também por se tratar de um tráfego oneroso de dados pessoais extra commercium.

Outro artigo sobre o ChatGPT? O possível futuro dos modelos fundacionais no Regulamento sobre Inteligência Artificial

Doutrina

Tanto o (ainda) futuro Regulamento sobre Inteligência Artificial (IA) como as ferramentas de Inteligência Artificial Generativa (ChatGPT ou Dall-e, entre outros) foram objeto de ampla discussão ao longo de 2023. As ferramentas de IA generativa, que explodiram em termos de popularidade no início do ano passado, suscitaram propostas de alterações significativas ao texto da Proposta de Regulamento de IA e debates entre Estados. Algumas dessas alterações podem ser encontradas nas Emendas à Proposta de Regulamento sobre IA apresentadas pelo Parlamento Europeu em 14 de junho de 2023. No final de 2023, ainda durante a presidência espanhola da UE, existiam duas posições opostas sobre a regulamentação dos modelos fundacionais: (1) fazê-lo através de códigos de conduta sem um regime de sanções por incumprimento; ou (2) a inclusão de certas obrigações no próprio Regulamento IA, referindo-se principalmente à transparência, embora também relacionadas com os direitos de autor.

Nesta publicação do blog, vamos centrar a nossa atenção em algumas das alterações do Parlamento Europeu sobre modelos fundacionais e na forma como isso afeta a IA generativa.

Para começar, convém esclarecer brevemente três conceitos: IA de objetivo geral, modelos fundacionais e Chat GPT.

Considera-se que os sistemas de IA de uso geral são os concebidos para desempenhar funções de uso geral, como o reconhecimento de texto, imagem e voz, a geração de texto, áudio, imagem ou vídeo, a deteção de padrões, a resposta a perguntas ou a tradução. Estes sistemas não teriam sido possíveis sem a redução dos custos de armazenamento e processamento de grandes quantidades de dados (big data).

Os modelos fundacionais, por outro lado, são modelos de inteligência artificial treinados em grandes quantidades de dados e concebidos para produzir informações gerais de saída capazes de ser adaptados a uma grande variedade de tarefas. Não devemos relacionar os modelos fundacionais exclusivamente com a IA de objetivo geral: um modelo fundacional pode servir tanto para sistemas de IA de objetivo específico como para sistemas de IA de objetivo geral. No entanto, os modelos fundacionais que não sirvam para ferramentas de IA para fins gerais não seriam abrangidos pelo futuro Regulamento relativo à IA (alteração 101 do PE e considerando 60-G).

O ChatGPT colocou desafios sociais e jurídicos significativos, não só em termos de direitos de autor, mas também em termos de cibersegurança e proteção de dados pessoais. Este tema será, no entanto, discutido num texto separado. Por enquanto, vejamos o que o futuro do Regulamento IA pode reservar para os modelos fundacionais, se as alterações do Parlamento Europeu forem aceites.

Os princípios gerais dos sistemas de IA

A alteração 213 do Parlamento Europeu propõe a introdução de um novo artigo 4º-A relativo aos princípios gerais aplicáveis a todos os sistemas de IA. Trata-se, de certa forma, de um equivalente ao artigo 5.º do Regulamento Geral sobre a Proteção de Dados, relativo aos princípios aplicáveis ao tratamento de dados pessoais.

Nos termos do artigo 4.º-A, todos os operadores abrangidos pelo âmbito de aplicação do Regulamento IA devem envidar todos os esforços para desenvolver e utilizar sistemas ou modelos fundacionais em conformidade com os seguintes princípios, destinados a promover uma abordagem europeia coerente, centrada no ser humano, de uma IA ética e fiável:

– Intervenção humana e vigilância

– Robustez técnica e segurança

– Privacidade e governação dos dados

– Transparência (e explicabilidade)

– Diversidade, não discriminação e equidade

– Bem-estar social e ambiental

Estes seis princípios serão aplicáveis tanto aos sistemas de IA como aos modelos fundacionais. No entanto, no caso dos modelos fundacionais, devem ser cumpridos pelos fornecedores ou responsáveis pela aplicação em conformidade com os requisitos estabelecidos nos artigos 28.-B. Note-se que os artigos 28.º a 28.º-B fazem parte do Título III relativo aos sistemas de alto risco. Já salientámos no início que as últimas discussões na negociação do Regulamento no que se refere aos modelos fundacionais não os consideram sistemas de alto risco. O mesmo não parece resultar das alterações do Parlamento. Por conseguinte, deve entender-se que os modelos fundacionais serão regulados nas disposições que os mencionam expressamente, como é o caso do artigo 4º-A ou dos artigos 28º a 28º-B, mas não no Título III do RIA no seu conjunto.

O artigo 28.º do PRIA diz respeito às obrigações dos distribuidores, importadores, utilizadores e terceiros. As alterações do Parlamento propõem a substituição do título por “Responsabilidades ao longo da cadeia de valor da IA dos fornecedores, distribuidores, importadores, responsáveis pela aplicação ou terceiros”.  A referência a toda a cadeia de valor da IA é, na minha opinião, uma boa medida, uma vez que sublinha a importância de todo o processo de IA: não só o seu desenvolvimento, mas também a sua utilização. Tenho mais dúvidas em substituir a palavra “obrigações” por “responsabilidades” ou em incluir no título uma lista pormenorizada de todas as partes envolvidas.

A maior parte das obrigações relativas aos modelos fundacionais encontra-se no n.º 3 do artigo 28.º (novo, alteração 399), que se intitula “Obrigações do fornecedor de um modelo fundacional” (o termo “obrigações” é retomado aqui).

Podemos agrupar as obrigações do fornecedor de modelos fundacionais em três grupos:

– Obrigações anteriores à comercialização de modelos fundacionais (n.ºs 1 e 2). Estas obrigações aplicam-se ao fornecedor, independentemente de o modelo ser fornecido autonomamente ou integrado num sistema de IA ou noutro produto ou de ser fornecido ao abrigo de licenças gratuitas e de fonte aberta.

– Obrigações pós-comercialização (n.º 3), e

– Obrigações específicas relativas aos sistemas de IA generativa, ou seja, especificamente destinados a gerar conteúdos, como texto, imagem, áudio ou vídeo complexos (secção 4).

Obrigações anteriores à comercialização do modelo fundacional

De acordo com o art. 28.ter.2, o fornecedor de um modelo fundacional, antes de comercializar ou colocar o modelo em funcionamento, deve (tendo em conta o estado da arte num dado momento):

– Demonstrar a deteção, redução e mitigação de riscos razoavelmente previsíveis para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia ou o Estado de direito.

o Tal deve ser demonstrado através de uma conceção, testes e análises adequados e com a participação de peritos independentes.

o Deve também fornecer documentação sobre os riscos não mitigáveis remanescentes após o desenvolvimento.

– Só deve processar e incorporar conjuntos de dados sujeitos a medidas de governação adequadas para modelos fundacionais.

o Em particular: adequação das fontes, enviesamentos e atenuação adequada.

– Deve conceber e desenvolver o modelo

o de modo a atingir, ao longo do seu ciclo de vida, níveis adequados de desempenho, previsibilidade, interpretabilidade, correção, segurança e cibersegurança, avaliados por métodos adequados;

o utilizando as normas aplicáveis para reduzir o consumo de energia, a utilização de recursos e os resíduos, bem como para aumentar a eficiência energética e a eficiência global do sistema. A este respeito, devem ser desenvolvidos modelos fundacionais com capacidades para medir e registar o consumo de energia e de recursos e o impacto ambiental.

– Desenvolverá uma documentação técnica exaustiva e instruções de utilização inteligíveis.

– Estabelecer um sistema de gestão da qualidade para garantir e documentar a conformidade com todos os elementos acima referidos (responsabilidade proactiva).

– Registar o modelo básico na base de dados da UE para sistemas independentes de alto risco.

Obrigações pós-comercialização do modelo básico

Durante dez anos após o sistema de IA ter sido colocado no mercado ou em serviço, os fornecedores de modelos fundacionais devem manter a documentação técnica à disposição das autoridades nacionais competentes (Agência de Controlo da IA).

Obrigações específicas para os modelos de IA generativa

Para além das obrigações gerais estabelecidas no ponto 28.ter.2, os fornecedores de sistemas de IA generativa devem:

– Cumprir as obrigações de transparência do artigo 52.º, n.º 1 (obrigação de informar as pessoas que interagem com estes sistemas de que estão a interagir com um sistema de IA).

– Conceber e desenvolver o modelo de forma a garantir salvaguardas adequadas contra a produção de conteúdos que infrinjam a legislação da UE.

– Sem prejuízo da legislação em matéria de direitos de autor, devem documentar e disponibilizar publicamente um resumo suficientemente pormenorizado da utilização de dados de formação protegidos por direitos de autor.

Bónus: dois desafios colocados pela IA generativa

Termino este post partilhando duas preocupações (às quais os nossos leitores poderão responder): os desafios em matéria de propriedade intelectual colocados pela IA generativa e a possibilidade de considerar os modelos fundacionais como de alto risco.

Começo pela primeira, porque é mais ousada da minha parte: quando é que eu, uma pessoa singular, posso ser considerado autor de uma obra literária gerada através de IA generativa (Chat GPT, por exemplo)? Desenvolvo um pouco mais a minha preocupação: não é (ou não deveria ser) a mesma coisa para mim introduzir uma simples pergunta no Chat GPT, como “escreva a oitava parte do Harry Potter”, do que introduzir várias perguntas com um certo nível de complexidade (quanto?), nas quais introduzo certas características específicas do romance. Se aceitarmos que as ferramentas de IA não deixam de ser ferramentas tecnológicas (muito complexas, mas tecnológicas), talvez possamos concordar que se trata de um debate semelhante ao que surgiu na altura em torno da fotografia, que permite distinguir legalmente entre “fotografia (artística)” e “mera fotografia (carregar no botão da câmara)”. Outra questão, mais difícil, seria distinguir, em cada caso, quando as instruções introduzidas numa ferramenta de IA generativa nos permitem falar de utilização artística da IA generativa ou de “mera utilização” da IA generativa.

O segundo desafio é, de facto, abrangido pelo Regulamento IA, mas é importante referi-lo. Consiste na consideração dos modelos fundacionais como sendo de alto risco. O anexo III da proposta de Regulamento IA contém uma lista não fechada de sistemas de IA de alto risco. No entanto, não se deve esquecer que a Comissão teria (na proposta de Regulamento relativo à IA, artigo 7.º) teria poderes para adotar atos delegados que alterem o anexo III para acrescentar sistemas de IA que satisfaçam duas condições: destinar-se a ser utilizados em qualquer dos domínios enumerados nos pontos 1 a 8 do anexo (ou seja, identificação biométrica e categorização de pessoas singulares; gestão e funcionamento de infra-estruturas críticas; educação e formação profissional, emprego, gestão de trabalhadores e acesso ao trabalho independente; acesso e usufruto de serviços públicos e privados essenciais e seus benefícios; questões de aplicação da lei; gestão das migrações; asilo e controlo financeiro; administração da justiça e processos democráticos); comportar um risco de danos para a saúde e a segurança ou um risco de consequências negativas para os direitos fundamentais que seja equivalente ou superior aos riscos de danos associados aos sistemas de IA de alto risco já mencionados no Anexo III, tendo em conta vários critérios, tais como, entre outros, o objetivo pretendido do sistema de IA ou a probabilidade de este ser utilizado de uma determinada forma.

Deve uma IA generativa (que é um exemplo de um modelo fundamental) capaz de produzir vídeos destinados a perturbar os processos democráticos ser considerada de alto risco? Parece claro que sim, uma vez que estas utilizações estão enumeradas no ponto 8 do anexo III, quer se destinem especificamente a perturbar os processos democráticos quer sejam suscetíveis de ser utilizadas para o efeito. O que não é claro neste momento (teremos de aguardar a redação final do texto) é se será considerado de alto risco desde o início, ou apenas depois de a Comissão adotar o ato delegado correspondente para alargar o Anexo III. Por outras palavras, se este ato delegado da Comissão seria constitutivo ou meramente declarativo de que um sistema de AI é de alto risco.

Uma nova era de responsabilidade civil extracontratual por danos causados por inteligência artificial

Legislação

À medida que a Inteligência Artificial (“IA”) continua a remodelar o nosso mundo, os criadores e utilizadores de sistemas IA enfrentam um cenário de responsabilidade civil em evolução. Neste post, vamos analisar a proposta de Diretiva de Responsabilidade por danos causados por IA (a AI Liability Directive – “AILD”) e explorar os seus elementos-chave relativamente ao regime de responsabilidade civil extracontratual que consagra.

Compreender a proposta AILD

Tal como explorámos numa publicação anterior, na UE, a responsabilidade extracontratual por danos causados pela IA funcionará num sistema de duas vias, sendo uma delas amplamente harmonizada, graças à proposta de Diretiva relativa à responsabilidade pelos produtos defeituosos (a Product Liability Directive – “PLD”). A outra via envolve um regime de responsabilidade em grande parte não harmonizado, composto pela AILD, que deixa uma margem de manobra substancial aos Estados-Membros, ao abrigo das regras do direito nacional em matéria de responsabilidade civil.

Suponhamos que um sistema de IA causa danos a um consumidor. De acordo com a proposta da PLD, esta situação envolve em regra responsabilidade objetiva, em que a parte lesada teria de provar o defeito do produto, o dano e o nexo de causalidade entre os dois. No caso particular de sistemas de IA, contudo, determinar o nexo de causalidade e o defeito pode ser uma tarefa complexa, razão pela qual a PLD consagra presunções de defeito, nexo de causalidade, ou ambos, para aliviar o ónus da prova para os consumidores.

Se o regime a aplicar for o da AILD, então a abordagem será diferente. Esta Diretiva centra-se principalmente em aspetos processuais, com o objetivo de harmonizar as regras para o acesso a informação e o ónus da prova quando se trata de responsabilidade extracontratual baseada na culpa por danos causados por sistemas IA. Por outras palavras, esta Diretiva procura harmonizar o regime processual de pedidos de responsabilidade civil, deixando os requisitos dessa responsabilidade (danos, culpa, nexo de causalidade, etc.) para os Estados-Membros regularem.

Âmbito de aplicação:

No que toca ao seu escopo, a Proposta AILD aplica-se a casos de responsabilidade civil extracontratual subjetiva, nos casos em que o dano é causado por um sistema de IA[1]. No entanto, a AILD não especifica quem pode estar sujeito a estas regras de responsabilidade. De facto, a proposta limita-se a incluir o conceito de “demandado” como a pessoa contra a qual é apresentado um pedido de indemnização. Isto alarga a sua aplicabilidade para além dos criadores, potencialmente abrangendo utilizadores profissionais e não profissionais e até os próprios consumidores.

No entanto, é relevante mencionar que, embora a proposta não defina quem pode ser responsável por danos, esta limita aqueles a quem as suas disposições se aplicam. Com efeito, o n.º 1 do artigo 3.º menciona potenciais demandados: fornecedores, utilizadores e fabricantes de produtos. Isto significa que os direitos e obrigações aqui consagrados estarão provavelmente vinculados aos atores definidos no Regulamento Inteligência Artificial.

Divulgação e acesso a informação:

Uma parte importante da proposta AILD é o artigo 3.º, que regula a divulgação e o acesso à informação no âmbito destes processos de responsabilidade civil. Esta disposição estabelece deveres específicos de divulgação para os potenciais demandantes quando confrontados com pedidos de indemnização decorrentes de danos causados por sistemas de IA de alto risco.

Para que um potencial requerente possa recorrer ao artigo 3.º do AILD, é necessário que:

  • o potencial requerente apresente factos e provas que apoiem a plausibilidade do seu pedido de indemnização (n.º 1, segundo parágrafo, do artigo 3.º);
  • o potencial requerido tenha recusado o acesso às informações necessárias, apesar de as ter à sua disposição (n.º 1, primeiro parágrafo, do artigo 3.º).

A proposta AILD exige que o potencial requerente adote todos os esforços razoáveis para obter os elementos de prova junto do potencial requerido antes de solicitar uma decisão judicial (n.º 2 do artigo 3.º). Se o potencial requerido não cumprir a ordem judicial de divulgação, as consequências são significativas, levando a uma presunção ilidível de incumprimento de um dever de diligência (n.º 5 do artigo 3.º). Esta presunção pode ser utilizada como presunção (ilidível) de um nexo de causalidade entre a culpa do requerido e o dano produzido pelo sistema de IA (n.º 1, alínea a), do artigo 4.º), como veremos mais adiante.

Eis o que isto significa na prática: Suponhamos que alguém sofre um dano devido a um sistema de IA de alto risco e decide apresentar uma queixa. De acordo com a proposta AILD, pode solicitar uma ordem judicial para que o potencial requerido revele provas e informações. No entanto, há uma condição essencial: o caso deve envolver sistemas de IA de alto risco, de acordo com a classificação do Regulamento Inteligência Artificial.

Ónus da prova:

A proposta AILD contém duas presunções significativas que ajudam a aliviar o ónus da prova dos requerentes:

  • O n.º 5 do artigo 3.º cria a presunção de incumprimento de um dever de diligência, que descrevemos acima, e
  • O artigo 4.º trata da causalidade entre a culpa do requerido e o resultado do sistema de IA.

Estas presunções são componentes cruciais da proposta AILD, simplificando o processo de determinação da responsabilidade nos casos de responsabilidade por danos que envolvam IA. De facto, pode ser muitas vezes difícil determinar as características exatas dos modelos de IA que foram mais relevantes para o resultado. Para fazer face a este risco de opacidade, o artigo 4.º da proposta AILD introduz uma presunção ilidível. Esta presunção refere-se especificamente ao nexo de causalidade entre a culpa, que deve incluir, pelo menos, a violação de um dever de diligência, e o resultado produzido pelo sistema.

Nesse sentido, para se valer desta presunção, o requerente deve demonstrar com êxito os seguintes elementos (artigo 4.º, n.º 2):

  • o requerente demonstrou ou o tribunal presumiu a culpa do requerido, devido ao incumprimento do dever de diligência previsto acima[2] ;
  • pode ser considerado razoavelmente provável, com base nas circunstâncias do caso, que a falha tenha influenciado o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA para produzir um resultado;
  • o requerente demonstrou que o resultado produzido pelo sistema de IA ou a falha do sistema de IA em produzir um resultado deu origem ao dano.

É importante notar que esta presunção não abrange a determinação da culpa em si, a existência – ou inexistência – de uma ação por parte da IA, a existência e o âmbito do dano, ou o nexo de causalidade entre a ação da IA e o dano. Ademais, ao contrário do artigo 3.º, o artigo 4.º não limita o seu âmbito de aplicação aos sistemas de IA de alto risco, abrangendo assim todos os sistemas de IA. Na verdade, define mesmo no n.º 5 que se o pedido de indemnização visar um sistema de IA que não seja de alto risco, a presunção estabelecida no n.º 1 só se aplica se o tribunal nacional considerar excessivamente difícil para o requerente provar o nexo de causalidade aí mencionado.

A proposta AILD não oferece, no entanto, uma definição de culpa, deixando ao critério dos Estados-Membros a forma como a definem nos seus sistemas jurídicos. Esta abordagem proporciona flexibilidade aos países para adaptarem o conceito de culpa aos seus quadros jurídicos atuais. No entanto, também implica que os criadores de sistemas de IA têm de ter em atenção a forma como o conceito é interpretado na jurisdição em que os seus sistemas são utilizados.

Comentários sobre a proposta da AILD

Nesta secção, aprofundamos considerações específicas e potenciais desafios relacionados com a AILD. A compreensão dessas nuances ajudará os criadores de sistemas de IA e consumidores a navegar em matérias de responsabilidade por danos causados por IA com maior confiança.

O primeiro aspeto importante a abordar é transposição de categorias de sistemas de IA (ex. sistemas de alto risco) do Regulamento Inteligência Artificial para a Proposta AILD, como feito no artigo 3.º desta. A categoria de alto risco definida pelo Regulamento Inteligência Artificial pode nem sempre se alinhar perfeitamente com aquilo que seria expectável de um regime processual harmonizado em termos de responsabilidade por danos causados por sistemas de IA. Este desalinhamento pode resultar em situações onde sistemas não são incluídos neste regime, quando deviam, e vice-versa.

Por exemplo, existem sistemas de IA que não são classificados como de alto risco e que podem ainda assim causar danos significativos aos indivíduos, mesmo que não apresentem o mesmo nível de risco para a sociedade em geral. É neste sentido que, por exemplo, a Autoridade Europeia para a Proteção de Dados sugeriu alterar tanto o mecanismo de divulgação de informação como a presunção do artigo 4.º para que sejam desligados da definição de sistemas de alto risco e se apliquem a todos os sistemas de IA.

Por outro lado, ao centrar-se nos sistemas de alto risco, a AILD parece ignorar os sistemas que são considerados proibidos ao abrigo do Regulamento Inteligência Artificial. Tendo em conta os efeitos especialmente negativos que estes sistemas acarretam, a proposta AILD deve ser atualizada de modo a abranger os danos infligidos pela sua utilização. Atualmente, a proposta não aborda explicitamente estas situações. Esta falha cria potenciais ambiguidades e incertezas quanto à responsabilidade dos criadores e utilizadores de sistemas de IA proibidos. Por último, a prova de falhas em sistemas de IA representa um desafio substancial para as pessoas lesadas por sistemas de IA. Este desafio decorre das complexidades dos modelos em causa, em especial quando se trata de revelar quais as características que influenciaram significativamente o resultado produtor do dano. Assim, mesmo com os desenvolvimentos processuais trazidos pelo AILD, ao não se regular em concreto a definição de culpa, eventuais lesados terão ainda de provar elementos como dolo ou negligência do demandado, o que pode ser particularmente difícil.


[1] De acordo com a definição de IA adotada no Regulamento Inteligência Artificial, ainda em processo legislativo.

[2] O artigo 4.º do AILD consagra outros requisitos que obrigam o requerente a provar que o dever de diligência foi violado, quando se trata de sistemas de IA de alto risco, relacionados com o incumprimento das obrigações consagradas no Regulamento Inteligência Artificial.

Transparência cerebral, telepat.ia e neurodireitos: Inteligência Artificial e a proteção jurídica da mente no século XXI

Doutrina

Quando não queremos que alguém saiba algo de nossa vida, não raro ouvimos aquele ditado popular: “se quer guardar bem um segredo, não o conte”. Correto? Não mais. No cenário tecnológico do século XXI, a ideia de comunicação direta de pensamentos e informações entre um indivíduo e uma Inteligência Artificial (IA) está se tornando possível, como foi demonstrada a transparência cerebral no World Economic Forum em Davos deste ano, o que expõe questões essenciais para debate sobre a proteção da mente humana e inaugura um novo domínio jurídico: os neurodireitos.

De fato, não se trata de telepatia. Outrossim, refere-se ao desenvolvimento de neurotecnologias, as quais têm muito a contribuir com usos clínicos e com a promoção da saúde da população de modo geral. Segundo a UNESCO, elas têm potencial para oferecimento de tratamentos e melhorias nas opções preventivas e terapêuticas para aqueles que sofrem de doenças neurológicas e mentais, bem como auxiliar os que não conseguem se comunicar ao traduzir a atividade cerebral em texto, voz ou imagens.

Mas as neurotecnologias vão além da área clínica. Nos últimos tempos, uma miríade de novos produtos com essas funcionalidades foi patenteada ou lançada no mercado de consumo, a exemplo dos novos Airpods da Apple (que são equipados com eletrodos aptos a medir a atividade cerebral), do Neuralink de Musk (uma interface direta entre computador e cérebro já em fase de testes em humanos que transmite sinais neuronais para dispositivos eletrônicos) e, mais recentemente, o sistema de IA da Meta, que promete decodificar o desdobramento de representações visuais no cérebro com uma resolução sem precedentes, como se pode perceber das imagens abaixo:

Fonte: Meta, 2023.

Tradicionalmente, a mente humana é considerada um santuário interno que permanece resistente à manipulação externa, diferenciando-se da natureza mais modulável e coercível do corpo tangível.  Mas essa ideia de que é o último refúgio da autonomia pessoal e do autogoverno e, em última instância, de liberdade, tem sofrido e sofrerá modificações em função justamente de neurotecnologias, dados relativos à atividade cerebral e IA, pois, com isso, poderá ser possível manipular ou influenciar indevidamente os pensamentos, as ideias, as emoções e tudo o que não é expresso, mas é processado internamente no tecido nervoso[1].

Existe um reconhecimento crescente de que dispositivos neurais não clínicos e não invasivos geram volumes substanciais de “Big Data Cerebral” que, combinado com outros tipos de dados, tornam o indivíduo completamente transparente perante quem utiliza essas tecnologias, o que gera importantes considerações científicas, éticas, de direitos humanos e regulatórias[2]. Como se viu, fornecedores estão trabalhando ativamente na criação de produtos e aplicativos que coletam e tratam dados neuronais para uma ampla gama de finalidades. Uma delas que é progressivamente aprimorada é a capacidade sem precedentes, tanto em termos de escopo quanto de precisão, de efetivamente “ler” a mente[3].

E isso pode ter diversas consequências negativas aos consumidores. Assim será, por exemplo, nos casos de utilização de dados neuronais para fins e marketing, tornando o sujeito ainda mais transparente, inclusive em seus gatilhos mentais, para fins de direcionamento de práticas comerciais e potencialmente tornando as dark patterns ainda mais efetivas; ou mesmo manipulando comportamentos ao adaptar produtos e serviços para explorar vulnerabilidades cognitivas ou emocionais, intensificando determinados tipos de emoções para que o sujeito se mantenha mais tempo na fruição de serviços digitais. Ainda, os dados neuronais podem revelar informações altamente pessoais e íntimas, como desejos, crenças e pensamentos, os quais se tem o direito de manter privados. A partir desses dados também se poderá barrar acessos a oportunidades – de consumo e outras, como o mercado de trabalho – a partir da seleção e favorecimento de pessoas com certos tipos de atividades cerebrais, o que pode resultar em discriminações contra aqueles com diversidade neurológica.

Com esses exemplos, vê-se que o potencial para uso indevido ou implementação inadequada suscita preocupações quanto à invasão nas esferas mais privadas das pessoas. Isso apresenta um espectro de riscos, incluindo neuromodulação, neurodiscriminação, homogeneização da identidade, manipulação, controle do comportamento social[4], além de poder infligir dano físico ou psicológico[5]. Nesse sentido, juridicamente, existe um debate em curso, especialmente nos países da América Latina, sobre a questão de se os dados neurais realmente constituem uma entidade inovadora que merece proteção sob estruturas distintas de direitos humanos.

Embora interpretações e aplicações adaptativas de direitos e leis já existentes possam ser cruciais, a paisagem em constante evolução exige a consideração de novos neurodireitos como direitos humanos, seja em favor da ampliação do atual quadro de direitos humanos para abranger direitos explicitamente adaptados ou mesmo totalmente novos que sejam aptos a proteger o domínio do cérebro e da mente de um indivíduo – os neurodireitos.

A questão de saber se os neurodireitos se qualificam como direitos humanos não é, contudo, isenta de críticas. Os direitos humanos são garantias legais essenciais, abstratas e universais. Esses direitos abordam aspectos vitais como vida, liberdade, igualdade e acesso a recursos básicos. Embora a lista tenha se expandido ao longo das últimas sete décadas, esse crescimento tem sido cauteloso devido a preocupações com a inflação e, consequentemente, a sua desvalorização. Isso porque são instrumentos poderosos que podem remodelar cenários legais e impactar inúmeras vidas e a economia, de modo que expandir o leque de direitos reconhecidos poderia levar à diluição de sua importância e eficácia. O temor é que, ao transformar cada interesse significativo ou preocupação válida em uma questão de direitos humanos, a natureza excepcional, o caráter exigível e a prioridade categórica dos direitos humanos possam ser comprometidos[6].

Dada a urgência da temática, porém, parece-nos que considerar neurodireitos como um novo desdobramento de direitos humanos é a abordagem mais adequada, haja vista que os direitos humanos desempenham um papel central na formatação de mandatos legislativos, diretrizes éticas e convenções sociais predominantes em escala global. Consequentemente, eles fornecem uma estrutura normativa de cunho também internacional e abrangente na qual a proteção de dados neuronais deve encontrar seu espaço, informando práticas de coleta e tratamento, bem como de governança para o ciclo de vida de tais dados. Portanto, adotar um approach baseado em direitos humanos pode servir como um guia orientador para aprimorar a compreensão, informar políticas públicas, nortear as atividades privadas e moldar regulamentações nesse domínio[7].

Como a sociedade lidará com a perspectiva de interfaces cérebro-computador capazes de decifrar pensamentos e transferir informações diretamente para sistemas de IA ainda é um capítulo a ser escrito. Na seara internacional, a discussão continua em aberto no que diz respeito à proteção de dados neuronais e o bem-estar mental[8].

De todo modo, o objetivo é proteger os indivíduos contra possíveis invasões no que toca à privacidade, a autonomia e a integridade mental, do mesmo modo que a liberdade cognitiva, a identidade pessoal, o livre arbítrio, a igualdade de acessos a melhoramentos cognitivos e a proteção contra discriminações (Iberdrola, s.d). Através do reconhecimento deliberado dos neurodireitos, pretende-se garantir que tanto os dados cerebrais das pessoas quanto o processamento desses dados sejam regidos por considerações éticas e de direitos humanos[9].

À medida que a “telepatia tecnológica” se torna uma possibilidade cada vez mais palpável, a proteção dos neurodireitos torna-se uma prioridade crucial. Garantir que os avanços tecnológicos sejam aplicados com responsabilidade e respeito pelos valores éticos e legais é essencial para moldar um futuro em que a mente humana volte a ser preservada como um santuário intocável. A urgência desse assunto fica evidente devido ao surgimento de técnicas inovadoras de mineração de dados, tecnologias amplamente difundidas e ao avanço da IA generativa, todos os quais instigam uma reflexão profunda sobre a necessidade de atualizações legais para proteger o valor informativo da “mente digital”[10], preocupação esta também em nível internacional (como a OCDE).

Dessa maneira, a proteção dos neurodireitos não é apenas um desafio jurídico relevante a todos, mas uma questão fundamental para a preservação da dignidade e liberdade individual no século XXI. Assim como o Chile e o México, o Brasil está se movendo em direção à fundamentalidade dos neurodireitos. A Proposta de Emenda à Constituição n. 29 de 2023 pretende alterar a Constituição Federal Brasileira para incluir, no rol dos direitos fundamentais, a proteção à integridade mental e à transparência algorítmica, incluindo no art. 5º o inciso LXXX: “o desenvolvimento científico e tecnológico assegurará a integridade mental e a transparência algorítmica, nos termos da lei”.

Para resolver essas questões complexas, os legisladores e juristas precisam se adaptar às mudanças tecnológicas rápidas e, ao mesmo tempo, garantir que os direitos humanos fundamentais sejam protegidos em uma visão transdisciplinar do problema envolvendo também eticistas, neurocientistas e desenvolvedores de inovações tecnológicas. Ainda, também será necessária a cooperação internacional entre blocos e países para o estabelecimento de um framework jurídico e de governança de dados neuronais, dada ainda a natureza transnacional das atividades das grandes plataformas e gatekeepers. Isso requererá a definição de padrões éticos e legais que abordem os desafios específicos trazidos pela interseção entre a IA e a mente humana, tendo a regulamentação cuidadosa como essencial para garantir que as novidades tecnológicas sejam usadas em benefício da sociedade e das pessoas… e não em seu detrimento.


[1] Ienca, M., et al. (2022). Towards a Governance Framework for Brain Data. Neuroethics, 15(20), 14 p.

[2] Susser, D., & Cabrera, L. Y. (2023). Brain Data in Context: Are New Rights the Way to Mental and Brain Privacy? AJOB Neuroscience, 1-12.

[3] Paz, A. W. (2022). Is Your Neural Data Part of Your Mind? Exploring the Conceptual Basis of Mental Privacy. Minds and Machines, 32, 395-415.

[4] Pintarelli, C. (2022). A proteção jurídica da mente. Revista de Direito da Saúde Comparado, 1(1), 104-119.

[5] Ienca, M., & Andorno, R. (2017). Towards new human rights in the age of neuroscience and neurotechnology. Life Sciences, Society and Policy, 13, 5. 1-27.

[6] Bublitz, J. C. (2022). Novel Neurorights: From Nonsense to Substance. Neuroethics, 15(1), 7.

[7] Kellmeyer, P. (2022). ‘Neurorights’: A Human Rights–Based Approach for Governing Neurotechnologies. In S. Voeneky, P. Kellmeyer, O. Mueller, & W. Burgard (Eds.), The Cambridge Handbook of Responsible Artificial Intelligence: Interdisciplinary Perspectives. pp. 412-426. Cambridge: Cambridge University Press.

[8] Ligthart, S. et al. (2023). Minding Rights: Mapping Ethical and Legal Foundations of ‘Neurorights’. Cambridge Quarterly of Healthcare Ethics, 1–21.

[9] Ienca, M., et al. (2022). Towards a Governance Framework for Brain Data. Neuroethics, 15(20), 14 p.

[10] Ienca, M., & Malgieri, G. (2023). Mental data protection and the GDPR. Journal of Law and the Biosciences, 1-19.

Inteligência Artificial, a nova vulgaridade

Doutrina

A Inteligência Artificial tornou-se ubíqua em grande parte do mundo e para grande parte das pessoas. Está presente no consumo, no trabalho, na vida em geral, na guerra, nas coisas. O que é bom e mau, dá à humanidade superpoderes e tem, provavelmente, o poder de extinguir a espécie humana.

Em março de 2023, promovida pelo Future of Life Institute, foi amplamente divulgada uma carta que pedia aos gigantes tecnológicos uma pausa de seis meses na investigação em Inteligência Artificial. Vários proeminentes líderes empresariais, cientistas de renome e preocupados mais ou menos importantes assinaram-na e divulgaram-na. Elon Musk juntou-se ao movimento, embora pouco tempo depois já estivesse a lançar a xAI, para competir no campo da Inteligência Artificial Generativa, novidade que esteve na base deste sobressalto geral, de que o ChatGPT é a vedeta mais conhecida. Parece que o apelo, em vez de abrandar, acelerou a criação.

A OpenAI tornou acessível ao público, em novembro de 2022, o ChatGPT, que assentava no denominado GPT-3 (mais concretamente 3.5), estando GPT para generative pre-trained transformer e 3 para a versão utilizada. Como acontece com os outros sistemas de Inteligência Artificial, que vivem de dados com que aprendem (machine learning), quanto mais e melhor for a informação mais rápida e precisa é a aprendizagem e melhores são os resultados. Tornando uma ferramenta como o ChatGPT acessível ao público em geral, foi como fogo em estopa. Instantaneamente, milhões de pessoas por todo o mundo estavam a experimentar a novidade, tornando o seu crescimento muito rápido e o seu desenvolvimento facilitado pela quantidade de interações com esses “professores”.

Agora parece que está para sair o ChatGPT-5. E uma série de concorrentes de outras empresas e de outras áreas de aplicação, tanto na linguagem, como no campo das imagens, som e código, em que a Inteligência Artificial Generativa também é espantosa.

A ubiquidade da Inteligência Artificial assenta no desenvolvimento das suas potencialidades e na abrangência das suas aplicações. No consumo, seja online ou no “mundo real”, está subjacente à aquisição propriamente dita ou, pelo menos, presente algures na cadeia de valor inerente à produção e distribuição de bens e serviços. Já ninguém pensa nisso. As pessoas limitam-se a usar os dispositivos por onde os algoritmos se vão executando e aprendendo, fazendo habilidades espantosas e auxiliando os humanos mais afoitos a ensaiar uns truques de magia.

A evolução foi rapidíssima e global. Basta pegar na última década, deixando de fora a pré-história da viragem do milénio, há longínquos vinte anos, para cada um de nós olhar para o modo como fazíamos o que tínhamos a fazer, como vivíamos a nossa vida, como aprendíamos, como comprávamos, para se chegar à conclusão de que as mudanças são grandes e radicais.

Algumas ideias promissoras falharam, outras foram adiadas, outras substituídas, mas o caminho na direção da automatização, da ampliação da rede de Internet, colocando-a nos objetos, naquilo a que veio a ser denominado “Internet das Coisas”, na generalização do uso de máquinas que aprendem tem sido, e tudo indica que vá continuar a ser, inexorável.

A Inteligência Artificial é uma espécie de eletricidade do nosso tempo. Quando usamos o computador, o telemóvel, o carro, a casa, quando nos movemos, não pensamos que o fazemos porque temos eletricidade e, na maior parte das situações, porque temos disponível Inteligência Artificial. Isso acontece quando algo se torna um dado adquirido, tão presente que fica invisível, até desprezível, exceto quando falta. Foi o que aconteceu com a eletricidade, há mais de um século. É o que acontece com a Inteligência Artificial, há cerca de uma década. Assim como se passou a carregar num interruptor e a ter uma luz que iluminou as trevas milenares, achando normalíssimo que assim acontecesse, e como se passou a ligar um fio à parede para pôr a funcionar máquinas de todas as espécies, achando igualmente normalíssimo, também nos fomos recentemente habituando a que essas máquinas nos indicassem o caminho por onde devíamos seguir, nos fornecessem a informação de que não nos estávamos a lembrar, nos permitissem saber instantaneamente História, Geografia, Matemática ou qualquer outro saber, cumprissem ordens nossas, nos dessem ordens que cumprimos, nos indicassem o que comprar, onde o fazer, comparassem preços e produtos, recebessem e fizessem reclamações, conversassem connosco com uma paciência infinita de que nem o mais simpático dos humanos é capaz.

Não nos apercebemos, e provavelmente preferimos até não saber, do que está inerente aos resultados que desejamos. Em todos os campos. Cientistas credibilíssimos avisam há mais de cinquenta anos, com provas irrefutáveis, sobre as alterações climáticas e as suas consequências, mas nós queremos a nossa comodidade, o nosso carro, as nossas embalagens de plástico, as nossas fibras, a nossa roupa. A indústria têxtil é das mais poluentes, como magistralmente mostra a série de reportagens “O que vamos vestir amanhã?”, que abre uma janela de esperança à mitigação do problema através do uso de tecnologia. Estudos, princípios e regras, intensos avisos sobre o uso e, principalmente, o abuso da Inteligência Artificial não têm faltado. Por exemplo, no campo da ética, pode-se relembrar o esforço da União Europeia e de prestigiados cientistas para construir uma “Inteligência Artificial Confiável”. Salientam-se, pelo destaque mediático e pela intensidade, os avisos de 2014, de Stephan Hawking e Elon Musk sobre a ameaça, inclusive de extinção, que a Inteligência Artificial representava para a humanidade. Elon Musk voltou a avisar em 2023, ainda que não parecendo capaz de seguir os seus próprios conselhos, ao juntar-se ao grupo que subscreveu a carta-apelo promovida pelo Future of Life Institute.  Yuval Noah Harari, em maio de 2023, veio de propósito a Lisboa para nos deslumbrar e assombrar, numa Conferência em que explicou exatamente o que pensava sobre o assunto. Como faz há anos, por escrito, em best-sellers, e por todos os meios possíveis. Chamaram-lhe cientista “rockstar”. É ouvido e ignorado por todo o lado. O público acha-lhe graça, encolhe os ombros e consulta o telemóvel, talvez para procurar primeiro Harari e, depois, um restaurante para ir de seguida consumir um bom jantar, guiado por uma aplicação com glocalização, escolhendo o prato indicado por uma influencer famosa, tirando uma foto para colocar nas redes sociais enquanto a comida arrefece, criando permanentemente mais dados que os algoritmos deglutem sem dificuldade.

A Inteligência Artificial é a nova vulgaridade, acessível a todos, sempre presente e disponível. Ubíqua e não inócua.

O Ronaldo, o Messi, o Louis e a Annie – futebol, xadrez, arte ou publicidade

Doutrina

A 20 de novembro de 2022, teve início oficial um dos eventos mais importantes do planeta, denominado “Campeonato Mundial de Futebol FIFA de 2022”. Este Mundial, a que de tão conhecido e relevante basta chamar assim, tem vindo a ser alvo de polémicas de várias espécies, quase todas más. As suspeitas de corrupção e os atentados aos direitos humanos são as que mais se destacam.

No entanto, para além disso e da competição propriamente dita, surgem também outras coisas extraordinárias e no dia da inauguração acontece uma muito interessante. Fala-se muito de xadrez e contempla-se arte. Ou publicidade. Arte publicitária, que evidencia como são ténues as fronteiras em muitos campos. Sob um fundo absolutamente clássico, com uma perfeita quase ausência de cor, estão um baú sobre o qual assenta uma mala de mão, com padrão de quadrículas castanhas, nas quais estão dispostas peças de xadrez. Sentados, dois homens, um de cada lado, pousam na mala uma mão e, na outra mão, a cabeça, numa atitude absolutamente compenetrada e absorvida. Parece que abraçam suavemente o tabuleiro improvisado. Tudo é equilibrado, harmonioso. A luz, a sombra, a cor, as posições, as peças caídas e as peças em jogo, tudo concorre para a incrível obra de arte fotográfica de Annie Leibovitz, extraordinária artista que, entre muitos outros, fotografou a rainha Isabel II. Os homens são Lionel Messi e Cristiano Ronaldo, as malas são Louis Vuitton, marca criada em 1854, a jogada de xadrez é do terceiro jogo entre Magnus Carlsen e Hikaru Nakamura, no torneio da Noruega de 2017, que terminou num empate.

No Twitter, recentemente adquirido por Elon Musk, que rapidamente se pôs a despedir muitas pessoas, a marca de luxo publica que “Victory is a state of mind”, relembra que tem acompanhado os mais importantes eventos desportivos e explica que a fotografia celebra os dois mais talentosos jogadores de futebol da atualidade. Tudo verdade. Ganhar é um estado de espírito que, aliado a muito suor e trabalho pode levar à vitória, a Louis Vuitton é tão antiga e emblemática que acompanhou muitos desportistas e outros viajantes ilustres e ricos nas suas deslocações. A primeira classe do Titanic, por exemplo, estava carregada de bagagem assim acomodada. É usualmente aceite que Messi e Ronaldo são os melhores jogadores de futebol do mundo. Além de que Annie Leibovitz conseguiu mais uma assinalável proeza fotográfica. Nada foi deixado ao acaso, o mais ínfimo detalhe daquele improviso foi meticulosamente planeado. Até o xadrez. Podiam ter colocado aleatoriamente umas peças que ficassem bem em cima das quadriculas do padrão, para as quais jogadores de futebol estariam, em pose, a olhar, mas não. Deram-se ao trabalho de escolher um lance duma partida entre os melhores jogadores de xadrez do mundo e, ainda mais precisamente, uma que acaba num empate. Este detalhe, também ele, além da subtileza, evidencia um enorme respeito, tanto para com os jogadores de xadrez, como para com os jogadores de futebol retratados.

A publicação, a foto, a situação tornou-se viral nas redes sociais e, no Mundial de futebol, o xadrez ganhou lugar através de algo que  tudo indica ser uma excelente campanha publicitária.

Daqui dois pontos principais há a assinalar. O primeiro, é o fascínio que o xadrez ainda origina nas pessoas e, também, a capacidade que tem de fazer vender. Relembre-se como o mundo, em plena guerra fria, esteve suspenso de alguns jogos e desatou a comprar tabuleiros e peças e a jogar. Por exemplo, o filme “O Prodígio” mostra-o no Campeonato Mundial de Xadrez de 1972, em que o americano Bobby Fisher venceu o soviético Boris Spassky. Em final de 2020, a série “The Queen’s Gambit”, inflamou as audiências e fez disparar o consumo em várias áreas, naquilo que se poderá denominar “efeito Netflix”. Relembre-se, também, como foi impressionante quando o Deep Blue, uma máquina, venceu em 1997 Garry Kasparov, o campeão de xadrez da época. O xadrez tem associada a ideia de inteligência, de ponderação, de visão, de segurança, de precisão e muitas outras que o tornam adequado a simbolizar a superioridade humana, a qualidade individual de uma pessoa, a representar a ideal qualidade de um povo, de um país, da humanidade.

O segundo ponto a assinalar é a natureza esquiva e fluida da publicidade. Num duplo sentido. Por um lado, a sua clássica proximidade à arte. As sopas Campbell de Andy Warhol, não deixaram de ser sopas quando o artista resolveu fazer delas uma obra de arte, curiosamente, com a inicial oposição dos detentores da marca. A fotografia de Annie Leibovitz não deixa de ser uma manifestação artística por fazer publicidade.

No entanto, urge questionar, publicidade a quê? Sem dúvida, à marca das malas. Temos, no entanto, de admitir que cada um dos jogadores retratados são também publicitados. Embora já de si, pareçam possuir o toque de Midas, transformando em ouro tudo em que tocam, qualquer deles tem associado um fortíssimo merchandising e o reforço da divulgação da sua imagem vai certamente refletir-se em aumento de vendas. Ganham os próprios, ganham as empresas que produzem e vendem bens e serviços com o seu selo, ganham os clubes, os países e, certamente, muito mais gente que não nos ocorre. O próprio Mundial, certamente também ganha, sendo ainda mais divulgado. O Twitter e as redes sociais em que foto e publicação circulam, certamente ganham em visitas, que terão originado mais receitas em publicidade e outras. Este é o outro lado, do segundo ponto a assinalar. A publicidade tornou-se difusa, esquiva, fluída, indireta, de fronteiras muito pouco claras. A publicidade tradicional, ainda predominante na primeira década deste século, não só está a cair em desuso, como é acompanhada por novas formas que seriam muito difíceis de prever há algum tempo e que apresentam contornos pouco nítidos, que tornam difícil a sua qualificação e enquadramento jurídico. Salienta-se, pela relevância e amplitude que pode alcançar a “publicidade” nas redes sociais, quer através de algo que se torna viral, trazendo de repente para a ribalta marcas de bens ou serviços, quer através do trabalho dos influencers, mais sistemático, que vão apresentando, ou usando, ou comentando coisas, sítios que, por isso, vendem mais. Com o advento dos chatbots e o desenvolvimento do processamento de linguagem natural, também a publicidade pode passar a ser personalizada, sendo apresentada a cada pessoa que conversa com a máquina os produtos que procura, ou os que mais lhe podem interessar. Se juntarmos a realidade virtual, aumentada e mista, que temos vindo a abordar em posts recentes, acabamos por poder estar a ser avassalados, permanentemente, por comunicação que promove, com vista à sua comercialização, quaisquer bens ou serviços. Transformamo-nos em destinatários permanentes de publicidade, mais ou menos do mesmo modo como nos tornamos produtores e consumidores de dados pelo simples facto de existirmos e, principalmente, de usarmos um smartphone.

O Ronaldo, o Messi, o Louis e a Annie, fazem desporto, indústria, arte, história, promovem o futebol, o xadrez, as viagens, a moda, a fotografia, fazem publicidade, originam o aumento de vendas de coisas várias, geram tráfego nas redes sociais e na internet, alimentam a big data e a inteligência artificial, forçam os cânones do Direito, de todos os Direitos. Integram uma realidade cuja complexidade se adensa progressivamente, tornando difícil a sua análise e compreensão.

Vale-nos o Mundial que, nos relvados atafulhados de publicidade, nos vai manter fixos no jogo, algo à escala humana.

A Web Summit no presente do futuro do consumo

Doutrina

Estamos no day after da Web Summit que, como a maioria das pessoas em Portugal sabe, aconteceu em Lisboa, de terça a sexta. Neste fim de semana, na próxima semana e, se tudo correr bem, nos próximos meses, os contactos entre quem se encontrou por ali vão dar frutos contribuindo, entre outras coisas, para alterar as relações entre profissionais e consumidores, o modo como se consome e para trazer novos desafios ao Direito que tem de conseguir enquadrar e dar solução aos desenvolvimentos que os mercados vão impondo.

A Web Summit, já em pré-registo para 2023, fechou a 4 de novembro, com o Presidente da nossa República a cumprimentar Paddy Cosgrave, o CEO da organização, com um carinho que lhe pode ter deslocado um ombro e a anunciar-lhe que a feira vai ficar em Portugal até 2028, como está combinado, mas também depois, como espera que se irá combinar, com a promessa de aumento de construção do espaço, feita pelo mayor anterior, agora Ministro das Finanças, a dever ser cumprida pelo mayor atual, de nome Moedas, sob a atenta vigilância do PR, que do palco o avisou. Paddy, a tentar recuperar o equilíbrio do aperto de mão de entrada, do rombo que a pandemia fez nas suas finanças e do facto de ter de encaixar o evento numa área que afinal ainda não cresceu, não disse que sim, nem que não.

Para quem por lá andou é muito evidente que o espaço se torna exíguo para este retorno pleno ao presencial. Estiveram mais de 70.000 participantes de cerca de 160 países e o maior número de sempre de startups e investidores. Incluindo o Altice Arena, quatro pavilhões de consideráveis dimensões a que foi possível acrescentar um quinto improvisado, uns food trucks e mais umas barracas e estruturas amovíveis, ou não fosse uma feira, ainda assim a simples circulação é difícil, implicando uma permanente gincana, no perpetuo movimento que é necessário entre a visita às empresas, às mais de dez salas e palcos de Conferências e de apresentações que estiveram sempre a abarrotar e as reuniões entre os participantes. Ser o ponto de encontro é o mantra da Web Summit: “Where the tech world meets”.

A efervescência impera e, saudavelmente, são mais as perguntas que as respostas. Impera, também, a investigação. Toda a gente está a fazer investigação. Ligada a Universidades, a empresas, a ambas, a consórcios, a grupos de várias naturezas, investigar, desenvolver, experimentar, falhar, voltar a tentar é o dia a dia de quase todos. Qual vai ser o resultado é o que menos importa, porque é pelo caminho que vai acontecendo o que é relevante. Vive-se um ambiente de dúvida, mas metódica e criadora.

Se há uma certeza, é a de que é tudo muito rápido, sempre mais rápido, por várias razões. A principal, provavelmente, é o facto de que a par do desenvolvimento autónomo de tecnologias diferenciadas, se vai dando a interligação entre elas, o que provoca saltos, muitas vezes inesperados e intensos. É o que está a acontecer, por exemplo, com o denominado metaverso. A big data e a inteligência artificial aliadas à realidade virtual e aumentada, que foi caminhando para a denominada realidade mista, estão a levar a indústria e o comércio a novos modelos de negócio, alterando-se a relação entre profissionais e consumidores e a maneira como estes atuam no(s) mercado(s). Este assunto foi já abordado neste blog, a propósito dos smartglasses. A conjugação daquelas tecnologias, com as potencialidades da blockchain, o aumento da capacidade de computação e a imaginação, estão na base do enorme desenvolvimento daquilo a que se vem apresentando como o metaverso. Do que vimos, os mundos “alternativos”, virtuais, mistos, em que a realidade física se mistura com a realidade virtual, têm tudo para se tornarem incontornáveis. Saíram, definitivamente, do campo restrito dos jogos, para entrarem no do trabalho, da produção, da venda de bens e produtos, físicos e virtuais.

Naomi Gleit, responsável de produto da Meta (que veio a incluir o Facebook, o Instagram, o Whatsapp e mais uma série de outras empresas e/ou marcas), será provavelmente uma das pessoas mais habilitadas a explicar e no palco principal da Web Summit, fê-lo da melhor forma possível: com toda a simplicidade. Disse que o metaverso é o futuro da internet, que vamos experienciar a três dimensões. É isto. O metaverso é, pois, a internet a três dimensões. A gestora afirmou ainda, entre várias outras coisas muito interessantes, que “A Meta não vai ser dona do metaverso”, como nenhuma empresa é dona da internet e que o metaverso vai acontecer, com ou sem a Meta. Vão existir vários players no mercado a fornecer as plataformas e os serviços para que todos possam vir a usar.  

O tema das realidades virtual e aumentada, na internet, não é nada novo. Por certo que muitos se lembram do Second Life que, lançado em 2003, já tinha avatares e permitia uma vida paralela num mundo virtual. E, desde há vários anos que jogadores passam grande parte do seu tempo dentro de mundos virtuais em jogos crescentemente complexos e com ambientes próximos da “realidade real”. Também a experiência de óculos como os da Google, do Facebook ou outros é relativamente comum. Já para não falar do fenómeno incrível que dominou o verão de 2016 quando o mundo se lançou numa insana caça aos Pokemons, descarregando a aplicação para smartphone do jogo que ganhou 25 milhões de utilizadores no mês de lançamento. Nas suas casas e nas ruas, parques, campos e cidades pelo mundo fora, as pessoas corriam, de telefone em punho, em direção de desenhos animados virtuais, que através do telemóvel apareciam no mundo físico. Depois passou. No entanto, de um modo bastante corrente, estas tecnologias foram ficando, tornando-se quase banais. Muitos de nós usam, sem grandes reflexões prévias, aplicações de telemóvel para experimentar, online, roupa, ou como é que um móvel ficaria na sua sala, ou algo de semelhante. Isto é, seja em jogos, seja comercialmente, estas tecnologias vão estando incluídas no cardápio do cidadão comum que as usa porque é divertido e prático, sem pensar muito, nem antes, nem depois

O tema ainda será relativamente de nicho, mas do que foi possível observar, dir-se-ia que vai haver uma explosão de metaverso, muito rapidamente. Se vai ser um hype, ou se virá para ficar e dominar, é o que se verá. Por vezes há temas em grande ascensão que, de repente, estagnam. Foi o que aconteceu, por exemplo, com os veículos autónomos e com os robots “humanoides”, quem sabe se por evidenciarem demasiado a possibilidade de a humanidade ser ultrapassada por máquinas.

A humanidade não gosta de pensar nessas coisas e, talvez por isso e por não ser o melhor para o negócio, terá havido várias pressões para que fosse desconvidado o linguista, cientista cognitivo e filósofo Noam Chomsky que, juntamente com Gary Markus, da Universidade de Nova York foram “Desmascarar a grande mentira da Inteligência Artificial” (Debunking the great AI lie), no último painel da Web Summit, numa Altice Arena a rebentar pelas costuras. O foco foi nas habilidades do GPT-3 e de outros sistemas semelhantes de processamento de linguagem natural (NLP) que, laboriosamente, colocam palavras a seguir a palavras, naturalmente não percebendo patavina do que fazem, pelo menos do ponto de vista do que é a construção e a compreensão humana da linguagem. Quando uma pessoa diz ou escreve “Este quadro de Picasso é bonito” estará a equacionar o conceito de beleza, objetivo e subjetivo, a comparar a obra com outras que conheça do autor, com a de outros autores, com a realidade que representa e a pensar em mais uma infinidade de coisas que contribuem para o juízo que profere. Quando o GPT-3 diz ou escreve a mesma frase, está a contabilizar as vezes que foi dita e escrita a propósito do quadro em causa e a calcular, com base na quantidade descomunal de informação a que acede e que consegue processar, qual a melhor sucessão de palavras que pode apresentar no contexto em que é solicitado. O que pode dar sarilho.

São, pois, de grande pertinência as advertências em relação à Inteligência Artificial, principalmente quando foram feitas atempadamente, há décadas.

Com a convergência de tecnologias, o aumento da informação, da capacidade de computação e das habilidades da inteligência artificial, a caminho do metaverso, riscos e benefícios sobem de escala.

A proteção dos consumidores, vamos ver como se fará, mas poder-se-á admitir como provável a existência de novos elencos de informação, que o avatar do consumidor, como o próprio, aceitará. 

O consumidor como produtor de informação

Doutrina

A proteção do consumidor nasce da constatação de que na sociedade de consumo em massa o cliente individualmente considerado se encontra numa posição de fragilidade em relação ao produtor e ao vendedor. Estes, além de provavelmente mais ricos e poderosos, estariam na posse de informação fundamental para que o comprador tivesse a oportunidade de formar adequadamente a sua vontade de adquirir certos bens ou serviços. Estará aqui a principal justificação para muito da legislação de defesa do consumidor assentar uma parte relevante do seu regime de proteção, na obrigação de ser transmitida informação ao tal ser estereotipado: o consumidor.

Há muito que se encontra cientificamente demonstrado que grande parte das decisões humanas não são ponderadas. Não se trata de falta de informação, trata-se do modo como o cérebro humano usualmente funciona. A economia comportamental, que combina a vertente económica com as ciências cognitivas, estudou detalhadamente o fenómeno.  Por todos, podemos ler “Pensar, depressa e devagar”, de Daniel Kahneman que questionou o modelo racional de tomada de decisões e de formulação de juízos. Licenciado em matemática e psicologia pela Universidade de Telaviv, posteriormente doutorado em psicologia pela Universidade de Berkeley, ganhou em 2002 o (mal) denominado Prémio Nobel da Economia “Por integrar aspetos da pesquisa psicológica sobre o comportamento económico do homem em situações de incerteza e a tomada de decisões nessas circunstâncias”.

Este livro, acessível a leigos, é mais que suficiente para se ficar sem grandes dúvidas sobre o processo mental usualmente subjacente à quantidade descomunal de decisões que o ser humano tem de estar sempre a tomar. A decisão rápida, digamos que instintiva, instantânea, impensada, inconsciente, é a regra e não a exceção.

Mesmo que não existissem estudos a evidenciar esta realidade, uma simples observação atenta dum consumidor médio por um jurista médio, há muito que permite concluir que dar-lhe informação pode ser infinitamente pouco se, efetivamente, se pretende protegê-lo. Bastaria, até, que cada um de nós observasse a sua própria atitude face ao modo como emite os “Aceito” todos os dias, para suspeitar da pouca eficácia da informação acessível.

Paradoxalmente, o aumento da quantidade de informação, quanto mais não seja por manifesta falta de tempo, parece contribuir mais para a desresponsabilização de quem a entrega do que para a formação da vontade de quem a recebe. O Manifesto contra a subversão do contrato, de Margarida Lima Rego, apresenta com veemência esta realidade, em contexto financeiro e meio digital. O assunto foi também abordado neste blog por Jorge Morais Carvalho, a propósito da adesão a contratos celebrados com recurso a cláusulas contratuais gerais. No limite, sabendo-se que os clausulados não são, nem podem razoavelmente ser, lidos por pessoas diligentes, a incerteza associada ao seu efetivo conteúdo é grande.

Embora as evidências científicas e de senso comum mostrem à saciedade, e também à sociedade, que esta coagida dádiva, menos em linha com a convicção, que em automática inserção de novos formulários aptos a serem em bloco e acriticamente “aceites”, não funciona, o “legislador” insiste em fazer assim, principalmente por não saber fazer doutra maneira. No limite, não prescindindo da soterração e saturação do consumidor e da desresponsabilização do produtor/prestador de serviços que, através da entrega de informação sobre os defeitos e insuficiências do que vende, pode responder menos pela falta de qualidades, diversa legislação distingue o mais importante do menos, estabelece hierarquias, impõe formulários de informação uniforme, sinalética visual mais ou menos colorida, tudo com vista a proporcionar a esse idílico ser racional, o consumidor, os instrumentos intelectuais de que necessita para fazer, contra toda a probabilidade e informação científica, uma escolha ponderada, tanto na necessidade como na qualidade, pensando se realmente precisa do que vai adquirir e comparando caraterísticas, preços, condições dos contratos, garantias, tudo, tudo, de vários produtos ou serviços semelhantes, para escolher mesmo bem. Exercício, atualmente, repetido muitas vezes ao longo do dia, intercalado por tomadas de conhecimento e aceitação de políticas de privacidade, mais especificamente “cookies”, e de proteção de dados, os mais recentes fornecedores de listas de declarações paralelas, mas integrantes da relação comercial.

O “direito à informação” é, assim, um dos grandes pilares da defesa do consumidor e, no essencial, usa-se quando meios realmente eficazes não estão disponíveis para o proteger.

Até há relativamente pouco tempo, ao falar-se de informação e de consumidor, o verbo mais usado era o “dar”. O profissional obrigado a dar e o consumidor obrigado a receber, sob pena de poder vir a ser considerado desleixado, pouco diligente, abaixo de “médio”, o que lhe retiraria alguma proteção.

Há, no entanto, que assinalar que os tempos mudaram e atualmente o consumidor, além de recetor, passou a produtor intensivo de informação. Tanto online, como no mundo físico, embora em ambiente digital a recolha, registo e tratamento de dados assuma maiores proporções.

As pessoas, pelo simples facto de se movimentarem em sociedades industrializadas e conectadas, usando sistematicamente dispositivos digitais, principalmente o telemóvel, criam informação, sobre si próprias e sobre o mundo, que é usada pelas empresas e pelo Estado.

Essa informação tem valor e vem suscitando já vasta discussão sobre se deverá ou não ser paga, bem como sobre a ideia de gratuitidade de produtos ou serviços que acabam por ter como “contrapartida”, dados sobre quem os adquire. Martim Farinha analisou o conceito de pagamento neste blog, no contexto da Diretiva das Praticas Comerciais Desleais.

Parece, pois, que no que diz respeito à informação, o consumidor tem o direito e o dever de a receber, ainda que daí não resulte benefício efetivo para nenhuma das partes. Uma espécie de óleo de fígado de bacalhau que tem de ser dado por uns e engolido por outros, perpetuando-se a tradição. É o consumidor como recetor de informação.

O consumidor como produtor de informação é algo novo, diferente, desafiante. Apetece perguntar várias coisas a esse respeito. Neste contexto, pergunta-se simplesmente: será que o consumidor ao receber pela informação que produz, em dinheiro ou géneros (produtos e/ou serviços), se torna “profissional”?

A produção de informação é uma atividade, de algum modo, comercial a que o consumidor moderno se vai dedicando bastante.

El Impacto de la Inteligencia Artificial como Producto de Consumo

Doutrina

Por Jesús Mendoza Díaz, Doctorando en el Área de Derecho Civil de la Universidad de Jaén[1]

La Inteligencia Artificial (IA) está encaminada a ser un “trending topic” en el ámbito jurídico, siendo la principal artífice de la nueva digitalización en el mundo, y posiblemente la gran revolución del siglo XXI.  La IA se encuentra hoy dotada de una triple facultad, cuyas cualidades para interpretar, discernir y decidir sobre un elenco de posibilidades, la catapultan a sustituir al ser humano en una multitud de facetas que nunca se han visto. La clave de este proceso se concentra en el “machine learning” y en el “deep learning” de los algoritmos, que pueden originar decisiones automáticas, a través del auto-aprendizaje adquirido.

No obstante, se cuestiona, en muchos casos, en la confiabilidad del algoritmo, dado que a veces pueden resultar opacos, con patrones oscuros o sin la información suficiente, llegando a producir situaciones ilegales y supuestos de discriminación para los consumidores. Convirtiéndose así la inteligencia artificial en un arma arrojadiza y volátil, cuyos riesgos deben ser evaluados por el Derecho y por los sistemas jurídicos nacionales, para ofrecer una pronta respuesta a los ciudadanos ante la eventualidad de los daños.

A su vez, se ha ido configurando un nuevo tipo de consumidor, más adicto a las nuevas tecnologías, más innovador y progresista, en concordancia con la época actual que estamos viviendo, en el que no existe ningún reparo en adentrarse en un mundo virtual lleno de apps y de datos contenciosos, sin conocer a ciencia cierta las oportunidades y peligros que ello conlleva. Pero si hablamos de la naturaleza de la inteligencia artificial, que a menudo depende de conjuntos de datos amplios y variados, puede perfectamente integrarse en cualquier producto o servicio que circula libremente por el mercado interior.

La Unión Europea ha decidido solucionar dicha cuestión, proponiendo las primeras directrices para configurar la primera ley sobre inteligencia artificial en territorio europeo. En su primera resolución del año 2017, prevé la posibilidad de que los robots con inteligencia artificial más sofisticados, posean una “personalidad jurídica específica”, que les otorgaría legitimidad para responder de manera unipersonal frente a los daños causados con la posible creación de un patrimonio propio y de un fondo de compensación. Esta formulación surge como alternativa económica para enajenar la responsabilidad civil de los fabricantes y productores e incentivar la producción científica. Sin embargo, en el resto de las resoluciones, véanse el Libro Blanco sobre inteligencia artificial en 2020 y la Resolución del Parlamento Europeo en 2020, no hacen referencia ni contemplan esta posibilidad. De lo que no cabe duda, es que los robots con inteligencia artificial, desde el punto de vista jurídico serán sometidos al concepto de “producto” y de “producto defectuoso”.

A pesar de ello, actualmente las normas tradicionales sobre consumo no están preparadas para acoger los nuevos supuestos de responsabilidad civil que se originen de la inteligencia artificial. Los términos “producto” y “consumidor” siguen siendo ambiguos y confusos; dado que, por ejemplo, en España, se refiere como producto a cualquier bien mueble, o así, como el gas o la electricidad[2]. Y en Portugal, por ejemplo, el legislador no distingue bien entre consumidor de bienes y usuarios de servicios[3]. Inevitablemente dichas legislaciones son anteriores al nacimiento de la nueva inteligencia artificial, por ello, la Unión Europea está encaminada a crear una normativa sui generis con una repercusión trascendental sobre el resto de las directivas y de leyes nacionales, en las que sea posible incluir de manera notoria y específica a la robótica con inteligencia artificial como un producto de consumo.


[1] Trabajo apoyado económicamente por la Escuela de Doctorado de la Universidad de Jaén, para optar a la Mención internacional en el título de doctor en el momento de presentar la tesis doctoral.

[2] Artículo 136 TRLGDCU (Real Decreto Legislativo 1/2007, de 16 de noviembre, por el que se aprueba el texto refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias).

[3] Artículo 2 LDC (Ley nº 24/96 de 31 de julio, para la defensa de los consumidores).

Ética na Inteligência Artificial – UNESCO aprova Recomendação com enquadramento global

Legislação

A UNESCO adotou o primeiro conjunto de regras globais sobre a ética na Inteligência Artificial (IA), na sua 41ª Conferência Geral, que decorreu, em novembro, em Paris.

Audrey Azoulay, Diretora-Geral daquela Organização Internacional, que havia lançado, em 2018, o projeto ambicioso de dar ao mundo um enquadramento ético para a utilização da inteligência artificial, anunciou, em 24 de novembro de 2021, que esse objetivo havia sido alcançado. Três anos mais tarde, e graças à mobilização de centenas de peritos de todo o mundo e a intensas negociações internacionais, foi possível que os 193 Estados-membros da UNESCO aprovassem o enquadramento universal da IA.

Este é um texto que faz história ao definir, a nível global, os valores e princípios comuns que irão orientar a construção das bases legais necessárias para assegurar o desenvolvimento adequado da IA.

Este assunto já foi abordado neste blog, por altura da discussão destas regras, inclusive relacionando-o com a Proposta de Regulamento relativo à IA, apresentada pela Comissão Europeia. Este Regulamento, caso venha a ser aprovado e embora o seu âmbito de aplicação geográfica seja a União Europeia, também assume uma vocação universalista, um pouco à imagem do que tem vindo a acontecer com o Regulamento Geral de Proteção de Dados (RGPD).

As preocupações com a IA têm vindo a crescer, na proporção do seu próprio desenvolvimento, para o que contribui a consciência de que se vai tornando omnipresente, quer nas nossas rotinas diárias, quer no apoio à tomada de decisões de empresas e governos. Desde potenciar atividades como reservar voos, escolher filmes ou personalizar as nossas notícias da manhã, até apoiar decisões relativas, por exemplo, a medidas nacionais, ou internacionais, de combate à pandemia de Covid-19, os sistemas de IA vão estando presentes um pouco por todo o lado. 

As suas vantagens são enormes. Por exemplo, estão a produzir resultados notáveis em campos altamente especializados, como o rastreio do cancro e de outras doenças. Por outro lado, podem, também, ajudar a combater problemas globais, como as alterações climáticas e a fome no mundo, bem como a reduzir a pobreza com a otimização da ajuda económica.

No entanto, a tecnologia está também a trazer novos desafios, sem precedentes, como a disseminação de preconceitos, ou os perigos da vigilância em massa, seja pública ou privada. Na área do consumo, podem destacar-se zonas de alerta, como a publicidade crescentemente direcionada e invasiva, a possibilidade de personalizar preços e o aumento das compras e respetivos pagamentos online.

Até agora, não existiam normas universais para dar resposta às questões que a IA origina e a Recomendação da UNESCO vem colmatar esta ausência. Procura potenciar as vantagens que o recurso a sistemas de inteligência artificial traz à sociedade e reduzir os riscos que implica, assegurando que as transformações digitais promovem os direitos humanos e contribuem para a realização dos Objetivos de Desenvolvimento Sustentável, e tratando de questões como a transparência, responsabilidade e privacidade. Vem, ainda, apresentar políticas orientadas para a ação em várias áreas, como a governação de dados, a educação, a cultura, o trabalho, os cuidados de saúde e a economia.

A Recomendação aborda, também, a questão da proteção de dados, nomeadamente procurando assegurar maior transparência e controlo pelo titular dos dados pessoais. É proibido o uso de sistemas de IA para estabelecer pontuações sociais (social scoring) e vigilância em massa, por se considerar que infringem direitos humanos e liberdades fundamentais e é recomendado aos Estados-Membros que, ao desenvolverem os seus quadros regulamentares, devem considerar que a responsabilidade final deve sempre caber aos seres humanos e que as tecnologias não devem ser dotadas de personalidade jurídica.

No que diz respeito à sua implementação, procura-se abrir caminho à criação de ferramentas que a facilitem. Desde logo, a “Avaliação de Impacto Ético”, que países e empresas devem desenvolver, para prever o impacto que os sistemas de IA que pretendem usar possam ter nos indivíduos, na sociedade e no ambiente. Prevê-se, também, a avaliação da estrutura legal e institucional já existente e os Estados-Membros são encorajados a considerar a possibilidade de criar a figura do “Responsável pela Ética da AI” independente, um pouco como o encarregado da proteção de dados do RGPD, ou algum outro mecanismo de auditoria e monitorização contínua.

A proteção do ambiente é uma preocupação que surge, tanto do ponto de vista de como pode a IA ajudar na luta contra as alterações climáticas, mas também de que modo poderá ser reduzido o impacto ambiental da própria IA.

A Recomendação apresenta um conjunto de valores relativos ao respeito, proteção e promoção dos direitos e liberdades fundamentais e da dignidade humana, garantindo a diversidade e inclusão, num ambiente saudável, em que a paz e a justiça prevaleçam, nas sociedades interconectadas. Estes valores são, depois, concretizados em princípios e políticas em várias áreas.

A UNESCO, ao aprovar esta Recomendação está, certamente, a dar um forte contributo para o aumento da consciência sobre os benefícios e riscos resultantes da utilização de sistemas de inteligência artificial e a estabelecer qual deverá ser o seu enquadramento, relembrando muito do que nos é, a nós humanos, precioso. Vamos ver em que medida consegue, efetivamente, influenciar Estados, empresas e indivíduos. Independentemente disso, as declarações de princípios, direitos, liberdades e a consagração de intenções em instrumentos globais, de organizações internacionais com esta relevância são, fundamentalmente, humanas e têm estado na base do melhor que a humanidade tem conseguido.