AR Smartglasses – a próxima dimensão do consumo

Doutrina

A realidade aumentada (Augmented Reality – AR) e a realidade virtual (Virtual Reality – VR) não são novas.

A primeira manifestação mais ampla da AR aparece sob a forma do protótipo de óculos que a Google lança em 2013 e que, em 2014, são disponibilizados ao grande público. Na altura causaram sensação, pensou-se que vinham para ficar, mas não foi o caso. Em 2015, a empresa anunciava que iria parar a venda e que logo se veria. Esse era o tempo dos wearables, tecnologia usável, que os mais abastados, curiosos e/ou adeptos do show-off consumiam e diligentemente transportavam e mostravam nas redes sociais que, embora ainda fraquinhas se as compararmos com a atualidade, já davam para fazer grande furor. Quem, nessa altura, queria usar e ostentar tecnologia tinha de carregar com ela, já que quase tudo vinha à parte. Aos óculos juntavam-se os relógios de fitness, as t-shirts medidoras, os GPS para o carro, os comandos para diversas coisas. Não era prático, mas antigamente, aí pelo início da segunda década do novo milénio, era assim.

A segunda manifestação de AR, mais ampla e socialmente incrível, poderá ter sido a caça ao Pokemon. O jogo foi lançado em julho de 2016 e tornou-se rapidamente um fenómeno viral, num instante enlouquecendo crianças e adultos por todo o mundo. Os jogadores convergiam como zombies para sítios reais, onde estavam bonequinhos virtuais, que pretendiam apanhar. As pessoas corriam em várias direções, saltavam vedações, eram atropelados por carros à frente dos quais se especavam, empurravam-se e lutavam para chegar a locais e saíam de casa à noite, porque parece que havia mais. Tudo isto para apanharem figurinhas virtuais, que não existiam fisicamente, mas eram vistos através de AR no espaço físico. Depois acabou, quase tão depressa como tinha começado. Um ano depois, a caça tinha perdido o interesse.   

Uma das grandes diferenças do primeiro para o segundo caso, estava no facto de o jogo dos Pokemons se fazer através do telemóvel, já bastante smartphone. Isto permitia que, sem a menor dificuldade, se usasse um dispositivo que, por essa altura, já ia sendo um prolongamento da pessoa. Alheio ao sucesso não terá sido também o facto de se tratar de um jogo. O ser humano, racional, ponderado, inteligente, dificilmente resiste a um bom jogo. Daí advém o sucesso da denominada gamification, de que falaremos noutra ocasião. 

Quanto à realidade virtual, nos seus primórdios, implicava o uso de uma espécie de óculos de mergulho e começou por ser usada em parques temáticos, dando-nos a ilusão de que estávamos efetivamente numa pista de corridas, numa montanha russa ou no espaço. Em usos mais profissionais ou culturais permitia, por exemplo, visitar uma casa ainda em projeto do arquiteto, a um monumento ou museu. Era uma espécie de 3D, revista e melhorada.

A distinção entre AR e VR, que podia não ser fácil em algumas situações, torna-se atualmente muito mais difícil, com o caminho para aquilo a que se poderá chamar realidade mista, em que ambas são usadas em simultâneo. Simplificando, podemos dizer que a AR tem a ver com o mundo real e acrescenta-lhe coisas do mundo virtual. Por exemplo, no âmbito do consumo, acontece quando “pegamos” num móvel que vimos online e o “experimentamos” na casa real em que estamos, ou fazemos qualquer outra experiência de “ver como fica” aquilo que queremos comprar. Continuando a simplificar, podemos dizer que a VR tem a ver com o mundo virtual e transporta-nos para cenários que nos parecem reais e com os quais interagimos. Por exemplo, no âmbito do consumo, podemos ser “transportados” para uma loja para ver os objetos que ali se vendem como se fossem reais, ou conduzir um automóvel num simulador que replica a condução como seria na estrada.

Não será difícil aceitar que experiências como estas, só possíveis devido aos avanços da tecnologia, alteram estruturalmente o modo de comprar e põem em causa conceitos basilares do Direito do Consumo.

Um novo passo nesta senda, e noutras, está a ser dado com a massificação, que se prevê próxima, do acesso a AR, VR e ao resultado da mistura de ambas.  

Por um lado, a Google, que como vimos largou os óculos, não largou as lentes e aposta nos smartphones, tanto para a AR, como para a VR. Veja, com os seus próprios olhos, garanto que vale a pena.

Por outro lado, o Facebook, em parceria com a Ray-Ban, criou uns óculos que em pouco se distinguem de normais óculos escuros, mas que têm duas camaras incorporadas, recebem comandos de voz e estão conectados com o smartphone.

São, pois, AR Smartglasses e se usarmos a imaginação para a qual, temos de reconhecer, há cada vez menos espaço de manobra, podemos começar a perspetivar a celebração de um contrato de compra e venda de um bem neste contexto.

Poderá ser algo como: vamos na rua, vemos uma bicicleta presa a um poste (eu sei que já não se usa, toda a gente anda de Gira, mas para este exemplo não serve), dizemos “Hey Facebook, take a picture” (em inglês ou, se como é provável, houver tradução simultânea incorporada, podemos dizer em português e em várias outras centenas de línguas). A foto vai direta para o telefone esperto que procura e encontra à venda bicicletas semelhantes. É-nos facultada informação sobre a loja mais próxima e indicado o caminho no mapa digital. Não nos apetece lá ir, pelo que seguimos a sugestão que, amável e desinteressadamente, nos é apresentada, entretanto, sobre a possibilidade de comprar online e receber em casa. Carregamos, aborrecidos, em vários “Aceito” relativos a diversas coisas que não sabemos quais são, nem nos interessam, nem interessam a ninguém, porque só queremos andar para a frente, o que conseguimos, não sem pelo caminho autorizar e prescindir de muito. Pagamos, eventualmente proferindo “Hey Facebook, paga”, coisa que o smarthphone fará sem dificuldade. Depois a bicicleta é entregue em casa, onde é arrumada, porque não precisávamos dela e porque não sabíamos que a podíamos devolver, o que estava num dos intermináveis clausulados subjacentes a um “Tomei conhecimento” em que também clicámos.

A AR Smartglasses parece poder trazer uma nova dimensão ao consumo. O consumidor vê, à venda ou simplesmente no espaço físico em que se está a movimentar, algo que lhe interessa. Pode com a combinação óculos/smartphone pesquisar imediatamente onde se vende, experimentar como fica, comprar, pagar e receber ou mandar entregar. A compra não se iniciou com o consumidor a dirigir-se a uma loja física ou online, ainda que precedida de publicidade “clássica”, em que já se está a considerar incluída a realizada através de meios digitais. A compra iniciou-se porque o consumidor, que ia simplesmente a existir, viu um bem de que gostou, que poderia nem estar à venda. Como tem consigo a tecnologia que lhe permite adicionar realidade virtual e informação à realidade física (AR) e, eventualmente, até entrar num ambiente digital (VR) em que consegue experimentar o que seria para si ter aquele bem, faz isso. Depois, compra-o, quer dirigindo-se à loja física que lhe é indicada online, quer acedendo instantaneamente à loja online.

Poderíamos ficar por aqui, com esta nova dimensão do consumo, se a tudo isto não estivesse agregado o objetivo de desenvolver um sistema de Inteligência Artificial com atributos muito especiais. Deste tema contamos tratar em próxima publicação. Para já, damos nota de que o Facebook passou ter um novo “Horizon” e a integrar, literalmente, o Meta(universo), como o seu criador, Mark Zukerberg explica neste video “Watch Mark Zuckerberg’s vision for socializing in the Metaverse”, mostrando magistralmente como a vida irreal pode, e vai, ser irresistível. Entretanto, milhares ou milhões de pessoas vão aderir às novas realidades aumentadas, virtuais e mistas, tão divertidas e úteis, vão mostrar como veem o mundo do sítio onde estão os seus olhos biológicos e, se tudo correr de feição, vão comprar ainda mais, quem sabe dizendo aos óculos que façam o favor de clicar “Sim” em todas as quadrículas de aceitação que forem aparecendo. Ou, porque não?, seria tão mais prático, pré-programando essa funcionalidade.  

Squid Game – Uma narrativa sobre escolhas

Doutrina

Esta é a história sobre como, no último mês, uma plataforma de streaming conseguiu a proeza de colocar o mundo de olhos postos numa distopia sul-coreana, rejeitada por várias produtoras, ao longo de uma década[1].

Num total de nove episódios, “Squid Game apresenta concorrentes desesperados, com graves problemas financeiros, numa luta pela sobrevivência, ao longo de várias rondas compostas por jogos infantis mortais. O prémio final deste macabro concurso é de 45,6 mil milhões de wons (cerca de 32 milhões de euros) e só há lugar para um vencedor.

Esta alegoria, que pode ser encarada como uma abordagem crítica ao sistema capitalista, junta violência, sangue e gritaria, temperados com uma pitada de revivalismo, e assenta numa fórmula que, não sendo particularmente inovadora, obteve resultados surpreendentes.

A série, lançada pela Netflix a 17 de setembro de 2021, é já a mais vista na plataforma e mantém-se em primeiro lugar em mais de 80 países, incluindo Portugal.

Os efeitos da nova sensação do momento ultrapassam largamente a ficção. Desde a estreia da série, o modelo branco das sapatilhas clássicas da Vans, semelhante aos usados pelos protagonistas, teve um aumento de vendas na ordem dos 7800% e até a procura pelos famosos doces Dalgona sofreu um crescimento de 250%. Também o Duolingo registou um aumento de 76% nos novos utilizadores que procuram aprender coreano no Reino Unido, através da plataforma[2]. De resto, já aqui nos debruçámos sobre o impacto das produções da Netflix no consumo global, a propósito da série “Queen’s Gambit” (“Gambito de Dama”).

A 12 de outubro, a Netflix anunciava no Twitter que “Squid Game” tinha atingido oficialmente 111 milhões de espectadores em todo o mundo, tornando-se, assim, no seu maior lançamento de sempre. Mas o que explica que este k-drama, a par de tantos outros produtos disponíveis no catálogo, tenha sido visto por esta quantidade de utilizadores, convertendo-se num fenómeno de popularidade global sem precedentes?

Note-se que, neste caso particular, a Netflix não revelou as métricas usadas para chegar aos valores apresentados. Tradicionalmente, a plataforma mede a popularidade das suas séries e filmes contabilizando a quantidade de pessoas que interagiram com o conteúdo durante mais de 2 minutos nos 28 dias após a estreia, o que pode indiciar uma tendência para o inflacionamento destes números.

Ainda que o seu maior trunfo pareça assentar na disponibilização de uma grande quantidade e variedade de conteúdos, ao estilo “All you can eat”, em bom rigor, a Netflix destaca-se dos concorrentes no mercado do streaming por outra caraterística diferenciadora − a capacidade de fornecer sugestões personalizadas, em função dos perfis criados, com base nos dados recolhidos sobre as preferências dos utilizadores, com particular eficácia e precisão[3]. E nunca escondeu ao que veio. Nas palavras do seu CEO, Ted Sarandos”, There’s no such thing as a ‘Netflix show’. Our brand is personalization”.

Para tanto, a plataforma criou um sistema de recomendações, alicerçado num mecanismo de machine learning, que combina algoritmos de filtragem baseada no conteúdo e de filtragem colaborativa (é possível encontrar aqui uma explicação mais completa e detalhada sobre o funcionamento desta ferramenta).

A filtragem baseada em conteúdo recorre à experiência passada do utilizador. Os dados são recolhidos de acordo com as suas interações com a plataforma, revelando o histórico de visualização, as classificações que atribui aos títulos, em que dispositivos visualizou, a que horas e durante quanto tempo, por exemplo.

Para produzir recomendações e personalizar a experiência de um utilizador, estes dados são combinados com outros conjuntos de dados que contêm informações derivadas dos títulos de filmes e televisão oferecidos pela Netflix em todo o mundo, incluindo itens como o seu género, categoria, atores, realizador e ano de lançamento.

Já a filtragem colaborativa envolve o mesmo processo de extração de dados, mas efetua recomendações de acordo com uma combinação ponderada das preferências dos outros utilizadores, imitando, assim, as recomendações.

Numa fase inicial, as recomendações de filtragem colaborativa do sistema limitavam-se aos dados extraídos de utilizadores numa região ou país específico. Agora, as recomendações são retiradas das preferências de visualização dos utilizadores em todo o mundo e os utilizadores são agrupados algoritmicamente em “comunidades”, de acordo com os gostos revelados. Existem, atualmente, mais de 2000 clusters estabelecidos.

Ora, esta poderosa ferramenta de segmentação permite à Netflix conhecer os elementos dominantes nos perfis de consumo e apostar na compra e produção de conteúdos que correspondam exatamente a essas preferências, chegando a fórmulas de entretenimento que, no fundo, consistem em juntar os ingredientes certos.

Como qualquer mecanismo de machine learning, à medida que vamos fornecendo mais dados, através da utilização contínua do serviço, o sistema vai conhecendo mais sobre nós, aprimora-se e afina a personalização de conteúdos, a um nível cada vez mais detalhado e preciso. Nesse sentido, é possível que, através das técnicas de apresentação dos títulos, com base numa complexa combinação de preferências manifestadas, a “máquina” nos empurre para o que vamos consumir a seguir, condicionando previamente as nossas opções, com o benigno propósito de nos facilitar a vida e permitir poupar tempo de pesquisa.

De resto, a própria Netflix explica que para além de escolher os títulos que são incluídos nas faixas na página inicial, o sistema também ordena os títulos dentro da faixa, organizando depois as próprias faixas, recorrendo a algoritmos para proporcionar uma experiência personalizada. Assim, esclarece, “quando vê a sua página inicial da Netflix, os nossos sistemas ordenaram os títulos de um modo concebido para que lhe seja apresentada a sequência que lhe poderá dar mais prazer”, sendo que as faixas com a recomendação mais forte são apresentadas na parte superior e os títulos da esquerda para a direita em cada faixa, a menos que tenham sido selecionados os idiomas árabe ou hebraico no sistema.

Nada é deixado ao acaso. Recentemente, a Netflix passou a personalizar os “thumbnails associados aos filmes e séries. Assim, as imagens em miniatura que identificam e promovem o título mudam frequentemente, considerando uma combinação entre aquilo que o utilizador já viu com os demais títulos apresentados. No fundo, o produto é o mesmo, mas surge aos olhos de cada utilizador de forma distinta, com o propósito de o tornar visualmente mais apelativo, segundo a experiência de consumo de cada um, de forma a captar a sua atenção.

Em fevereiro de 2020, a Netflix introduziu mais um elemento no sistema de recomendações personalizadas à página inicial dos seus utilizadores: o Top 10. A lista, atualizada diariamente, ordena os 10 títulos mais vistos no país. Para além de colocar em evidência os produtos mais populares, esta ferramenta pode servir para os promover durante algum tempo e, assim, manter o ciclo de visualizações. Com efeito, se o utilizador, por mera curiosidade, visualizar o conteúdo destacado no Top 10, por mais de 2 minutos, na contabilidade da Netflix, já é um dos seus espectadores, o que pode contribuir para perpetuar a sua popularidade.

Graças ao manancial de dados que armazena sobre as nossas preferências de consumo, é possível que a Netflix saiba mais sobre os nossos gostos do que nós mesmos. O sistema de recomendação deu a esta plataforma um poder nunca antes experimentado pela indústria do audiovisual: o de prever e influenciar o que vamos ver a seguir, mantendo-nos alegremente numa bolha de consumo de entretenimento, especialmente desenhada para cada um de nós, tornando possível determinar com alguma segurança qual será o próximo hit[4].


[1] Numa entrevista ao The Korea Times, o autor, Hwang Dong-hyuk, revelou que a série, criada em 2008, foi rejeitada por vários estúdios e investidores, ao longo de 10 anos.

[2] A 13 de outubro, o Korean Cultural Center (KCC) nos Emirados Árabes Unidos organizou uma encenação dos jogos da série para duas equipas de 15 participantes, sem violência, em Abu Dhabi. O evento foi visto como uma forma de promoção da cultura sul-coreana. 

[3] Ainda que algumas das suas concorrentes tenham desenvolvido ferramentas semelhantes, a Netflix é a plataforma com maior número de utilizadores e consegue trabalhar com uma maior quantidade de dados sobre a utilização do seu serviço, potenciando, assim, os efeitos da personalização.

[4] Não deixa de ser paradigmático que, numa fase inicial, este serviço se tenha demarcado dos meios tradicionais pela ampla liberdade dada ao utilizador, oferecendo-lhe a possibilidade de ver quando e onde quisesse qualquer um dos muitos títulos disponíveis no catálogo.

Fake news: queremos transferir poderes do Estado para as Big Tech?

Doutrina

A denominada “desinformação”, mais conhecida pela expressão em inglês “fake news” tem vindo a aumentar, quer em quantidade, quer em consciencialização da sua existência por parte do público. O tema já foi abordado neste blog a propósito da discussão sobre “censura” que se gerou em torno do artigo 6.º da Carta Portuguesa de Direitos Humanos na Era Digital (Carta). Voltamos ao assunto de uma perspetiva diferente, relativa ao seu enquadramento no âmbito da União Europeia.

A disseminação da internet, em dispositivos acessíveis a quase todos, que estão aos milhões ligados em redes que permitem, instantaneamente, divulgar textos e imagens é o caldo de cultura adequado a que notícias se espalhem. Dos meios de comunicação social, passou-se aos meios de comunicação pessoal, mais poderosos por diversas razões, de que se destacam a credibilidade que a chancela de quem envia aporta e a rapidez da propagação. Receber uma informação de um amigo, conhecido ou ídolo (a que atualmente se vem chamando influencer, coisa que sempre foi, o que muda é a escala), além de um interesse acrescido, incrementa a crença na veracidade e, consequentemente, a vontade de transmitir a novidade a terceiros. A cusquice faz parte da natureza humana. Acresce que vários estudos têm vindo a demonstrar que as pessoas tendem a acreditar e preferem informação alinhada ou que reforça as suas convicções.

A desinformação preocupou, e bem, a União Europeia que, como é seu apanágio, se vem multiplicando em intenções, comunicações e planos para dominar e procurar eliminar o fenómeno. Sabendo que é nas grandes empresas tecnológicas e suas plataformas que está, realmente, o poder, tanto de propiciar a transmissão e divulgação de informação, como o de a impedir, é aí que está a focar a sua atenção e ação. 

É assim que, em 26 de abril de 2018, surge a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões “Combater a desinformação em linha: uma estratégia europeia”, que informa que “[a] exposição dos cidadãos à desinformação em larga escala, incluindo informação comprovadamente falsa ou enganadora, é um importante desafio para a Europa”.

No âmbito dessa Comunicação, “[a] Comissão insta as plataformas a intensificarem, de forma decisiva, os seus esforços no sentido de combater a desinformação em linha” e afirma que “[u]ma rede densa de verificadores de factos, fortes e independentes, é um requisito essencial para um ecossistema digital saudável. Os verificadores de factos têm de operar com base em padrões elevados, como o código de princípios da Rede Internacional de Verificação de Factos”.

Em 5 de dezembro de 2018, em nova Comunicação, a Comissão apresenta o “Plano de Ação contra a Desinformação”.

Em 3 de dezembro de 2020, surge a Comunicação da Comissão sobre o “plano de ação para a democracia europeia”, com um Ponto 4 dedicado ao “Combate à Desinformação”, em que se preconiza “Mais obrigações e maior responsabilização das plataformas em linha”, o que se avisa irá ser concretizado no “ato legislativo sobre os serviços digitais (DSA)”, do qual já se tratou neste blog e em texto publicado por investigadores do NOVA Consumer Lab. Efetivamente, nessa Proposta legislativa apresentada pela Comissão, é preconizado que sejam principalmente as grandes plataformas a tratar da desinformação.

Quer isto dizer que quando a Carta afirma, no seu artigo 6.º, n.º 1 que “O Estado assegura o cumprimento em Portugal do Plano Europeu de Ação contra a Desinformação” está “simplesmente” a declarar este enquadramento. E quando, o n.º 2 do mesmo artigo, informa: “Considera-se desinformação toda a narrativa comprovadamente falsa ou enganadora”, está a repetir a definição europeia que, infelizmente, é péssima e abre uma caixa de Pandora avassaladora. Face a uma definição destas, que inclui um “comprovadamente” a priori, urge perguntar onde e como se fará essa comprovação.

A Carta ainda vai colocando o assunto minimamente no âmbito do Estado, que apoiará a criação das tais “estruturas de verificação de factos”, contra as quais muitos em Portugal se insurgiram, dizendo que se trataria de censura.

A União Europeia, vai infinitamente mais longe, atribuindo esse poder às empresas que detêm as grandes plataformas.

Está, pois, paulatinamente a ser construído na União Europeia um sistema em que as grandes empresas tecnológicas, já detentoras de facto de desmesurado poder, passam a ser também detentoras de direito de poderes até agora reservados à esfera pública. Vão, ao que parece, ser juízes e algozes, decidir e executar. Estamos acostumados a que as decisões sejam tomadas pelo poder judicial e executadas pelo poder, lá está, executivo, em aplicação do que o poder legislativo aprovou. Poderemos passar a ter “plataformas” que serão “verificadoras de factos”, decidindo sobre a sua veracidade e divulgação e executando a decisão que tomarem sobre o assunto.

Se pensarmos que muitas dessas plataformas colocam ao alcance do consumidor o que pretendem que seja adquirido, e só isso, depois de terem (ab)usado da informação que sobre aquele detêm e que lhes permite traçar perfis extremamente precisos que o podem encaminhar para onde entenderem que vá, podemos ficar com dúvidas sobre se realmente “[u]ma rede densa de verificadores de factos, fortes e independentes, é um requisito essencial para um ecossistema digital saudável”.

Podemos, até, ficar com dúvidas sobre se, mais do que “censura”, não poderá estar em questão uma transferência efetiva e, também jurídica, de poderes soberanos para as denominadas “Big Tech”.

O Estado de Direito como o conhecemos, saído das revoluções liberais, assente na tripartição de poderes, regulando, decidindo e executando, parece estar em transformação profunda e acelerada, nesta nova era digital global.

Proteção contra a desinformação ou censura? – Carta Portuguesa de Direitos Humanos na Era Digital

Legislação

A Carta Portuguesa de Direitos Humanos na Era Digital (Carta), aprovada pela Assembleia da República por unanimidade (com duas abstenções), começou a gerar discussão sobre a “Censura”, a propósito do seu agora contestado artigo 6.º, que consagra um “Direito à proteção contra a desinformação”, que culmina nesta estatuição: “O Estado apoia a criação de estruturas de verificação de factos por órgãos de comunicação social devidamente registados e incentiva a atribuição de selos de qualidade por entidades fidedignas dotadas do estatuto de utilidade pública.”.

O desconforto que vai sendo expresso poderá estar diretamente relacionado com a recordação de que, em Portugal, num tempo relativamente próximo, o Estado decidia sobre a verdade da informação a difundir, tendo como um dos critérios orientadores o de não serem os seus cidadãos sujeitos a notícias perturbadoras da sua tranquilidade, nomeadamente suscetíveis de lhes darem ideias que os poderiam levar a caminhos que, para sua proteção, deveriam ser evitados. Para tal, o Estado habilitava-os com a adequada verdade. Tudo a bem dos próprios e da nação.

A polémica é apresentada na comunicação social, por exemplo, aqui, aqui, aqui.

Esta problemática é antiga como o poder político no mundo e quem lê livros ou vê séries de espiões sabe perfeitamente que há a informação e a contrainformação. Quem leu Orwell sabe até sobre a burocratização que pode ser necessária para garantir a verdade dos factos, através de um “Ministério da Verdade”. Quem pendeu para a procura de algum saber na filosofia, na ética, na sociologia, na psicologia, no jornalismo, sabe que a verdade, em absoluto, não existe, nem é alcançável. A “Verdade e Política”, de Hannah Arendt diz muito sobre o assunto e os “Temperamentos Filosóficos – Um breviário de Platão a Foucault”, de Peter Sloterdijk, resumo telegráfico do pensamento de extraordinários filósofos por um seu iluminado par contemporâneo, permite vislumbrar rapidamente o esforço feito ao longo dos tempos, relativo à procura dessa tal verdade.

No âmbito do Direito, nos tribunais também se procura muito a verdade. É lá o local próprio para essa atividade ser exercida, garantida por direitos e procedimentos que visam que cada um leve a sua versão dos factos e que a procure demonstrar, através da apresentação de prova, para que o tribunal, no exercício do poder jurisdicional, decida. A decisão terá por base o que, da verdade, foi possível demonstrar.

Esta sofisticação civilizacional vem das Constituições liberais que, no seguimento das revoluções americana e francesa, tiveram o cuidado de consagrar a separação de poderes e vários direitos, liberdades e garantias dos cidadãos contra o próprio Estado que era, anteriormente, quem detinha poder absoluto que exercia arbitrariamente. É nesse contexto que vão sendo desenvolvidos, nomeadamente, o direito à liberdade de expressão e de imprensa, que estão na base da criação artística e da divulgação de informação.

A questão, já de si complexa, tornou-se mais complicada no presente milénio. O problema da desinformação ou, como também é globalmente conhecido em inglês, das “fake news” tem vindo a ganhar terreno a par do progresso tecnológico. São especialmente relevantes neste fenómeno, a ubiquidade dos dispositivos móveis, com preponderância dos smartphones, o aumento de dados disponíveis e o desenvolvimento da inteligência artificial, bem como a utilização massiva de redes sociais e a proliferação de plataformas digitais para onde foi transferida a ação. A vida de uma parte substancial das pessoas passa-se, em larga medida, online. O passo de gigante no conhecimento do fenómeno da desinformação pelo grande público deu-se com o escândalo que veio a ficar conhecido pelo nome da empresa que especialmente o protagonizou, a Cambridge Analytica. No essencial, tratava-se da manipulação de eleitores e a consequente influência no resultado das eleições americanas de 2016. As fake news vão assumindo várias formas, desde a criação de fotos de pessoas que não existem, a discursos de figuras públicas que não os fizeram (por exemplo, Barack Obama e a rainha de Inglaterra), criando ilusões e condicionando a vontade dos indivíduos nas escolhas que fazem, sejam políticas, de consumo ou outras.

A possibilidade, que passou a existir, de disseminação imediata e massiva de informação criou um problema novo. A novidade não estava em dar informações ou notícias falsas, o que sempre existiu, mas sim em fazê-las chegar, quase instantaneamente, a milhões de destinatários que, potencialmente acreditando no seu conteúdo, iriam em conformidade votar, aceitar ou recusar vacinar-se, ou consumir bens e serviços. O problema é grave, as consequências podem ser desastrosas e não se vislumbram soluções adequadas, apesar do esforço europeu, e agora nacional, já desenvolvidos no sentido de as alcançar.

No essencial, este é o fulcro da questão da desinformação, que tem preocupado profundamente a União Europeia, levando-a a agir, originando o que parece ser o verdadeiro fulcro da questão que analisaremos num próximo post neste blog.

Tratemos, aqui, da cândida Carta já que, a não ser que o modo estranho como a pandemia nos encaminha atualmente faça desaparecer esta polémica, o tema tem todos os ingredientes para inflamar opiniões e crescer.

A Carta, conforme já se escreveu aqui, é um conjunto de normas programáticas, aparentemente bem-intencionadas e em grande parte redundantes em relação às já existentes no nosso ordenamento jurídico, desde logo na Constituição da República Portuguesa.

Nesta linha, o artigo 4.º da Carta, dedicado à “Liberdade de expressão e criação em ambiente digital”, consagra amplamente essa liberdade a que chama direito, estabelecendo no seu n.º 1 que “Todos têm o direito de exprimir e divulgar o seu pensamento, bem como de criar, procurar, obter e partilhar ou difundir informações e opiniões em ambiente digital, de forma livre”. E, para que dúvidas não restem, é acrescentado “sem qualquer tipo ou forma de censura”. Seguem-se mais três números em que se reafirma, aprofunda e desenvolvem estas possibilidades, havendo um n.º 3 relativo à utilização responsável do ciberespaço.

Sendo, assim, consagrada a liberdade de expressão, esconjurada a censura e sublinhada a responsabilidade, pergunta-se para quê acrescentar à Carta um artigo 6.º com um “Direito à proteção contra a desinformação” que, logo desde a epígrafe, se adivinha que poderá vir a contender com o antes previsto.

A resposta mais simples será, provavelmente, porque além de serem apetitosos direitos com nomes novos, este já estava tão estafado no âmbito comunitário, e até global, que mal pareceria não o incluir numa Carta nacional desta natureza.

O artigo 6º da Carta mais não faz que reproduzir, resumida e atabalhoadamente, o que dezenas de páginas de vários documentos da União Europeia (UE) vêm proclamando.

E, há que admitir que o faz de um modo transparente, referindo logo no seu n.º 1 que “O Estado assegura o cumprimento em Portugal do Plano Europeu de Ação contra a Desinformação”, apresentando no n.º 2 definição idêntica à desse Plano. Lamentavelmente, é uma definição péssima, como se pode constatar logo no seu início: “Considera-se desinformação toda a narrativa comprovadamente falsa ou enganadora”. “Comprovadamente”? Onde, como e por quem? A Carta não o desenvolve, mas como veremos no próximo post dedicado à União Europeia, esta apresenta a sua proposta de solução.

Os números 3 e 4 do artigo 6.º da Carta estabelecem, respetivamente, “Para efeitos do número anterior, considera-se, designadamente, informação comprovadamente falsa ou enganadora a utilização de textos ou vídeos manipulados ou fabricados, bem como as práticas para inundar as caixas de correio eletrónico e o uso de redes de seguidores fictícios.” e “Não estão abrangidos pelo disposto no presente artigo os meros erros na comunicação de informações, bem como as sátiras ou paródias.”. Além de não ser possível retirar deste arrazoado quase nada de útil, a sua redação parece realmente uma paródia. Tentando não esmiuçar muito constata-se, por exemplo, que a prática, desagradável é certo, de “inundar as caixas de correio eletrónico” é considerada “informação comprovadamente falsa ou enganadora”. Ora, enviar correio eletrónico não é, por natureza, sequer informação, é um ato de envio de informação que, essa sim, poderá ser verdadeira, falsa ou enganadora, o que terá de ser aferido em face da dita. 

O n.º 6 irá longe de mais. Talvez se trate de “meros erros na comunicação de informações”. Partindo do espírito europeu, embora divergindo aqui para “O Estado”, eventualmente porque a pompa da forma de “Carta” a isso conduz, vem aplicar a receita que vai sendo habitual na UE de “criação de estruturas” e “atribuição de selos de qualidade”, principalmente por “entidades fidedignas”. O grande problema aqui estará no arrepio que temos dificuldade em evitar na parte em que se diz que “O Estado apoia a criação de estruturas de verificação de factos”, dado que comprovadamente sabemos, pela experiência de décadas de ditadura, que essa pode não ser uma boa ideia.

É assim que uma aclamada Carta de direitos, formato usualmente inócuo, se começa a tornar discutível e discutida.

Inteligência Artificial – Recomendações universais da UNESCO em discussão

Doutrina, Legislação

A UNESCO apresentou o draft da sua “Recommendation on the Ethics of Artificial Intelligence (AI)” que, a ser aprovado, será o primeiro instrumento normativo global sobre a matéria.

O Comité Especial Intergovernamental de peritos da UNESCO (CEI) discutiu o documento numa primeira reunião, entre 26 e 30 de abril, a que se seguirá outra, prevista para entre 21 e 25 de junho. O vídeo dos trabalhos encontra-se disponível aqui, nas seis línguas oficiais (inglês, francês, espanhol, russo, árabe e chinês).

Esta iniciativa ocorre poucos dias após a Comissão Europeia anunciar o novo pacote legislativo que contém uma Proposta de Regulamento relativo à Inteligência Artificial (IA), com o primeiro quadro jurídico comunitário sobre a matéria, aqui divulgado e algum tempo depois da União Europeia aprovar as suas próprias “Ethics Guidelines on Artificial Intelligence”, elaboradas pelo grupo de peritos que criou para o efeito, o “High Level Expert Group on AI”, apresentadas neste blog aqui.

Na sua 40ª sessão, em novembro de 2019, a Conferência Geral da UNESCO decidiu desenvolver um instrumento de definição de padrões internacionais sobre a ética da Inteligência Artificial tendo, desde então, liderado um esforço multidisciplinar, multicultural e pluralista que permitiu a elaboração de um relatório preliminar e um primeiro draft da Recomendação. Em setembro de 2020, foi distribuído aos Estados Membros para recolha dos seus comentários que foram tidos em consideração para a preparação do relatório final e do draft da Recomendação sobre a Ética da IA agora em discussão.

Nas reuniões do CEI será consensualizado o texto que constituirá o draft final da Recomendação, a ser submetido aos Estados Membros para adoção na 41ª sessão da Conferência Geral da UNESCO.

Se adotada, a Recomendação será o primeiro instrumento normativo global neste campo de crítica importância em todo o mundo.

A União Europeia pretende aprovar um Regulamento relativo à Inteligência Artificial, de aplicação tendencialmente universal, como tem vindo a acontecer com o Regulamento Geral de Proteção de Dados (RGPD), com impacto em países terceiros que se relacionam com a UE e já tem as suas Orientações relativas à Ética na Inteligência Artificial.

A UNESCO prepara Recomendações universais sobre o tema.

Destacam-se, como diferenças relevantes entre o futuro Regulamento e a futura Recomendação, o facto de aquele ser vinculativo e esta indicativa, bem como o facto de o Regulamento assentar numa análise de risco (risk assessement), excluindo da sua aplicação o que considera ter risco mínimo ou nenhum e a Recomendação abranger nas suas considerações éticas toda a IA, independentemente do nível de risco que comporte.    

A UNESCO enuncia a ideia de soberania da informação (data sovereignty) e a necessidade de a manter, a par do incentivo à partilha de informação (data sharing).

Esta é a quadratura do círculo que todos procuram. É preciso que os dados circulem, por serem fundamentais à eficácia da inteligência artificial e ao desenvolvimento dos negócios e da economia e é desejável que cada individuo decida sobre os seus dados e seja protegido. O ponto final aqui serve para evitar avançar para as questões críticas “protegido de quem e de quê”, já que essas além de poderem não gerar consensos, são essencialmente desconhecidas e em permanente e muito rápida evolução.

Inteligência Artificial – Regulamento(s) e Plano coordenado da União Europeia

Legislação

A Comissão Europeia, conforme se previa e noticiava neste blog, anunciou ontem um novo pacote legislativo que contém uma Proposta de Regulamento relativo à Inteligência Artificial (IA), com o primeiro quadro jurídico sobre a matéria. A União Europeia (UE) optou, como vem sendo regra, pelo regulamento em vez da diretiva.

O referido pacote inclui também um Regulamento sobre máquinas, revendo a Diretiva existente sobre a matéria, de 2006[1], bem como um Plano coordenado entre os Estados-membros relativo à IA, que tem em vista a liderança global pela União Europeia no que diz respeito à inteligência artificial confiável.

Todo este esforço visa tornar a Europa apta para a era digital, reforçando a confiança de todos, de modo a que tanto empresas, como consumidores, habitem e desenvolvam em segurança transações comerciais online, desenvolvendo o mercado único europeu num espaço diferente, paralelo, que tem vindo a ganhar terreno ao comércio tradicional. Desde há vários anos que a União Europeia tem consciência de que a Economia Digital é um dos campos em que poderá ter um crescimento significativo, já que as suas possibilidades de competir globalmente nos setores clássicos da agricultura, da indústria e, até, dos serviços se vão apresentando limitadas.

Observando-se o esforço e resultados, numa perspetiva global do mundo, dir-se-ia, no mínimo, que não vai adiantada.

Margrethe Vestager, vice-presidente executiva para uma Europa adequada para a era digital, afirmou que “On Artificial Intelligence, trust is a must, not a nice to have.”, manifestando a vontade da União Europeia de, com estas regras, conseguir estabelecer novos padrões globais para uma inteligência artificial confiável, salvaguardando-se a segurança e os direitos fundamentais dos cidadãos, enquanto se garante uma UE competitiva.  

As novas regras, que constando de Regulamento, serão aplicadas diretamente da mesma forma, em todos os Estados-Membros, assentam numa abordagem baseada no risco. Os sistemas de IA de risco inaceitável são banidos. Estes são os que representam uma clara ameaça à segurança, à subsistência e aos direitos das pessoas, nomeadamente sistemas de AI que manipulem o comportamento, ou que permitam que os governos atribuam “pontuações sociais” às pessoas (tendo aqui provavelmente em vista a recusa de realidades como o denominado Crédito Social chinês, apresentado neste blog aqui).

Os sistemas de IA identificados como de alto risco são sujeitos a obrigações estritas antes de serem colocados no mercado e incluem tecnologia de IA usada, por exemplo, em infraestruturas críticas ou produtos que podem colocar em risco a vida e a saúde das pessoas (Ex.: transportes, cirurgias assistidas por robôs) e em decisões que podem determinar a sua vida (Ex.: pontuação em exames, seleção de candidaturas a emprego ou crédito, administração da justiça).

Nestes casos, quando se estiver perante sistemas de IA de alto risco devem ser implementadas fortes medidas com vista à avaliação adequada do risco e à sua mitigação como, por exemplo, a verificação da qualidade dos dados usados e a possibilidade de se perceber como se chegou aos resultados apresentados (a denominado descodificação das black boxes da IA), segurança, prestação de informação e supervisão humana.

É especialmente determinado que todos os sistemas remotos de identificação biométrica são considerados de alto risco e sujeitos a requisitos especialmente rigorosos.

Sendo qualificado como “limitado” o risco dos sistemas de IA, haverá obrigações específicas de transparência. Por exemplo, ao usar chatbots, os usuários devem estar cientes de que estão a interagir com uma máquina para que possam tomar uma decisão informada sobre se pretendem continuar ou não com a interação.

Se o risco for qualificado como “mínimo”, o que acontecerá com a maior parte dos sistemas de IA, o regulamento não intervém, já que será mínimo ou nenhum o risco para os direitos e segurança dos cidadãos.

Em termos de governação, a Comissão propõe que as autoridades nacionais competentes de fiscalização do mercado supervisionem as novas regras, sendo criado um Comité Europeu de Inteligência Artificial para facilitar a sua implementação, bem como para impulsionar o desenvolvimento de normas para IA e de códigos de conduta voluntários.

Estas medidas são o culminar de um caminho, resumidamente apresentado aqui e aqui

As intenções são boas, dir-se-iam até ótimas.

Desde já, levantam-se-nos três questões. Primeira, quanto mais tempo vai passar até que existam as regras propriamente ditas, isto é, até à finalização do processo legislativo e à entrada em vigor dos diplomas que vierem a ser aprovados? Depois disso, quanto tempo vai demorar a construção da estrutura burocrática que, inevitavelmente, tudo na UE pressupõe? Por fim e mais importante, como correrá a operacionalização das regras, a começar pela qualificação, na prática, do risco de um determinado sistema de IA? Esse é o pressuposto da determinação do modo como vai ser tratado e de como, concretamente, vai existir e funcionar.


[1] Diretiva 2006/42/CE do Parlamento Europeu e do Conselho, de 17 de Maio de 2006, relativa às máquinas.

Regulamento Europeu relativo à Inteligência Artificial – divulgação antecipada (leaked draft)

Doutrina

A Comissão Europeia vai anunciar brevemente, provavelmente durante a próxima semana, a Proposta de Regulamento relativo à Inteligência Artificial que tem estado a preparar. A propósito da divulgação antecipada pelo Politico de um draft daquela Proposta, acessível aqui, já se encontram notícias muito concretas sobre o assunto.

Na senda da adoção de Regulamentos que vem caraterizando a União Europeia, principalmente no que à denominada Economia Digital diz respeito, já analisada neste blog, mais uma vez o instrumento preferido pela União é aquele que, com maior rapidez e a possível eficácia, faz chegar regras semelhantes a todos os Estados-Membros.

Este diploma vem coroar um esforço, que vai longo e intenso, no sentido de a UE procurar dominar esta força, aparentemente descontrolada, que se tem vindo a revelar ser o alastramento da utilização de inteligência artificial na análise de volumes astronomicamente crescentes de big data, que todos nós produzimos, com entusiasmo ou enfado, quando vamos usando e abusando de dispositivos eletrónicos, principalmente de smartphones e que se junta aos dados produzidos por todas as outras fontes, em permanência, de que se destacam a denominada Internet das Coisas, a omnipresente vigilância através de câmaras espalhadas em espaços públicos e privados e o GPS que nos mantém um pequeno boneco desarticulado nos mapas virtuais.

Esse esforço tem sido reportado e analisado neste blog, principalmente aqui e aqui, em relação à Estratégia para a inteligência Artificial (Artificial Intelligence – AI), aos trabalhos do Grupo de Peritos especificamente criado neste âmbito (AI HLEG), à criação da European AI Alliance (EAIA), do Livro Branco sobre a inteligência artificial e do Relatório sobre as implicações em matéria de segurança e de responsabilidade decorrentes da inteligência artificial, da Internet das Coisas e da robótica, bem como ao nascimento do ALLAI, tudo com vista à criação e operacionalização de uma AI confiável.

Passo de gigante será o Regulamento que enquadra juridicamente o tema e que estará a chegar.

De acordo com o draft divulgado, o diploma vai ter 92 considerandos, 69 artigos e 8 anexos.

A estrutura apresentada é a seguinte: Título I de “General Provisions”, Titulo II relativo a “Prohibited Artificial Intelligence Practices”, Título III que regula os “High-Risk AI Systems”, (para os quais estabelece requisitos e obrigações específicas, os “Notified Bodies” e os “Conformity Assessment, Standards, Certificates, Registration”), Título IV relativo à “Transparency Obligations for Certain Other AI Systems”, Título V estabelecendo as “Obligations For The Use Of Remote Biometric Identification Systems”, Título VI as “Measures In Support Of Innovation”, o Título VII a “Governance” (criando o artigo 47.º um “European Artificial Intelligence Board”), o Titulo VIII a “Eu Database For High-Risk Ai Systems”, Título IX a “Post-Market Monitoring, Information Sharing, Market Surveillance”, Título X os já habituais Códigos de Conduta, Título XI “Confidentiality And Penalties”, criando as também já habituais sanções astronómicas, Título XII os “Delegated Acts & Comitology” (maravilhoso termo que talvez se possa traduzir pelo correspondente nacional não menos delicioso “Comitologia”, que mostra muito daquilo em que se tornou a UE), fechando com o Título XIII de “Final Provisions”.

Deixamos o resumo e acesso ao draft leaked, para abrir o apetite e ficaremos atentos à divulgação oficial do texto final que se espera para muito breve, altura em que haverá oportunidade de se verificar se o draft divulgado antecipadamente corresponde à versão que virá a ser oficialmente anunciada. Tarefa comparativa completamente talhada para uma AI.

Internet of Brains (IoB) – a nova conexão

Doutrina

Quando algo toma conta da realidade, se espalha por todo o lado, domina e baseia muito do que passa a ser feito, tornando-se um dado tão adquirido que já nem se nota – como a eletricidade, a água, as estradas – usamo-lo como tal, não reparando no quanto nos torna dependentes, nos formata e nos transforma inexoravelmente.

A internet, juntamente com a Big Data e Inteligência Artificial (Artificial Intelligence – AI), têm tido um desenvolvimento extraordinário nos últimos anos e paulatinamente, vêm tomando conta das nossas coisas (Internet of Things – IoT), das nossas vidas (Internet of Everything – IoE) e, mais recentemente, dos nossos cérebros naquilo que poderá vir a ser denominado Internet of Brains (IoB).

O desenvolvimento da inteligência biológica e da AI tem andado a par, juntando em projetos comuns, parceiros ou colaborantes, cientistas da área das neurociências e das ciências da computação, a que se agregam os imprescindíveis conhecedores da física, da matemática, da química, da engenharia, da psicologia. Só em grandes grupos multidisciplinares é possível ir tentando tomar conta das várias partes, procurando não perder a noção do todo, em algo que a milenar parábola sobre os cegos e o elefante tão bem ilustra.

É assim que aceitamos, sem reparar, que o telemóvel se tornou uma extensão de nós, ou nós dele, que nos é sugerido, sistematicamente, o que ver, fazer, comer, onde ir e por onde ir, que em vez de nos guiarmos pelas estrelas, nos deixamos guiar por aplicações baseadas em geolocalização que, mais centímetro, menos centímetro, nos mostram num mapa levando-nos de um ponto a outro por onde consideram melhor, ou por onde lhes pagaram para considerarem melhor, ou quem sabe se aleatoriamente, coisas de que suspeitamos quando calha conhecermos o caminho e sermos encaminhados absurdamente.

Também não reparamos que estamos a aceitar que os dispositivos eletrónicos nos sugiram o que responder a correio eletrónico ou a mensagens mais instantâneas, bastando para tal um click, um toque no ecrã ou uma ordem de voz. Por exemplo, insistem “Parabenize” fulano, seja lá isso o que for. Se carregarmos, vemo-nos a escrever “Congrats!” ou Parabéns com um monte de emogis extremamente esfusiantes acoplados, totalmente desapropriados para a longínqua relação profissional ou nem isso que (não) temos com a pessoa a quem estamos “ligados” online.

Assim como damos como adquirido o corretor automático, que todos os dias nos “desensina de” escrever, habilidade que tão trabalhosamente fomos adquirindo ao longo de muitos anos de ditados e trabalho árduo e que se tornou praticamente desnecessária. Dispositivos eletrónicos de várias espécies corrigem os erros que damos, o que agradecemos, mas também os que não damos, transformando poesia em jargão de rua.

É preciso uma atenção redobradíssima, uma diligência muito acima de um homem médio, de um bonus pater famílias – ou como hoje se usa “homem/mulher médio(a)” e “pater/mater” – para conseguir manter em níveis de decência aceitáveis as comunicações online.

O pano de fundo em que tudo se passa é o das comunicações.

É neste plano que cientistas de várias áreas criaram o BrainNet, que expõem em artigo publicado, em abril de 2019, na revista Nature.

A ideia é três pessoas com os cérebros ligados através da internet jogarem, em colaboração, uma espécie de Tetris simplificado. Começam por explicar que “Direct brain-to-brain interfaces (BBIs) in humans are interfaces which combine neuroimaging and neurostimulation methods to extract and deliver information between brains, allowing direct brain-to-brain communication”.

Na sua experiência, o objetivo é que uma peça seja virada  ou não, o que for mais eficaz para que se venha a formar uma linha. Duas pessoas (Senders) estão a ver a peça no ecrã e a terceira, que vai tomar a decisão, não a vê (Receiver). Os Senders enviam informação ao Receiver, através de comunicação cérebro-a-cérebro, este recebe-a e toma a decisão. Até aqui tudo relativamente clássico, dentro do género, claro.

O que é feito a seguir, embora pareça e seja lógico, já me parece muito ousado, nomeadamente no que diz respeito à aproximação de investigações em inteligência biológica e artificial. É o seguinte: há uma segunda ronda em que os Senders enviam feedback sobre a decisão e o Receiver tenta melhorá-la.

A “retropropagação do erro” (Backpropagation – BP) é precisamente o modo mais eficaz e promissor de a AI aprender, treinando-se assim os algoritmos.

No essencial, na aprendizagem por reforço, estabelece-se o objetivo e deixa-se o sistema (Artificial Neural Nets – ANN) treinar e aprender, procurando a melhor forma de o alcançar.

No caso da AI, melhora se os humanos forem completamente retirados do processo como, por exemplo, a evolução no jogo Go demonstra. A versão melhorada do sistema, o AlphaGo Zero aprendeu a jogar Go, a partir do zero, chegando em três dias ao nível de campeão. O sistema ficou melhor quando inseriram simplesmente as regras básicas do jogo, sem informação sobre jogadas humanas que, conforme se verificou, constrangiam.

No final do século passado pensava-se que tal mecanismo não existia no funcionamento do cérebro biológico, mas a evolução do conhecimento parece ir noutro sentido.

Se pensarmos que os BBIs, que ligam cérebros biológicos através da internet, provavelmente sem fios, podem ligar(-se) a AI, vislumbramos um pouco daquilo em que estamos.

Os cientistas do BrainNet concluem: “Our results point the way to future brain-to-brain interfaces that enable cooperative problem solving by humans using a “social network” of connected brains.”, o que torna oficial e cientificamente demonstrada a telepatia.

É neste contexto científico, não de ficção científica, que o Direito positivo esbraceja e que o consumidor consome. Urge procurar caminhos, senão alternativos, pelo menos complementares.

Reconhecimento facial a quanto obrigas

Legislação

O Despacho n.º 2705/2021, de 11 de março do Gabinete Nacional de Segurança (GNS) vem tratar da “Identificação de pessoas físicas através de procedimentos de identificação à distância com recurso a sistemas biométricos automáticos de reconhecimento facial.”, assunto que é apresentado no “Sumário:”, sem bold, em tamanho de letra pequeno e com ponto final e, imediatamente a seguir, como título, em letra de tamanho grande, a bold e sem ponto final, o que, além de aparentar gaguez, indica que é coisa para continuar com algum desenvolvimento.

O que vem a seguir não desilude. Inicia com os enquadramentos, obrigatórios para evitar que o incauto cidadão seja levado a crer que se Despacha sem os devidos fundamentos programáticos, legais e, também, de Regulamento comunitário. Nestes termos se expõem: “O Programa do XXII Governo Constitucional identifica como um dos desafios estratégicos a promoção de incentivos da sociedade digital, da criatividade e da inovação, privilegiando a simplificação administrativa, o reforço e a melhoria dos serviços prestados digitalmente pelo Estado, o seu acesso e usabilidade, a par da desmaterialização de mais procedimentos administrativos.” e “O Regulamento (UE) N.º 910/2014 do Parlamento Europeu e do Conselho, de 23 de julho de 2014, relativo à identificação eletrónica e aos serviços de confiança para as transações eletrónicas no mercado interno, veio considerar que: Criar confiança no ambiente em linha é fundamental para o desenvolvimento económico e social.”. É, ainda, indicado que a execução na ordem jurídica interna foi assegurada pelo Decreto–Lei n.º 12/2021, de 9 de fevereiro.

É, pois, por isso que o GNS, designado pelo acima referido Regulamento, vem “definir requisitos e instruções, relativamente à possibilidade dos prestadores qualificados de serviços de confiança adotarem formas de identificação não presencial, com garantias equivalentes, em termos de confiança, à da presença física”, possibilitando a “identificação por sistemas biométricos automáticos de reconhecimento facial”.

Os requisitos são apertados. A pessoa que está, em tempo real, a efetuar o pedido de reconhecimento tem de começar por mostrar que é titular do documento de identificação após o que, com consistência suficiente para convencer os sistemas de deteção, precisa de mostrar que está viva. Será ainda necessária demonstração de que “o documento de identificação apresentado é autêntico” e aí vai ser determinante conseguir convencer o sistema “de inteligência artificial e de deep learning”, que já se sabe é o mais difícil de iludir e que(m) decide.

Como usual, e já praticamente imprescindível em qualquer diploma que estabeleça normas, são apresentadas definições, neste caso no n.º 1 do Anexo A.

Destacam-se, porque merecem, as seguintes:

– “Sujeito biométrico. É uma pessoa que se submete a um processo de captura biométrica.”

– “Impostor biométrico. É um sujeito biométrico subversivo, que desenvolve ataques biométricos.”.

– “Prova de vida. Representa o estado de “estar vivo”, em tempo real. É evidenciado por características anatómicas, reações involuntárias e voluntárias, funções fisiológicas ou comportamentos.”.

É, ainda, definido “Deep learning (como) um ramo da inteligência artificial (AI), assente em sistemas/redes com capacidade de aprender com os dados, identificar padrões e tomar decisões com o mínimo de intervenção humana.”. Realce-se a ideia de “tomar decisões”, sem ser muito empatada pelo humano.

No n.º 4 do mesmo anexo vem o “Modelo funcional”, informando o Despacho que: “Este capítulo apresenta, sob o ponto de vista funcional, o sistema biométrico automático de reconhecimento facial (sBIO), de modo a poder ser facilmente identificado o âmbito, os componentes e as diversas atividades desenvolvidas por cada um destes componentes/subsistemas.”. Neste ponto não pode deixar de ser sublinhada a expressão “facilmente”, tanto no contexto do próprio parágrafo introdutório em que se insere, como depois da leitura do tal modelo funcional, que se lhe segue.

O n.º 5 apresenta os requisitos gerais estabelecendo que “Para os efeitos previstos neste documento, considera-se que a entidade que se submete ao processo de identificação, é uma pessoa física e passa a ser designada de subscritor, a entidade que verifica a identidade do subscritor, é um prestador qualificado de serviços de confiança, designada de QTSP. Quando (no original “Quanto”) um subscritor, demonstra com sucesso, a existência, posse ou controlo de mais que um mecanismo de autenticação requeridos pelo QTSP para validar a sua identidade, passa a ser designado por titular.”

Acaba, por fim e para nosso alívio, com um Anexo B, relativo à “Certificação dos sistemas biométricos automáticos de reconhecimento facial”.

Assina o Diretor-Geral do GNS, aparecendo após o nome, “CALM”. Não é, como à primeira vista se poderia pensar, um incentivo final a que o sujeito biométrico subscritor que, vivo e de cartão na mão, se sujeita a um QTSP, mantenha a calma durante o processo.

Em face de tal regulamentação parece, pois, que o reconhecimento facial vai ser reconhecido pelo Estado, como modo de identificar cidadãos, cumpridores dos requisitos do Despacho.

Na rua, um jovem aproxima o seu smartphone do rosto para o desbloquear, enquanto o amigo usa a impressão digital para desbloquear o seu. Sendo necessário confirmar os ingredientes da pizza, o primeiro diz ao seu dispositivo móvel “liga ao Manuel” e o aparelho, reconhecendo a voz, faz a ligação. No take-away a que a pandemia obriga, o segundo paga com o cartão que obteve registando-se com um documento de identificação e reconhecimento facial. Pelo caminho testam o desbloqueamento do telemóvel com a íris, funcionalidade que ainda não tinham experimentado e que funciona muito bem, o que os diverte. Sentem-se bastante confiantes, provavelmente demais, no ambiente em linha onde usualmente habitam e onde, com o confinamento, têm quase toda a sua vida.

Não sabem que, desde sexta feira, passaram a ser um sujeito biométrico e que, daqui a algum tempo, aquele que o Estado demorar a implementar o Direito, do Regulamento comunitário ao Despacho, se quiserem um reconhecimento facial a valer, vão ter de apresentar cartão e, em tempo real, fazer prova de que estão vivos a um QTSP.

The Game did not Stop

Doutrina

Fevereiro abriu com o que parecia ser uma corrida à prata, que se seguiu ao rally das ações da empresa de jogos GameStop no final de janeiro. Dentro da realidade psicadélica que globalmente se vive, procurando com êxito ainda incerto combater a pandemia de Covid-19, poderia fazer sentido.

O descontrolo que grassa por todo o lado, chegou (de novo) aos mercados financeiros provocando, também ali, uma enorme volatilidade. Tristemente habituados aos gráficos, dos infetados, hospitalizados, mortos e recuperados, já não nos fere a vista uma linha que sobe a pique, sem razão aparente, e rapidamente intuímos que significa que o que estávamos habituados a que fosse, deixou de ser. É temporário, não se sabe é por quanto tempo e com que efeitos.

No final de janeiro assistimos a uma aparente vitória de pequenos investidores sobre grandes fundos, abordada neste blog aqui. A notícia da vertiginosa subida das ações de uma empresa de jogos, a GameStop, originada em dicas e conselhos num fórum online, do Reddit, foi título em várias publicações, principalmente por ter causado uma semana de excecional volatilidade e grandes perdas para os que habitualmente ganhavam, as grandes empresas e os grandes fundos.

Enquanto esse frenesim ocorria, iniciava-se a corrida à prata, diziam uns que impulsionada pelo Reddit, como é noticiado aqui e outros que não, antes pelo contrário, como é noticiado aqui e aqui.

A corrida à prata poderia fazer sentido por várias razões.

A primeira é uma razão clássica, os metais são um refúgio quando os mercados ficam estranhos. Têm existência física pouco perecível e valor intrínseco. A segunda seria a razão agora em curso, a do fenómeno Reddit ou de quem dele se esteja a aproveitar, que consiste em alardear que os grandes fundos podem ser prejudicados se o preço subir, por terem apostado na descida, tratando de diligenciar para que suba. A terceira, mais prosaica, poderia ter a ver com a natureza humana. Depois do jogo e do entretenimento, os metais preciosos e, para os menos abonados, especificamente a prata, é sinal de riqueza. Quem sabe se a escolha da próxima ascensão vertiginosa não poderia ter também algo a ver com os básicos da psicologia humana.

Como tanto do que acontece na Bolsa, faria sentido, aconteceu, mas durou quatro dias, atingindo o pico durante o dia 2 de fevereiro, estando a prata, ao que parece, a voltar a valores anteriores ao sprint.

Quanto à GameStop, já não parece estar a correr nada bem. No gráfico a um ano, percebe-se melhor o fenómeno extraordinário que aconteceu. Em início de fevereiro de 2020, a ação valia 3.95 USD, iniciou uma pequena subida em agosto e fechou o ano de 2020 nos 18.84 USD. Em 20 de janeiro de 2021, iniciou uma subida vertiginosa, atingindo no dia 27 de janeiro, quarta-feira, os 347.5 USD. Baixou na quinta (193,6) e fechou com nova subida acentuada na sexta (325). Esta semana desce a pique, tendo fechado ontem a 90 USD e andando hoje por aí.

O mercado, se for livre, assenta na lei da oferta e da procura. Se a procura aumenta, o preço sobe, se a procura diminui o preço baixa. Havendo equilíbrio, o preço é estável. Aumentando muitíssimo a procura, sem ajustamento da oferta, o preço dispara para valores que podem ser completamente desajustados ao valor real daquilo que é transacionado. Quando acontece nas Bolsas de Valores, chamam-lhe bolha.

Desde há muito que existem Bolsas, mercados em que se comercializam mercadorias, ações e outros ativos financeiros. Desde há muito que existem bolhas, que por vezes assumiram a denominação de manias, como aconteceu com a Tulip Mania, que ocorreu entre novembro de 1636 e maio de 1637, em Amesterdão[1] e que muitos consideram a primeira da história.

Na Bolsa, as bolhas rebentam. O efeito é o de se voltar, com fortes perdas para alguns, a uma situação mais perto da normalidade.

Vamos ver no que isto dá.

Para já, registe-se a situação atual da GameStop – “Power to the players”, no mercado de Nova York. Registe-se, também, que o fenómeno GameStop da semana passada já foi repetido na Malásia, onde pequenos investidores criaram um grupo para apoiar uma empresa fabricante de luvas. Registe-se, ainda, a existência de alertas oficiais para o risco de investimentos em ambiente de grande volatilidade e a qualificação do fenómeno como “insane Ponzi Scheme”.

Os aderentes aos fenómenos de perspetivas de lucro rápido e fácil vão, à medida que o prodígio avança, sendo cada vez mais e cada vez mais inexperientes. A informação vai chegando progressivamente aos menos conhecedores que, convencidos de que podem enriquecer instantaneamente, engrossam a coluna e contribuem decisivamente para a subida. Estão lá e permanecem, quando os conhecedores vão saindo. Quem, na quarta-feira, comprou ações a 340 USD e as vendeu, por exemplo, hoje a meio da manhã, por 90 USD, perdeu 250 USD por ação.

O economista Nouriel Roubini, que ficou conhecido por prever a crise financeira, terá afirmado sobre o tema, numa conferência na última quinta-feira no Porto, que “Parece manipulação e vai acabar em lágrimas”.

Esperemos que, ao contrário do que parece, desta vez não tenha razão.

 

[1] A Holanda ainda hoje tem algo semelhante a uma Bolsa de Flores, o Aalsmeer Flower Auction.