Asimov já tinha percebido
A intervenção da presidente do Parlamento Europeu (PE), Roberta Metsola, na semana passada na Assembleia da República, abordou o tema da Inteligência Artificial (IA) como sendo central no projeto comum europeu. Quando tantas vozes, desde Elon Musk a António Guterres, abordam o tema, é importante que compreendamos os contornos do debate em torno da regulamentação da IA no contexto europeu porque terá efeitos práticos na forma como vivemos e trabalhamos, exigindo uma discussão cívica informada.
À semelhança de outros desenvolvimentos tecnológicos significativos, como a energia nuclear ou a clonagem, regular este tema é um enorme desafio. Com base numa proposta de 2021 da Comissão, no passado dia 14 de junho o PE adotou a sua posição de negociação sobre o Regulamento Inteligência Artificial. O propósito é definir regras específicas para assegurar que a IA desenvolvida e utilizada na Europa respeita plenamente os direitos fundamentais e valores da UE, seja centrada no ser humano por contraposição a uma IA exclusivamente focada na eficiência ou como um fim em si mesmo, seja fiável e proteja a saúde, a segurança e a democracia dos seus efeitos negativos.
Assume-se que a IA tem tantas oportunidades quanto riscos e são definidas regras tanto para os fornecedores como para aqueles que utilizam sistemas de IA, em função de três níveis de risco que esta pode colocar:
1) regras a cumprir pelos sistemas de IA mais comuns, que não representam qualquer risco significativo para a saúde, a segurança ou os direitos fundamentais dos cidadãos, como requisitos de transparência (revelando que os conteúdos foram gerados por IA) e salvaguardas contra a produção de conteúdos ilegais pelos sistemas de IA generativa;
2) regras adicionais para usos de “risco elevado” (o que implica desde logo que sejam avaliados antes de serem colocados no mercado e durante todo o seu ciclo de vida), como sistemas de IA que “prejudicam significativamente” a saúde, a segurança e os direitos fundamentais das pessoas ou o ambiente e ainda os sistemas de IA utilizados para influenciar os eleitores e o resultado das eleições e os sistemas de recomendação utilizados pelas plataformas de redes sociais;
3) e uma lista de usos banidos, porque representam um risco “inaceitável” para a segurança das pessoas, como os utilizados para classificação das pessoas com base no seu comportamento social ou nas suas características pessoais, tais como sistemas de identificação biométrica à distância em espaços públicos, sistemas de categorização biométrica que utilizem características sensíveis (como género, raça, religião ou orientação política) e sistemas de policiamento preditivo (baseados na definição de perfis, localização ou comportamento criminoso passado).
A regulação proposta pela UE é mais detalhada do que as três regras que, na sua obra de ficção científica dos anos 40 do seculo XX, Isaac Asimov definiu para permitir o controlo dos robôs inteligentes e, dessa forma, evitar que se revoltassem contra os seres humanos, acrescentando mais tarde a “Lei Zero”, acima de todas as outras: um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
Regras simples e de bom senso, sem entusiasmo acéfalo nem catastrofismo castrador, porque aceitam a evolução tecnológica mas regulam a IA para proteger o ser humano. É este equilíbrio, que Asimov adivinhou, que a UE procura no Regulamento IA, instrumento que, conjugado com o Regulamento de Governação de Dados e a Diretiva de Dados Abertos, promoverá a inovação tecnológica tendo por base dados de elevada qualidade ao mesmo tempo que regula os riscos para os valores e direitos fundamentais da EU, procurando garantir que a IA é uma ferramenta ao serviço das pessoas e do bem-estar humano e não continue a ser normalizada através do uso, antes de ser debatida e regulada.
Mas, apesar da importância deste tema, parece continuar a faltar alguma consciência social da sua importância e da necessidade de existir um debate amplo e informado. Parafraseando Paulo Nuno Vicente (“Os Algoritmos e Nós”), o debate deve ser público, porque o impacto social da IA é demasiado significativo para que a análise e discussão do mesmo seja realizada em gabinetes de especialistas e escritórios dos fornecedores de soluções tecnológicas.
Arquitetar uma base de dados e treinar um algoritmo são ações humanas às quais estão subjacentes decisões que devem ser conscientes e refletir os valores que defendemos. Por isso, a literacia, o debate e instrumentos de escrutínio público são algo do qual não podemos abdicar e que devemos promover ativamente. Nunca esquecendo que, no final do dia, a regra fundamental é simplesmente o respeito pela liberdade, integridade e autonomia de decisão do ser humano na sociedade em que vive – algo que a IA nunca pode colocar em causa.
O autor escreve segundo o novo acordo ortográfico