Outro artigo sobre o ChatGPT? O possível futuro dos modelos fundacionais no Regulamento sobre Inteligência Artificial

Doutrina

Tanto o (ainda) futuro Regulamento sobre Inteligência Artificial (IA) como as ferramentas de Inteligência Artificial Generativa (ChatGPT ou Dall-e, entre outros) foram objeto de ampla discussão ao longo de 2023. As ferramentas de IA generativa, que explodiram em termos de popularidade no início do ano passado, suscitaram propostas de alterações significativas ao texto da Proposta de Regulamento de IA e debates entre Estados. Algumas dessas alterações podem ser encontradas nas Emendas à Proposta de Regulamento sobre IA apresentadas pelo Parlamento Europeu em 14 de junho de 2023. No final de 2023, ainda durante a presidência espanhola da UE, existiam duas posições opostas sobre a regulamentação dos modelos fundacionais: (1) fazê-lo através de códigos de conduta sem um regime de sanções por incumprimento; ou (2) a inclusão de certas obrigações no próprio Regulamento IA, referindo-se principalmente à transparência, embora também relacionadas com os direitos de autor.

Nesta publicação do blog, vamos centrar a nossa atenção em algumas das alterações do Parlamento Europeu sobre modelos fundacionais e na forma como isso afeta a IA generativa.

Para começar, convém esclarecer brevemente três conceitos: IA de objetivo geral, modelos fundacionais e Chat GPT.

Considera-se que os sistemas de IA de uso geral são os concebidos para desempenhar funções de uso geral, como o reconhecimento de texto, imagem e voz, a geração de texto, áudio, imagem ou vídeo, a deteção de padrões, a resposta a perguntas ou a tradução. Estes sistemas não teriam sido possíveis sem a redução dos custos de armazenamento e processamento de grandes quantidades de dados (big data).

Os modelos fundacionais, por outro lado, são modelos de inteligência artificial treinados em grandes quantidades de dados e concebidos para produzir informações gerais de saída capazes de ser adaptados a uma grande variedade de tarefas. Não devemos relacionar os modelos fundacionais exclusivamente com a IA de objetivo geral: um modelo fundacional pode servir tanto para sistemas de IA de objetivo específico como para sistemas de IA de objetivo geral. No entanto, os modelos fundacionais que não sirvam para ferramentas de IA para fins gerais não seriam abrangidos pelo futuro Regulamento relativo à IA (alteração 101 do PE e considerando 60-G).

O ChatGPT colocou desafios sociais e jurídicos significativos, não só em termos de direitos de autor, mas também em termos de cibersegurança e proteção de dados pessoais. Este tema será, no entanto, discutido num texto separado. Por enquanto, vejamos o que o futuro do Regulamento IA pode reservar para os modelos fundacionais, se as alterações do Parlamento Europeu forem aceites.

Os princípios gerais dos sistemas de IA

A alteração 213 do Parlamento Europeu propõe a introdução de um novo artigo 4º-A relativo aos princípios gerais aplicáveis a todos os sistemas de IA. Trata-se, de certa forma, de um equivalente ao artigo 5.º do Regulamento Geral sobre a Proteção de Dados, relativo aos princípios aplicáveis ao tratamento de dados pessoais.

Nos termos do artigo 4.º-A, todos os operadores abrangidos pelo âmbito de aplicação do Regulamento IA devem envidar todos os esforços para desenvolver e utilizar sistemas ou modelos fundacionais em conformidade com os seguintes princípios, destinados a promover uma abordagem europeia coerente, centrada no ser humano, de uma IA ética e fiável:

– Intervenção humana e vigilância

– Robustez técnica e segurança

– Privacidade e governação dos dados

– Transparência (e explicabilidade)

– Diversidade, não discriminação e equidade

– Bem-estar social e ambiental

Estes seis princípios serão aplicáveis tanto aos sistemas de IA como aos modelos fundacionais. No entanto, no caso dos modelos fundacionais, devem ser cumpridos pelos fornecedores ou responsáveis pela aplicação em conformidade com os requisitos estabelecidos nos artigos 28.-B. Note-se que os artigos 28.º a 28.º-B fazem parte do Título III relativo aos sistemas de alto risco. Já salientámos no início que as últimas discussões na negociação do Regulamento no que se refere aos modelos fundacionais não os consideram sistemas de alto risco. O mesmo não parece resultar das alterações do Parlamento. Por conseguinte, deve entender-se que os modelos fundacionais serão regulados nas disposições que os mencionam expressamente, como é o caso do artigo 4º-A ou dos artigos 28º a 28º-B, mas não no Título III do RIA no seu conjunto.

O artigo 28.º do PRIA diz respeito às obrigações dos distribuidores, importadores, utilizadores e terceiros. As alterações do Parlamento propõem a substituição do título por “Responsabilidades ao longo da cadeia de valor da IA dos fornecedores, distribuidores, importadores, responsáveis pela aplicação ou terceiros”.  A referência a toda a cadeia de valor da IA é, na minha opinião, uma boa medida, uma vez que sublinha a importância de todo o processo de IA: não só o seu desenvolvimento, mas também a sua utilização. Tenho mais dúvidas em substituir a palavra “obrigações” por “responsabilidades” ou em incluir no título uma lista pormenorizada de todas as partes envolvidas.

A maior parte das obrigações relativas aos modelos fundacionais encontra-se no n.º 3 do artigo 28.º (novo, alteração 399), que se intitula “Obrigações do fornecedor de um modelo fundacional” (o termo “obrigações” é retomado aqui).

Podemos agrupar as obrigações do fornecedor de modelos fundacionais em três grupos:

– Obrigações anteriores à comercialização de modelos fundacionais (n.ºs 1 e 2). Estas obrigações aplicam-se ao fornecedor, independentemente de o modelo ser fornecido autonomamente ou integrado num sistema de IA ou noutro produto ou de ser fornecido ao abrigo de licenças gratuitas e de fonte aberta.

– Obrigações pós-comercialização (n.º 3), e

– Obrigações específicas relativas aos sistemas de IA generativa, ou seja, especificamente destinados a gerar conteúdos, como texto, imagem, áudio ou vídeo complexos (secção 4).

Obrigações anteriores à comercialização do modelo fundacional

De acordo com o art. 28.ter.2, o fornecedor de um modelo fundacional, antes de comercializar ou colocar o modelo em funcionamento, deve (tendo em conta o estado da arte num dado momento):

– Demonstrar a deteção, redução e mitigação de riscos razoavelmente previsíveis para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia ou o Estado de direito.

o Tal deve ser demonstrado através de uma conceção, testes e análises adequados e com a participação de peritos independentes.

o Deve também fornecer documentação sobre os riscos não mitigáveis remanescentes após o desenvolvimento.

– Só deve processar e incorporar conjuntos de dados sujeitos a medidas de governação adequadas para modelos fundacionais.

o Em particular: adequação das fontes, enviesamentos e atenuação adequada.

– Deve conceber e desenvolver o modelo

o de modo a atingir, ao longo do seu ciclo de vida, níveis adequados de desempenho, previsibilidade, interpretabilidade, correção, segurança e cibersegurança, avaliados por métodos adequados;

o utilizando as normas aplicáveis para reduzir o consumo de energia, a utilização de recursos e os resíduos, bem como para aumentar a eficiência energética e a eficiência global do sistema. A este respeito, devem ser desenvolvidos modelos fundacionais com capacidades para medir e registar o consumo de energia e de recursos e o impacto ambiental.

– Desenvolverá uma documentação técnica exaustiva e instruções de utilização inteligíveis.

– Estabelecer um sistema de gestão da qualidade para garantir e documentar a conformidade com todos os elementos acima referidos (responsabilidade proactiva).

– Registar o modelo básico na base de dados da UE para sistemas independentes de alto risco.

Obrigações pós-comercialização do modelo básico

Durante dez anos após o sistema de IA ter sido colocado no mercado ou em serviço, os fornecedores de modelos fundacionais devem manter a documentação técnica à disposição das autoridades nacionais competentes (Agência de Controlo da IA).

Obrigações específicas para os modelos de IA generativa

Para além das obrigações gerais estabelecidas no ponto 28.ter.2, os fornecedores de sistemas de IA generativa devem:

– Cumprir as obrigações de transparência do artigo 52.º, n.º 1 (obrigação de informar as pessoas que interagem com estes sistemas de que estão a interagir com um sistema de IA).

– Conceber e desenvolver o modelo de forma a garantir salvaguardas adequadas contra a produção de conteúdos que infrinjam a legislação da UE.

– Sem prejuízo da legislação em matéria de direitos de autor, devem documentar e disponibilizar publicamente um resumo suficientemente pormenorizado da utilização de dados de formação protegidos por direitos de autor.

Bónus: dois desafios colocados pela IA generativa

Termino este post partilhando duas preocupações (às quais os nossos leitores poderão responder): os desafios em matéria de propriedade intelectual colocados pela IA generativa e a possibilidade de considerar os modelos fundacionais como de alto risco.

Começo pela primeira, porque é mais ousada da minha parte: quando é que eu, uma pessoa singular, posso ser considerado autor de uma obra literária gerada através de IA generativa (Chat GPT, por exemplo)? Desenvolvo um pouco mais a minha preocupação: não é (ou não deveria ser) a mesma coisa para mim introduzir uma simples pergunta no Chat GPT, como “escreva a oitava parte do Harry Potter”, do que introduzir várias perguntas com um certo nível de complexidade (quanto?), nas quais introduzo certas características específicas do romance. Se aceitarmos que as ferramentas de IA não deixam de ser ferramentas tecnológicas (muito complexas, mas tecnológicas), talvez possamos concordar que se trata de um debate semelhante ao que surgiu na altura em torno da fotografia, que permite distinguir legalmente entre “fotografia (artística)” e “mera fotografia (carregar no botão da câmara)”. Outra questão, mais difícil, seria distinguir, em cada caso, quando as instruções introduzidas numa ferramenta de IA generativa nos permitem falar de utilização artística da IA generativa ou de “mera utilização” da IA generativa.

O segundo desafio é, de facto, abrangido pelo Regulamento IA, mas é importante referi-lo. Consiste na consideração dos modelos fundacionais como sendo de alto risco. O anexo III da proposta de Regulamento IA contém uma lista não fechada de sistemas de IA de alto risco. No entanto, não se deve esquecer que a Comissão teria (na proposta de Regulamento relativo à IA, artigo 7.º) teria poderes para adotar atos delegados que alterem o anexo III para acrescentar sistemas de IA que satisfaçam duas condições: destinar-se a ser utilizados em qualquer dos domínios enumerados nos pontos 1 a 8 do anexo (ou seja, identificação biométrica e categorização de pessoas singulares; gestão e funcionamento de infra-estruturas críticas; educação e formação profissional, emprego, gestão de trabalhadores e acesso ao trabalho independente; acesso e usufruto de serviços públicos e privados essenciais e seus benefícios; questões de aplicação da lei; gestão das migrações; asilo e controlo financeiro; administração da justiça e processos democráticos); comportar um risco de danos para a saúde e a segurança ou um risco de consequências negativas para os direitos fundamentais que seja equivalente ou superior aos riscos de danos associados aos sistemas de IA de alto risco já mencionados no Anexo III, tendo em conta vários critérios, tais como, entre outros, o objetivo pretendido do sistema de IA ou a probabilidade de este ser utilizado de uma determinada forma.

Deve uma IA generativa (que é um exemplo de um modelo fundamental) capaz de produzir vídeos destinados a perturbar os processos democráticos ser considerada de alto risco? Parece claro que sim, uma vez que estas utilizações estão enumeradas no ponto 8 do anexo III, quer se destinem especificamente a perturbar os processos democráticos quer sejam suscetíveis de ser utilizadas para o efeito. O que não é claro neste momento (teremos de aguardar a redação final do texto) é se será considerado de alto risco desde o início, ou apenas depois de a Comissão adotar o ato delegado correspondente para alargar o Anexo III. Por outras palavras, se este ato delegado da Comissão seria constitutivo ou meramente declarativo de que um sistema de AI é de alto risco.

Inteligência Artificial, a nova vulgaridade

Doutrina

A Inteligência Artificial tornou-se ubíqua em grande parte do mundo e para grande parte das pessoas. Está presente no consumo, no trabalho, na vida em geral, na guerra, nas coisas. O que é bom e mau, dá à humanidade superpoderes e tem, provavelmente, o poder de extinguir a espécie humana.

Em março de 2023, promovida pelo Future of Life Institute, foi amplamente divulgada uma carta que pedia aos gigantes tecnológicos uma pausa de seis meses na investigação em Inteligência Artificial. Vários proeminentes líderes empresariais, cientistas de renome e preocupados mais ou menos importantes assinaram-na e divulgaram-na. Elon Musk juntou-se ao movimento, embora pouco tempo depois já estivesse a lançar a xAI, para competir no campo da Inteligência Artificial Generativa, novidade que esteve na base deste sobressalto geral, de que o ChatGPT é a vedeta mais conhecida. Parece que o apelo, em vez de abrandar, acelerou a criação.

A OpenAI tornou acessível ao público, em novembro de 2022, o ChatGPT, que assentava no denominado GPT-3 (mais concretamente 3.5), estando GPT para generative pre-trained transformer e 3 para a versão utilizada. Como acontece com os outros sistemas de Inteligência Artificial, que vivem de dados com que aprendem (machine learning), quanto mais e melhor for a informação mais rápida e precisa é a aprendizagem e melhores são os resultados. Tornando uma ferramenta como o ChatGPT acessível ao público em geral, foi como fogo em estopa. Instantaneamente, milhões de pessoas por todo o mundo estavam a experimentar a novidade, tornando o seu crescimento muito rápido e o seu desenvolvimento facilitado pela quantidade de interações com esses “professores”.

Agora parece que está para sair o ChatGPT-5. E uma série de concorrentes de outras empresas e de outras áreas de aplicação, tanto na linguagem, como no campo das imagens, som e código, em que a Inteligência Artificial Generativa também é espantosa.

A ubiquidade da Inteligência Artificial assenta no desenvolvimento das suas potencialidades e na abrangência das suas aplicações. No consumo, seja online ou no “mundo real”, está subjacente à aquisição propriamente dita ou, pelo menos, presente algures na cadeia de valor inerente à produção e distribuição de bens e serviços. Já ninguém pensa nisso. As pessoas limitam-se a usar os dispositivos por onde os algoritmos se vão executando e aprendendo, fazendo habilidades espantosas e auxiliando os humanos mais afoitos a ensaiar uns truques de magia.

A evolução foi rapidíssima e global. Basta pegar na última década, deixando de fora a pré-história da viragem do milénio, há longínquos vinte anos, para cada um de nós olhar para o modo como fazíamos o que tínhamos a fazer, como vivíamos a nossa vida, como aprendíamos, como comprávamos, para se chegar à conclusão de que as mudanças são grandes e radicais.

Algumas ideias promissoras falharam, outras foram adiadas, outras substituídas, mas o caminho na direção da automatização, da ampliação da rede de Internet, colocando-a nos objetos, naquilo a que veio a ser denominado “Internet das Coisas”, na generalização do uso de máquinas que aprendem tem sido, e tudo indica que vá continuar a ser, inexorável.

A Inteligência Artificial é uma espécie de eletricidade do nosso tempo. Quando usamos o computador, o telemóvel, o carro, a casa, quando nos movemos, não pensamos que o fazemos porque temos eletricidade e, na maior parte das situações, porque temos disponível Inteligência Artificial. Isso acontece quando algo se torna um dado adquirido, tão presente que fica invisível, até desprezível, exceto quando falta. Foi o que aconteceu com a eletricidade, há mais de um século. É o que acontece com a Inteligência Artificial, há cerca de uma década. Assim como se passou a carregar num interruptor e a ter uma luz que iluminou as trevas milenares, achando normalíssimo que assim acontecesse, e como se passou a ligar um fio à parede para pôr a funcionar máquinas de todas as espécies, achando igualmente normalíssimo, também nos fomos recentemente habituando a que essas máquinas nos indicassem o caminho por onde devíamos seguir, nos fornecessem a informação de que não nos estávamos a lembrar, nos permitissem saber instantaneamente História, Geografia, Matemática ou qualquer outro saber, cumprissem ordens nossas, nos dessem ordens que cumprimos, nos indicassem o que comprar, onde o fazer, comparassem preços e produtos, recebessem e fizessem reclamações, conversassem connosco com uma paciência infinita de que nem o mais simpático dos humanos é capaz.

Não nos apercebemos, e provavelmente preferimos até não saber, do que está inerente aos resultados que desejamos. Em todos os campos. Cientistas credibilíssimos avisam há mais de cinquenta anos, com provas irrefutáveis, sobre as alterações climáticas e as suas consequências, mas nós queremos a nossa comodidade, o nosso carro, as nossas embalagens de plástico, as nossas fibras, a nossa roupa. A indústria têxtil é das mais poluentes, como magistralmente mostra a série de reportagens “O que vamos vestir amanhã?”, que abre uma janela de esperança à mitigação do problema através do uso de tecnologia. Estudos, princípios e regras, intensos avisos sobre o uso e, principalmente, o abuso da Inteligência Artificial não têm faltado. Por exemplo, no campo da ética, pode-se relembrar o esforço da União Europeia e de prestigiados cientistas para construir uma “Inteligência Artificial Confiável”. Salientam-se, pelo destaque mediático e pela intensidade, os avisos de 2014, de Stephan Hawking e Elon Musk sobre a ameaça, inclusive de extinção, que a Inteligência Artificial representava para a humanidade. Elon Musk voltou a avisar em 2023, ainda que não parecendo capaz de seguir os seus próprios conselhos, ao juntar-se ao grupo que subscreveu a carta-apelo promovida pelo Future of Life Institute.  Yuval Noah Harari, em maio de 2023, veio de propósito a Lisboa para nos deslumbrar e assombrar, numa Conferência em que explicou exatamente o que pensava sobre o assunto. Como faz há anos, por escrito, em best-sellers, e por todos os meios possíveis. Chamaram-lhe cientista “rockstar”. É ouvido e ignorado por todo o lado. O público acha-lhe graça, encolhe os ombros e consulta o telemóvel, talvez para procurar primeiro Harari e, depois, um restaurante para ir de seguida consumir um bom jantar, guiado por uma aplicação com glocalização, escolhendo o prato indicado por uma influencer famosa, tirando uma foto para colocar nas redes sociais enquanto a comida arrefece, criando permanentemente mais dados que os algoritmos deglutem sem dificuldade.

A Inteligência Artificial é a nova vulgaridade, acessível a todos, sempre presente e disponível. Ubíqua e não inócua.