Inteligência Artificial, codificação das emoções e consumo

Doutrina

Os cientistas andam a codificar a emoção, o que nem sequer é muito novo, para a integrarem em sistemas de inteligência artificial.

A Artificial Intelligence (AI) ganha um E, transformando-se em EAI (Emotional Artificial Intelligence), o que a vai aproximando da ainda considerada praticamente inatingível AGI (Artificial General Intelligence), que implicaria que a inteligência da máquina seria semelhante à do ser humano, no sentido de que em vez de ser só magnífica na resolução de problemas e tarefas específicas, como fazer cirurgias, dirigir carros ou outros veículos, organizar cidades, seria também excecional na resposta a questões gerais e até de senso comum.

Até ver, as pessoas têm-se divertido bastante com as limitações dos sistemas de AI, sentindo-se ainda bastante superiores, já que sem qualquer dificuldade conseguem perceber coisas que a máquina nem vislumbra. Por exemplo, foi feita uma experiência com um sistema muito simples, em que uma pessoa representada em meia dúzia de traços no ecrã, “chutava à baliza” onde estava um “guarda-redes”, de aspeto semelhante. Naquele sistema de AI, tanto a figura que rematava como a que defendia, eram cada vez melhores na sua tarefa. Até que os cientistas resolveram apresentar o “guarda-redes” deitado no chão, deixando a “baliza aberta”. O marcador, perante a surpresa da situação, simplesmente colapsou. Não aproveitou a oportunidade “de fazer golo” e, em completo desnorte, acabou por se deitar também. Para a máquina, aquilo não era futebol, era evitar um obstáculo enquadrado num retângulo. Se o obstáculo é removido, a falta de lógica arrasa a estrutura. O humano, em face disto, ri-se por lhe ser tão evidente o que deveria ser feito.

Vários exemplos de comparação entre a inteligência humana e o desenvolvimento de uma (ainda incipiente) AGI, nomeadamente inserida em robôs, pode ser vista na extraordinária apresentação que José Santos-Victor, do IST, fez na Conferência sobre o tema “Cérebros e Robôs”, inserida na exposição da Fundação Calouste Gulbenkian denominada “Cérebro – mais vasto que o céu”, disponível aqui. Também no Técnico, Ana Paiva trabalha no desenvolvimento de “robôs sociais”, que exprimam emoções e sejam amáveis com as pessoas.

Os cientistas já codificam a emoção há muito tempo, sendo um clássico com provas dadas o sistema BET (Basic Emotion Theory), que assenta na tipificação das principais emoções humanas e sua manifestação.

Ora, com sistemas de AI, com algoritmos que aprendem através de técnicas de Machine Learning (ML) que, num nível de maior sofisticação opera através de redes neurais artificiais (Artificial Neural Nets – ANN), tomando a designação de Deep Learning (DL) e com uma quantidade crescente de material para alimentar o processo – a Big Data – fácil será perceber que as emoções humanas são facilmente reconhecíveis pela “máquina”. Tanto mais reconhecíveis, quanto maior for a quantidade de informação disponível.

O que é que isto tem a ver com o consumo, já vai apetecendo perguntar.

Pois tem tudo. Se pensarmos que o recurso a assistentes digitais, que recebem ordens de voz em que transparece a nossa disposição e até conversam connosco (chatbots) é já uma realidade vulgar, que o uso de câmaras que recebem e registam as nossas expressões faciais é quase permanente e ainda que é frequente que dados biométricos ligados à emoção, como o batimento cardíaco, estejam a ser registados, é fácil ver como empresas que têm acesso a tudo isso podem escolher o melhor momento para nos fazer lembrar que estamos mesmo a precisar de comprar alguma coisa.

A fasquia, que já estava alta com a análise do comportamento, é elevada a um nível muito superior, com a análise da emoção por sistemas de inteligência artificial.

A propósito de um artigo na área das ciências da computação, “The Ethics of Emotion in AI Systems”, de Luke Stark e Jesse Hoey, disponível aqui ou aqui, pode-se ler aqui um “Research Summary”, de Alexandrine Royer, uma cientista da área das ciências humanas (social scientist), publicado este mês pelo Montreal AI Ethics Institute, que explica com clareza a problemática em questão. Estas leituras dão-nos a perspetiva das ciências da computação, enunciada e complementada pela das ciências sociais, o que nos fornece um ponto de partida para grande reflexão.

Entretanto, pelo menos quando comprar online, através de um gigante tecnológico, faça um esforço para evitar, como tão bem disse Ricardo Araújo Pereira, “sentir sentimentos” ou, se tal for impossível, evite mostrá-los. É provável que poupe algum dinheiro.

Pode ler mais neste blog sobre a ética ligada à inteligência artificial, aqui e aqui e sobre AI na sociedade aqui.

A linha que os liga – revolta contra o racismo, gigantes tecnológicos e consumidores

Doutrina

A América está a ferro e fogo, após a morte de George Floyd, negro, que foi sufocado pelo joelho de um polícia, branco, que pressionou o seu pescoço durante vários minutos contra o chão, perante o olhar dos seus colegas, todos ouvindo atentamente as súplicas do imobilizado que não oferecia resistência, repetia que não conseguia respirar e clamou, em desespero, pela mãe. A ação foi filmada e as imagens difundidas pela net, incendiando o omnipresente rastilho de revolta contra o racismo. O país está a arder e o repúdio é, também, manifestado por todo o mundo.

A Amazon, através dos seus dirigentes, veio manifestar nas redes sociais apoio aos que protestam contra o racismo nos EUA. Como é de bom-tom e fizeram também outros gigantes tecnológicos, como a Google.

A mesma Amazon, com a oposição dos seus próprios trabalhadores e de organizações de defesa dos direitos humanos, terá vendido à polícia americana uma ferramenta de reconhecimento facial, a Rekognition, para ajudar na aplicação da lei. Além da já por si duvidosa vigilância que esta ferramenta permitirá, segundo vários investigadores, incluindo da própria empresa, a mesma tem limitações, enviesamentos e erros, especialmente na identificação de pessoas de raça negra, podendo ser, portanto, um instrumento na promoção do racismo.

Aparentar virtude fica sempre bem a uma empresa/marca e exige um esforço reduzido. Já praticar a virtude, como a História vem mostrando à saciedade, pode ser menos rentável e mais arriscado. Para não irmos mais longe, e mantendo a mesma geografia e a mesma problemática, o assassinato de Martin Luther King Jr., em 4 de abril de 1968, demonstra-o.

Para aprofundar o conhecimento da situação, vale a pena conhecer a opinião de Evan Selinger, especialista em tech-ethics e privacidade, Professor do Philosophy at Rochester Institute of Technology dos EUA, e ler o artigo da revista Wired em que é citado.

É na comercialização de ferramentas com enviesamentos, nomeadamente racistas[1], por empresas tecnológicas e na implementação do racismo no terreno, digamos assim, que se começa a vislumbrar a linha que une duas realidades, à partida aparentemente desligadas.

As grandes tecnológicas possuem exabytes de dados que constituem a big data[2] e possuem a capacidade de os analisar com Inteligência Artificial (Artificial Intelligence – AI) e, especificamente no que diz respeito ao reconhecimento facial, com poderosos sistemas de redes neurais artificiais (Artificial Neural Networks – ANN). Do que resulta a possibilidade de obter informação útil e fornecer valor, sob a forma de vários produtos e serviços, a Estados, empresas e indivíduos.

As empresas nascem para ter lucro. Este é um facto económico e jurídico. A sua atividade comercial desenrola-se com vista à prossecução desse objetivo. Essa não é uma novidade. O que, por vezes, é novo é a base desse lucro.

É aqui que surge a ligação aos consumidores. O maior fornecedor de dados às grandes tecnológicas é a humanidade, somos cada um de nós, em quase tudo o que realizamos através de meios digitais[3]. Para o fazermos, contratamos serviços, muitas vezes sem disso nos apercebermos, já que só pretendemos usar aplicações frequentemente “gratuitas” para atividades em que nos são úteis ou, simplesmente, para nos divertirmos. É assim que achamos imensa graça a desbloquear o telemóvel colocando-o em frente ao rosto, de modo a que o reconheça, ou fazê-lo com a voz, com a impressão digital ou com a iris. Ou a usarmos assistentes virtuais e a conversarmos com chatbots de serviços de atendimento. Ou, a zoomizarmos, como nos meses de confinamento devido à pandemia de Covid-19, em que estivemos, quase em permanência, online em videochamadas.

Esta é a linha que liga consumidores que clicam em “Aceito”, normalmente desconhecendo conteúdo e consequências dessa “aceitação”, fornecendo dados que a AI das grandes tecnológicas analisa, às empresas que assim conseguem criar produtos e serviços que fornecem a terceiros e que, tendo limitações e enviesamentos, podem propiciar o racismo ou outras discriminações, que revoltam as pessoas.

[1] Relativamente correntes, como mostram vários estudos. Cfr., a título de exemplo, os divulgados aqui (Nature/Science), aqui (Nature) e aqui (NIST/MIT).

[2] A big data tem até sido denominada o “novo petróleo” do século XXI. Curiosamente, o próprio petróleo quando começou a ser sinónimo de riqueza, foi denominado “ouro negro”, a reserva de valor mais relevante na altura. A comparação big data/novo petróleo encontra-se duplamente desatualizada, primeiro porque o valor que pretendia simbolizar não estava realmente na big data – no enorme volume de dados -, mas na capacidade de os analisar retirando informação útil, depois porque com o confinamento e a crise resultante da pandemia Covid-19 o valor do petróleo quase desapareceu, chegando a ter cotação negativa no mercado de capitais de Nova Iorque.

[3] Deixando de parte a vigilância pública e os casos em que o fornecimento de dados é legalmente obrigatório.