Inteligência Artificial, codificação das emoções e consumo

Doutrina

Os cientistas andam a codificar a emoção, o que nem sequer é muito novo, para a integrarem em sistemas de inteligência artificial.

A Artificial Intelligence (AI) ganha um E, transformando-se em EAI (Emotional Artificial Intelligence), o que a vai aproximando da ainda considerada praticamente inatingível AGI (Artificial General Intelligence), que implicaria que a inteligência da máquina seria semelhante à do ser humano, no sentido de que em vez de ser só magnífica na resolução de problemas e tarefas específicas, como fazer cirurgias, dirigir carros ou outros veículos, organizar cidades, seria também excecional na resposta a questões gerais e até de senso comum.

Até ver, as pessoas têm-se divertido bastante com as limitações dos sistemas de AI, sentindo-se ainda bastante superiores, já que sem qualquer dificuldade conseguem perceber coisas que a máquina nem vislumbra. Por exemplo, foi feita uma experiência com um sistema muito simples, em que uma pessoa representada em meia dúzia de traços no ecrã, “chutava à baliza” onde estava um “guarda-redes”, de aspeto semelhante. Naquele sistema de AI, tanto a figura que rematava como a que defendia, eram cada vez melhores na sua tarefa. Até que os cientistas resolveram apresentar o “guarda-redes” deitado no chão, deixando a “baliza aberta”. O marcador, perante a surpresa da situação, simplesmente colapsou. Não aproveitou a oportunidade “de fazer golo” e, em completo desnorte, acabou por se deitar também. Para a máquina, aquilo não era futebol, era evitar um obstáculo enquadrado num retângulo. Se o obstáculo é removido, a falta de lógica arrasa a estrutura. O humano, em face disto, ri-se por lhe ser tão evidente o que deveria ser feito.

Vários exemplos de comparação entre a inteligência humana e o desenvolvimento de uma (ainda incipiente) AGI, nomeadamente inserida em robôs, pode ser vista na extraordinária apresentação que José Santos-Victor, do IST, fez na Conferência sobre o tema “Cérebros e Robôs”, inserida na exposição da Fundação Calouste Gulbenkian denominada “Cérebro – mais vasto que o céu”, disponível aqui. Também no Técnico, Ana Paiva trabalha no desenvolvimento de “robôs sociais”, que exprimam emoções e sejam amáveis com as pessoas.

Os cientistas já codificam a emoção há muito tempo, sendo um clássico com provas dadas o sistema BET (Basic Emotion Theory), que assenta na tipificação das principais emoções humanas e sua manifestação.

Ora, com sistemas de AI, com algoritmos que aprendem através de técnicas de Machine Learning (ML) que, num nível de maior sofisticação opera através de redes neurais artificiais (Artificial Neural Nets – ANN), tomando a designação de Deep Learning (DL) e com uma quantidade crescente de material para alimentar o processo – a Big Data – fácil será perceber que as emoções humanas são facilmente reconhecíveis pela “máquina”. Tanto mais reconhecíveis, quanto maior for a quantidade de informação disponível.

O que é que isto tem a ver com o consumo, já vai apetecendo perguntar.

Pois tem tudo. Se pensarmos que o recurso a assistentes digitais, que recebem ordens de voz em que transparece a nossa disposição e até conversam connosco (chatbots) é já uma realidade vulgar, que o uso de câmaras que recebem e registam as nossas expressões faciais é quase permanente e ainda que é frequente que dados biométricos ligados à emoção, como o batimento cardíaco, estejam a ser registados, é fácil ver como empresas que têm acesso a tudo isso podem escolher o melhor momento para nos fazer lembrar que estamos mesmo a precisar de comprar alguma coisa.

A fasquia, que já estava alta com a análise do comportamento, é elevada a um nível muito superior, com a análise da emoção por sistemas de inteligência artificial.

A propósito de um artigo na área das ciências da computação, “The Ethics of Emotion in AI Systems”, de Luke Stark e Jesse Hoey, disponível aqui ou aqui, pode-se ler aqui um “Research Summary”, de Alexandrine Royer, uma cientista da área das ciências humanas (social scientist), publicado este mês pelo Montreal AI Ethics Institute, que explica com clareza a problemática em questão. Estas leituras dão-nos a perspetiva das ciências da computação, enunciada e complementada pela das ciências sociais, o que nos fornece um ponto de partida para grande reflexão.

Entretanto, pelo menos quando comprar online, através de um gigante tecnológico, faça um esforço para evitar, como tão bem disse Ricardo Araújo Pereira, “sentir sentimentos” ou, se tal for impossível, evite mostrá-los. É provável que poupe algum dinheiro.

Pode ler mais neste blog sobre a ética ligada à inteligência artificial, aqui e aqui e sobre AI na sociedade aqui.

Leave a Reply

Your email address will not be published. Required fields are marked *