Há muito, muito tempo, num reino distante, um gigante mostrou a um jornal o resultado de umas pesquisas que andava a fazer sobre a vulnerabilidade dos adolescentes online, aferível em tempo real, e a constatação de que a intensa vivência da fragilidade seria o momento ideal para, amavelmente, lhes sugerir algumas compras.
Foi em 2017, na Austrália, o gigante era o Facebook, o jornal o The Australian e a proeza assentava na utilização de inteligência artificial (Artificial Intelligence – AI), big data e small data. Pode tudo ser lido em detalhe aqui, num artigo do The Guardian que, sensatamente, nos avisa ao entrarmos: “This article is more than 3 years old”.
No que diz respeito às capacidades da AI, três anos é tempo imenso e é importante ter isso em mente ao ler este post, que vem na sequência do publicado esta semana aqui. A ideia é trazer substância material ao tema aí tratado, relativo à leitura das emoções por sistemas de inteligência artificial e ilustrar o que pode, e é, feito na realidade em que todos vivemos e que a todos nos afeta. É necessário, pois, ter em consideração que estas habilidades são, de algum modo, rudimentares em relação às que podem ser, e são, realizadas atualmente, em 2021, num mundo que, além do mais, está pandémico há um ano e, também por isso, transitou para uma versão ainda mais digital de si próprio.
Vamos aos factos: o Facebook, num relatório bastante claro, destinado a informar os anunciantes sobre as vantagens de anunciarem, explicou que seguia em tempo real as comunicações de adolescentes e jovens, nomeadamente posts e imagens, e identificava as inseguranças, ansiedades e receios que estavam a sentir. Naturalmente que, pelo simples facto de se incluírem naquela faixa etária, a propensão para se sentirem, por exemplo, gordos, magros, feios, com borbulhas, louros em vez de morenos, morenos em vez de louros, é enorme, como todos os que por essa idade já passámos tão bem sabemos. Não é por acaso, é pela sua especial vulnerabilidade, que a legislação protege diferenciadamente crianças e jovens.
Quando aquele feito do Facebook foi tornado público a reação não foi a melhor e a empresa pediu desculpa e disse que ia instaurar um inquérito interno e etc, etc, etc, o bê-a-bá do politicamente correto. No entanto, num segundo momento, talvez por perceber que admitir, mesmo que para pedir desculpa, seria mau demais, veio dizer que tinha havido um engano e que o Facebook não fornecia ferramentas “to target people based on their emotional state”, mas sim “to help marketers understand how people express themselves”. Ora, portanto, os anunciantes tinham muito interesse, talvez como os psicólogos, em compreender como é que as pessoas exprimiam as suas emoções e o psicólogo supremo Facebook, solicitamente, ajudava nessa tarefa e na prossecução desse elevado objetivo. Tudo, vá, em abstrato, sem ter a ver com conseguir vendas. Era, pois, isto que era feito, estava esclarecido e não se falava mais no assunto.
O escândalo foi grande e grandemente esquecido.
A internet é assim, o que lá está é tão eterno, como efémero. Impressionamo-nos, revoltamo-nos, enfadamo-nos e seguimos para a receita de wraps que se segue, porque já estamos a ficar com um bocadinho de fome.
Pode ler mais neste blog sobre a ética ligada à inteligência artificial, aqui e aqui e sobre a AI na sociedade aqui e, se quiser ficar mesmo assustado, aqui.