A América está a ferro e fogo, após a morte de George Floyd, negro, que foi sufocado pelo joelho de um polícia, branco, que pressionou o seu pescoço durante vários minutos contra o chão, perante o olhar dos seus colegas, todos ouvindo atentamente as súplicas do imobilizado que não oferecia resistência, repetia que não conseguia respirar e clamou, em desespero, pela mãe. A ação foi filmada e as imagens difundidas pela net, incendiando o omnipresente rastilho de revolta contra o racismo. O país está a arder e o repúdio é, também, manifestado por todo o mundo.
A Amazon, através dos seus dirigentes, veio manifestar nas redes sociais apoio aos que protestam contra o racismo nos EUA. Como é de bom-tom e fizeram também outros gigantes tecnológicos, como a Google.
A mesma Amazon, com a oposição dos seus próprios trabalhadores e de organizações de defesa dos direitos humanos, terá vendido à polícia americana uma ferramenta de reconhecimento facial, a Rekognition, para ajudar na aplicação da lei. Além da já por si duvidosa vigilância que esta ferramenta permitirá, segundo vários investigadores, incluindo da própria empresa, a mesma tem limitações, enviesamentos e erros, especialmente na identificação de pessoas de raça negra, podendo ser, portanto, um instrumento na promoção do racismo.
Aparentar virtude fica sempre bem a uma empresa/marca e exige um esforço reduzido. Já praticar a virtude, como a História vem mostrando à saciedade, pode ser menos rentável e mais arriscado. Para não irmos mais longe, e mantendo a mesma geografia e a mesma problemática, o assassinato de Martin Luther King Jr., em 4 de abril de 1968, demonstra-o.
Para aprofundar o conhecimento da situação, vale a pena conhecer a opinião de Evan Selinger, especialista em tech-ethics e privacidade, Professor do Philosophy at Rochester Institute of Technology dos EUA, e ler o artigo da revista Wired em que é citado.
É na comercialização de ferramentas com enviesamentos, nomeadamente racistas[1], por empresas tecnológicas e na implementação do racismo no terreno, digamos assim, que se começa a vislumbrar a linha que une duas realidades, à partida aparentemente desligadas.
As grandes tecnológicas possuem exabytes de dados que constituem a big data[2] e possuem a capacidade de os analisar com Inteligência Artificial (Artificial Intelligence – AI) e, especificamente no que diz respeito ao reconhecimento facial, com poderosos sistemas de redes neurais artificiais (Artificial Neural Networks – ANN). Do que resulta a possibilidade de obter informação útil e fornecer valor, sob a forma de vários produtos e serviços, a Estados, empresas e indivíduos.
As empresas nascem para ter lucro. Este é um facto económico e jurídico. A sua atividade comercial desenrola-se com vista à prossecução desse objetivo. Essa não é uma novidade. O que, por vezes, é novo é a base desse lucro.
É aqui que surge a ligação aos consumidores. O maior fornecedor de dados às grandes tecnológicas é a humanidade, somos cada um de nós, em quase tudo o que realizamos através de meios digitais[3]. Para o fazermos, contratamos serviços, muitas vezes sem disso nos apercebermos, já que só pretendemos usar aplicações frequentemente “gratuitas” para atividades em que nos são úteis ou, simplesmente, para nos divertirmos. É assim que achamos imensa graça a desbloquear o telemóvel colocando-o em frente ao rosto, de modo a que o reconheça, ou fazê-lo com a voz, com a impressão digital ou com a iris. Ou a usarmos assistentes virtuais e a conversarmos com chatbots de serviços de atendimento. Ou, a zoomizarmos, como nos meses de confinamento devido à pandemia de Covid-19, em que estivemos, quase em permanência, online em videochamadas.
Esta é a linha que liga consumidores que clicam em “Aceito”, normalmente desconhecendo conteúdo e consequências dessa “aceitação”, fornecendo dados que a AI das grandes tecnológicas analisa, às empresas que assim conseguem criar produtos e serviços que fornecem a terceiros e que, tendo limitações e enviesamentos, podem propiciar o racismo ou outras discriminações, que revoltam as pessoas.
[1] Relativamente correntes, como mostram vários estudos. Cfr., a título de exemplo, os divulgados aqui (Nature/Science), aqui (Nature) e aqui (NIST/MIT).
[2] A big data tem até sido denominada o “novo petróleo” do século XXI. Curiosamente, o próprio petróleo quando começou a ser sinónimo de riqueza, foi denominado “ouro negro”, a reserva de valor mais relevante na altura. A comparação big data/novo petróleo encontra-se duplamente desatualizada, primeiro porque o valor que pretendia simbolizar não estava realmente na big data – no enorme volume de dados -, mas na capacidade de os analisar retirando informação útil, depois porque com o confinamento e a crise resultante da pandemia Covid-19 o valor do petróleo quase desapareceu, chegando a ter cotação negativa no mercado de capitais de Nova Iorque.
[3] Deixando de parte a vigilância pública e os casos em que o fornecimento de dados é legalmente obrigatório.