Pesquisa Online na Era da IA Generativa: Transparência ou Ilusão?

Doutrina

As ferramentas de inteligência artificial generativa têm transformado a forma como os consumidores procuram informação online, nomeadamente quando querem contratar um serviço ou adquirir um produto. Já não é incomum colocar perguntas diretamente a estas ferramentas — como o ChatGPT ou o Gemini —, por exemplo: «Qual é o frigorífico com melhor relação custo-benefício no mercado?». A resposta surge em segundos, em linguagem natural, convincente e aparentemente neutra.

Além disso, mesmo nos motores de busca tradicionais, o consumidor pode já deparar-se com respostas geradas por IA apresentadas logo antes da lista de resultados — como sucede, por exemplo, no Google com os denominados AI Overviews. Essas mudanças alteram estruturalmente a experiência de pesquisa e colocam desafios relevantes para o Direito do Consumo.

Quanto aos motores de busca, até muito recentemente o resultado era sempre apresentado na forma de uma lista de páginas correspondentes à pesquisa realizada, com clara distinção entre resultados patrocinados e não patrocinados. Em grande parte das situações isso continua a verificar-se, ainda que já se notem alterações com a integração de respostas de IA nas páginas de resultados.

No modelo tradicional, sem IA incorporada, o facto de as hiperligações patrocinadas surgirem em posição de destaque, aliado à prática de alguns motores de busca de priorizar serviços próprios nas respostas – como o Google Flights e o Google Hotels – mostra que a ordenação e até a própria exibição dos resultados não são neutras.

Com a integração de IA, acrescenta-se ainda o risco de o consumidor interpretar a resposta sintetizada como suficiente ou mais fiável, desviando a atenção das alternativas exibidas. Mesmo quando se mantêm elementos complementares — como a secção «outras pessoas pesquisaram», presente no Google, que pode ampliar o horizonte informativo —, permanece a dúvida: em que medida a forma de apresentar resultados, tanto na modalidade tradicional como com IA integrada, afeta a perceção do consumidor sobre quais opções são mais relevantes ou vantajosas?

Já no caso de pesquisas feitas diretamente em ferramentas de IA, o modo de apresentação do resultado é substancialmente diferente. A resposta surge de forma unificada, convincente e aparentemente imparcial, sem clareza sobre as fontes utilizadas nem sobre os critérios que levaram a ferramenta a «optar» por determinado produto ou serviço. O consumidor pode perguntar ao sistema quais foram as fontes utilizadas e assim aprofundar a pesquisa, mas essa informação, em regra, não é dada automaticamente.

O risco agrava-se porque, se é certo que o consumidor consegue identificar se uma hiperligação exibida por um motor de busca é patrocinada, nas respostas geradas por IA essa distinção não é sinalizada. Assim, embora até ao momento não haja evidências conhecidas de que estas ferramentas priorizem publicidade, a opacidade dos seus modelos impede que se afirme com segurança que conteúdos patrocinados não tenham um peso desproporcionado na elaboração da resposta. Essa possibilidade de reapresentação de informação patrocinada como se fosse imparcial dilui fronteiras relevantes e pode influenciar a decisão de consumo de forma indesejada. A questão exige atenção, já que a forma natural e assertiva como estas ferramentas comunicam tende a reforçar a perceção de fiabilidade e aumentar o impacto de eventuais enviesamentos.

Convém notar ainda que esta distinção entre pesquisa tradicional e pesquisa feita em ferramentas de IA generativa tende a tornar-se menos clara. Como mencionado, já existem motores de busca que incorporam modelos de IA nas próprias páginas de resultados, apresentando, antes ou ao lado da lista de hiperligações, uma resposta sintetizada de imediato.

Portanto, o consumidor que recorre ao método «tradicional» de pesquisa pode, na prática, estar também a interagir com uma IA generativa, nem sempre com a devida sinalização e geralmente sem opção de ocultar essa camada de resposta. Neste caso, somam-se duas camadas de opacidade: a falta de transparência sobre os critérios de exibição dos resultados e a dificuldade acrescida de compreender como a resposta automatizada foi construída, sem que se saiba qual é o peso efetivo que essa síntese exerce nas decisões de consumo.

Do ponto de vista legislativo, os riscos não são inteiramente novos. O Código da Publicidade exige que a natureza comercial de uma mensagem seja claramente identificada e não oculta, enquanto o Regime das Práticas Comerciais Desleais proíbe condutas enganosas que possam comprometer a autonomia do consumidor. A Lei de Defesa do Consumidor também é relevante, ao consagrar o direito à informação e o direito à educação para o consumo. O Regulamento da Inteligência Artificial, por sua vez, estabelece obrigações de transparência para sistemas de IA, incluindo os generativos, impondo que os utilizadores sejam informados, de forma compreensível, de que estão a interagir com uma IA.

Quanto aos motores de busca tradicionais, o Regulamento dos Serviços Digitais impõe regras de transparência quanto à identificação da publicidade e à explicação dos principais critérios de ordenação dos resultados. Quando esses motores passam a incorporar respostas geradas por IA, mantêm-se essas obrigações, mas acrescem também, em princípio, os deveres de transparência previstos no Regulamento da Inteligência Artificial.

Já as ferramentas de IA generativa autónomas não se enquadram diretamente na categoria de motores de busca, pelo que o Regulamento dos Serviços Digitais é, em princípio, inaplicável. Ainda assim, o Regime das Práticas Comerciais Desleais, o Código da Publicidade, a Lei de Defesa do Consumidor e o próprio Regulamento da Inteligência Artificial podem ser invocados, por exemplo, quando a apresentação da informação não seja suficientemente clara, quando se diluam fronteiras entre conteúdos comerciais e não comerciais ou quando a forma de resposta limite a autonomia do consumidor.

Ainda que algumas ferramentas de IA generativa incluam avisos genéricos — como a mensagem «O ChatGPT pode cometer erros. Considere verificar informações importantes.» —, tais disclaimers podem não ser suficientes quando a pesquisa envolve bens ou serviços de consumo. Nestes casos, o risco não se limita a erros factuais ou desatualização, mas abrange também a possibilidade de conteúdos patrocinados ou enviesados serem apresentados como se fossem informação imparcial. Assim, torna-se necessário refletir sobre mecanismos de aviso mais específicos, que alertem para riscos económicos concretos e ajudem o consumidor a identificar a natureza comercial de determinadas respostas.

Neste contexto, a educação para o consumo assume um papel essencial: é preciso reforçar a literacia digital, ajudando os consumidores a compreender que uma resposta automatizada não equivale a uma síntese neutra. A legislação aplicável já oferece uma base sólida, ao exigir transparência e proibir determinadas práticas, mas persiste o desafio de aplicá-las de forma eficaz a este novo cenário. Mecanismos de aviso adaptativos — que hoje já surgem em contextos de saúde, por exemplo — poderiam também alertar para riscos em matéria de consumo, contribuindo para que o consumidor continue capaz de tomar decisões livres e informadas mesmo perante sistemas opacos.

Leave a Reply

Your email address will not be published. Required fields are marked *