Um estudo da Associação para a Defesa do Consumidor (Deco) revelou que assistentes virtuais, como o ChatGPT, podem fornecer informações incorretas ou incompletas sobre direitos dos consumidores. A análise envolveu quatro sistemas de IA amplamente utilizados – ChatGPT, Copilot, Gemini e Deepseek – com o objetivo de verificar se as respostas sobre questões como garantias, resolução de problemas e prescrição de serviços públicos estavam corretas e de acordo com a legislação atual.
A Deco avaliou as respostas de acordo com critérios de completude, veracidade e identificação de fontes, concluindo que, numa escala de um a cinco, as respostas dos assistentes obtiveram uma média de dois. A associação destacou que, em várias respostas, as fontes não eram identificadas, e a legislação relevante não era reproduzida corretamente. Um exemplo citado foi a informação incorreta dada pelo ChatGPT sobre o prazo de garantia dos bens móveis, que foi de cinco anos, quando a legislação prevê 10 anos.
Este estudo gerou preocupações sobre a fiabilidade das informações fornecidas por assistentes de IA, com a Deco recomendando mais transparência por parte das empresas desenvolvedoras de IA e alertando os consumidores para os riscos da desinformação. A associação propôs um “roteiro” para a criação de IA mais fiável e confiável, com a necessidade de identificar fontes e permitir que os consumidores possam verificar as informações.
Além disso, a Deco aconselha os consumidores a não se limitarem a uma única resposta e a fazerem perguntas adicionais, alertando que a possibilidade de correção depende da identificação de fontes.
A associação havia solicitado uma reunião com a ministra da Juventude e Modernização, Margarida Balseiro Lopes, responsável pela área de IA, mas após a queda do Governo, decidiu publicar o roteiro de IA no seu site.
O conteúdo Estudo da Deco chama a atenção para erros de sistemas de IA sobre direitos do consumidor aparece primeiro em A Verdade.