Artigos

11.06.2025

Erro em resultado de busca no Gemini gera condenação à Google

Ferramentas de inteligência artificial (IA) passaram a figurar como ferramentas primarias na mediação de informações e busca, assim como o buscador Google. Frente a isso, a inédita decisão judicial proferida pela 5ª Vara Cível de Niterói (RJ), condenou o Google a indenizar um empresário por erro de sua IA Gemini. O caso envolve o empresário Marcelo Tavares, conhecido por ser o fundador da Brasil Game Show (BGS), que foi indevidamente associado à propriedade de uma casa de apostas online devido a uma falha no sistema de busca do Google, alimentado pela inteligência artificial Gemini.

O erro cometido pela IA do Google não é um caso isolado, mas reflete um problema real em automação dos mecanismos de busca. A IA, que deveria apenas organizar informações, fez uma associação incorreta entre uma entrevista de Tavares e a 7Games, uma plataforma de apostas. Essa associação causou ao empresário danos e inclusive ameaças de morte, bem como acusações de fraude.

Embora se saiba que o Google aponta que apenas organiza conteúdos disponíveis na internet, bem como alerta sobre a possibilidade de erros no conteúdo que apresenta, como destacado na sentença, a empresa não pode se esquivar de sua responsabilidade quando sua plataforma, alimentada por IA, gera ou distorce informações de maneira prejudicial.

A IA, ao processar dados e gerar resultados, não é neutra; e embora forneça outputs com base em probabilidades, o provedor de aplicação (Gemini) devem garantir que seu funcionamento esteja alinhado ao ordenamento vigente, bem como que não interfira nos direitos inerentes aos usuários e terceiros vinculados.

Nesse momento discute-se a regulamentação do desenvolvimento e uso de IA em território brasileiro, o que se dá pelo Projeto de Lei nº 2.338, de 2023, que tramita na Câmara de Deputados após ser aprovado no Senado Federal.

É notório que o desenvolvimento do PL se dá especialmente sobre a preocupada ótica de responsabilização e preservação de direitos fundamentais, contudo, a decisão judicial em comente reflete que o erro da IA não deve ser minimizado sob a alegação de que é "apenas um algoritmo", e que para tanto há dispositivos que garantem o dever de reparação.

Há, de fato, uma verdadeira lacuna na forma como as empresas tratam esses erros, que muitas vezes ficam invisíveis para o público, impactando negativamente os envolvidos, sem que haja um acompanhamento claro do processo de correção. Contudo, a referida decisão mostra que a atual legislação, ao menos nesse caso, é eficaz para reparar e indenizar o prejuízo sofrido.

Enquanto isso, o PL da Inteligência Artificial, propõe criar um Marco Legal da Inteligência Artificial, e sua aprovação seria um passo importante, mas também preocupante para estabelecer parâmetros sobre a responsabilidade das plataformas de tecnologia.

Refere-se como preocupante, pois há o entendimento de que o PL tal como proposto pode obstar ou até mesmo inviabilizar o desenvolvimento/uso de soluções pautas em IA. Ou seja, há o risco de travar o desenvolvimento tecnológico o que fundamenta a acertada preocupação para essa matriz econômica.

O caso do Google é um reflexo de um cenário mais amplo, onde a tecnologia se desenvolve rapidamente, mas a legislação e as políticas públicas ainda não acompanharam esse ritmo.

A decisão judicial deve ser vista como um marco, não apenas para a proteção do indivíduo contra erros de IA, mas também como meio para estabelecer formas de preservação e reparação de direitos, o que certamente deve incentivar maior responsabilidade das plataformas digitais.

Gustavo Tonet Fagundes

Advogado ZNA