Aguarde...

1 de abril de 2023

Os chatbots do Google e da Microsoft já estão citando um ao outro em um show de desinformação

Os chatbots do Google e da Microsoft já estão citando um ao outro em um show de desinformação

O Bing, da Microsoft, disse que o Bard, do Google, foi fechado depois de interpretar mal uma história citando um tuíte originado de uma piada. Não é um bom sinal para o futuro da desinformação online.

Se você não acredita que o lançamento apressado de chatbots de IA pela Big Tech tem uma chance extremamente forte de degradar o ecossistema de informações da web, considere o seguinte:

Agora,* se você perguntar ao Bing chatbot da Microsoft se o chatbot Bard do Google foi desligado, ele diz que sim, citando como evidência um artigo de notícias que discute um tweet no qual um usuário perguntou a Bard quando ele seria desligado e Bard disse que já tinha, citando um comentário do Hacker News no qual alguém fazia piada sobre isso acontecer, e outra pessoa usava o ChatGPT para escrever uma cobertura de notícias falsas sobre o evento.

(*Digo “agora” porque no tempo entre começar e terminar de escrever esta história, o Bing mudou sua resposta e agora responde corretamente que Bard ainda está vivo. Você pode interpretar isso como uma demonstração de que esses sistemas são, pelo menos, corrigíveis ou que eles são tão infinitamente maleáveis ​​que é impossível relatar consistentemente seus erros.)

O chatbot Bing da Microsoft acha que o chatbot Bard do Google foi desligado e cita incorretamente uma notícia para fazê-lo.Imagem: The Verge

Mas se ler tudo isso fez sua cabeça doer, deveria – e de várias maneiras.

O que temos aqui é um sinal precoce de que estamos tropeçando em um jogo massivo de desinformação por telefone com IA, no qual os chatbots são incapazes de avaliar fontes de notícias confiáveis, interpretam mal histórias sobre si mesmos e relatam mal suas próprias capacidades. Nesse caso, tudo começou por causa de um único comentário de piada no Hacker News. Imagine o que você poderia fazer se quisesse que esses sistemas falhassem.

É uma situação risível, mas com consequências potencialmente graves. Dada a incapacidade dos modelos de linguagem de IA de separar fatos de ficção de maneira confiável, seu lançamento online ameaça liberar uma trilha podre de desinformação e desconfiança na web, um miasma impossível de mapear completamente ou desmascarar com autoridade. Tudo porque Microsoft, Google e OpenAI decidiram que a participação no mercado é mais importante do que a segurança.

Essas empresas podem colocar quantos avisos quiserem em seus chatbots – nos dizendo que são “experimentos”, “colaborações” e definitivamente não são mecanismos de busca – mas é uma defesa frágil. Sabemos como as pessoas usam esses sistemas e já vimos como eles espalham desinformação, seja inventando novas histórias que nunca foram escritas ou contando às pessoas sobre livros que não existem. E agora, eles também estão citando os erros uns dos outros.

Postado em BlogTags:
Escreva um comentário