
O novo chatbot da Microsoft para o Bing apresentou um comportamento estranho, provando que a IA é mais falível do que as empresas de tecnologia deixam transparecer.
Na semana passada, Satya Nadella, CEO da Microsoft, estava alegremente dizendo ao mundo que o novo mecanismo de busca Bing com IA iria “ fazer o Google dançar ” ao desafiar seu domínio de longa data em buscas na web.
O novo Bing usa uma coisinha chamada ChatGPT — você já deve ter ouvido falar — que representa um salto significativo na capacidade dos computadores de lidar com a linguagem. Graças aos avanços no aprendizado de máquina, ele basicamente descobriu por si mesmo como responder a todos os tipos de perguntas, engolindo trilhões de linhas de texto, muitas delas extraídas da web.
O Google, de fato, dançou a música de Satya ao anunciar Bard, sua resposta ao ChatGPT, e prometendo usar a tecnologia em seus próprios resultados de busca. Baidu, maior mecanismo de busca da China, disse que está trabalhando em tecnologia semelhante.
Mas Nadella pode querer observar aonde o sofisticado trabalho de pés de sua empresa está levando.
Nas demonstrações que a Microsoft deu na semana passada, o Bing parecia capaz de usar o ChatGPT para oferecer respostas complexas e abrangentes às consultas. Ela criava um itinerário para uma viagem à Cidade do México, gerava resumos financeiros, oferecia recomendações de produtos que coletavam informações de várias análises e oferecia conselhos sobre se um móvel caberia em uma minivan comparando as dimensões publicadas online.
O WIRED teve algum tempo durante o lançamento para testar o Bing e, embora parecesse hábil em responder a muitos tipos de perguntas, era decididamente problemático e até mesmo inseguro quanto ao seu próprio nome. E como notou um especialista perspicaz, alguns dos resultados que a Microsoft exibiu foram menos impressionantes do que pareciam à primeira vista. O Bing parecia inventar algumas informações sobre o itinerário de viagem que gerou e deixou de fora alguns detalhes que ninguém provavelmente omitiria. O mecanismo de busca também confundiu os resultados financeiros da Gap ao confundir margem bruta com margem bruta não ajustada — um erro grave para quem confia no bot para realizar o que pode parecer a simples tarefa de resumir os números.
Mais problemas surgiram esta semana, pois o novo Bing foi disponibilizado para mais testadores beta. Eles parecem incluir discutir com um usuário sobre em que ano estamos e experimentar uma crise existencial quando pressionado a provar sua própria senciência. O valor de mercado do Google caiu impressionantes US$ 100 bilhões depois que alguém notou erros nas respostas geradas por Bard no vídeo de demonstração da empresa.
Por que esses titãs da tecnologia cometem tais erros? Tem a ver com a maneira estranha como o ChatGPT e modelos semelhantes de IA realmente funcionam – e o extraordinário hype do momento atual.
O que é confuso e enganoso sobre o ChatGPT e modelos semelhantes é que eles respondem a perguntas fazendo suposições altamente fundamentadas. O ChatGPT gera o que acha que deve seguir sua pergunta com base em representações estatísticas de caracteres, palavras e parágrafos. A startup por trás do chatbot, OpenAI, aprimorou esse mecanismo central para fornecer respostas mais satisfatórias ao fazer com que os humanos forneçam feedback positivo sempre que o modelo gera respostas que parecem corretas.
O ChatGPT pode ser impressionante e divertido, porque esse processo pode produzir a ilusão de compreensão, o que pode funcionar bem em alguns casos de uso. Mas o mesmo processo irá “alucinar” informações falsas, um problema que pode ser um dos desafios mais importantes da tecnologia no momento.
O intenso hype e expectativa girando em torno do ChatGPT e bots semelhantes aumentam o perigo. Quando startups bem financiadas, algumas das empresas mais valiosas do mundo e os líderes mais famosos em tecnologia dizem que os chatbots são a próxima grande novidade nas pesquisas, muitas pessoas consideram isso um evangelho – estimulando aqueles que começaram a conversa a dobrar com mais previsões de onisciência da IA. Não apenas os chatbots podem ser desviados pela correspondência de padrões sem verificação de fatos.