Aguarde...

24 de fevereiro de 2023

O que os erros de chatbot revelam sobre o futuro da IA

O que os erros de chatbot revelam sobre o futuro da IA

O novo chatbot da Microsoft para o Bing apresentou um comportamento estranho, provando que a IA é mais falível do que as empresas de tecnologia deixam transparecer.

Na semana passada, Satya Nadella, CEO da Microsoft,  estava alegremente dizendo ao mundo que o novo mecanismo de busca Bing com IA iria “ fazer o Google dançar ” ao desafiar seu domínio de longa data em buscas na web. 

O novo Bing usa uma coisinha chamada  ChatGPT — você já deve ter ouvido falar — que representa um salto significativo na capacidade dos computadores de lidar com a linguagem. Graças aos avanços no aprendizado de máquina, ele basicamente descobriu por si mesmo como responder a todos os tipos de perguntas, engolindo trilhões de linhas de texto, muitas delas extraídas da web.

O Google, de fato, dançou a música de Satya ao  anunciar Bard, sua resposta ao ChatGPT, e prometendo usar a tecnologia em seus próprios resultados de busca. Baidu, maior mecanismo de busca da China,  disse que está trabalhando em tecnologia semelhante.

Mas Nadella pode querer observar aonde o sofisticado trabalho de pés de sua empresa está levando.

Nas  demonstrações que a Microsoft deu na semana passada, o Bing parecia capaz de usar o ChatGPT para oferecer respostas complexas e abrangentes às consultas. Ela criava um itinerário para uma viagem à Cidade do México, gerava resumos financeiros, oferecia recomendações de produtos que coletavam informações de várias análises e oferecia conselhos sobre se um móvel caberia em uma minivan comparando as dimensões publicadas online. 

O WIRED teve algum tempo durante o lançamento para testar o Bing e, embora parecesse hábil em responder a muitos tipos de perguntas, era decididamente problemático e até mesmo inseguro quanto ao seu próprio nome. E como notou um especialista perspicaz, alguns dos resultados que a Microsoft exibiu foram menos impressionantes do que pareciam à primeira vista. O Bing parecia inventar algumas informações sobre o itinerário de viagem que gerou e deixou de fora alguns detalhes que ninguém provavelmente omitiria. O mecanismo de busca também confundiu os resultados financeiros da Gap ao confundir margem bruta com margem bruta não ajustada — um erro grave para quem confia no bot para realizar o que pode parecer a simples tarefa de resumir os números. 

Mais problemas surgiram esta semana, pois o novo Bing foi disponibilizado para mais testadores beta. Eles parecem incluir  discutir com um usuário sobre em que ano estamos e experimentar uma crise existencial quando pressionado a provar sua própria senciência. O valor de mercado do Google  caiu impressionantes US$ 100 bilhões depois que alguém notou erros nas respostas geradas por Bard no vídeo de demonstração da empresa.

Por que esses titãs da tecnologia cometem tais erros? Tem a ver com a maneira estranha como o ChatGPT e modelos semelhantes de IA realmente funcionam – e o extraordinário hype do momento atual.

O que é confuso e enganoso sobre o ChatGPT e modelos semelhantes é que eles respondem a perguntas fazendo suposições altamente fundamentadas. O ChatGPT gera o que acha que deve seguir sua pergunta com base em representações estatísticas de caracteres, palavras e parágrafos. A startup por trás do chatbot, OpenAI, aprimorou esse mecanismo central para fornecer respostas mais satisfatórias ao fazer com que os humanos forneçam feedback positivo sempre que o modelo gera respostas que parecem corretas.

O ChatGPT pode ser impressionante e divertido, porque esse processo pode produzir a ilusão de compreensão, o que pode funcionar bem em alguns casos de uso. Mas o mesmo processo irá “alucinar” informações falsas, um problema que  pode ser um dos desafios mais importantes da tecnologia no momento. 

O intenso hype e expectativa girando em torno do ChatGPT e bots semelhantes aumentam o perigo. Quando startups bem financiadas, algumas das empresas mais valiosas do mundo e os líderes mais famosos em tecnologia dizem que os chatbots são a próxima grande novidade nas pesquisas, muitas pessoas consideram isso um evangelho – estimulando aqueles que começaram a conversa a dobrar com mais previsões de onisciência da IA. Não apenas os chatbots podem ser desviados pela correspondência de padrões sem verificação de fatos.

Postado em Blog
Escreva um comentário