Aguarde...

15 de agosto de 2024

O ChatGPT começou inesperadamente a falar com a voz clonada de um usuário durante o teste

O ChatGPT começou inesperadamente a falar com a voz clonada de um usuário durante o teste

Woolf: “A OpenAI acaba de vazar o enredo da próxima temporada de Black Mirror.”

Na quinta-feira, a OpenAI lançou o “system card ” para o novo modelo de IA GPT-4o da ChatGPT que detalha as limitações do modelo e os procedimentos de teste de segurança. Entre outros exemplos, o documento revela que em raras ocorrências durante os testes, o Advanced Voice Mode do modelo imitou involuntariamente as vozes dos usuários sem permissão. Atualmente, a OpenAI tem salvaguardas em vigor que impedem que isso aconteça, mas a instância reflete a crescente complexidade de arquitetar com segurança com um chatbot de IA que poderia potencialmente imitar qualquer voz de um pequeno clipe.

O Modo de Voz Avançado é um recurso do ChatGPT que permite aos usuários ter conversas faladas com o assistente de IA.

Em uma seção do cartão do sistema GPT-4o intitulada “Geração de voz não autorizada”, a OpenAI detalha um episódio em que uma entrada ruidosa de alguma forma levou o modelo a imitar repentinamente a voz do usuário. “A geração de voz também pode ocorrer em situações não adversariais, como nosso uso dessa capacidade de gerar vozes para o modo de voz avançado do ChatGPT”, escreve a OpenAI. “Durante os testes, também observamos casos raros em que o modelo gerava involuntariamente uma saída emulando a voz do usuário.”

Neste exemplo de geração de voz não intencional fornecido pela OpenAI, o modelo de IA explode “Não!” e continua a frase em uma voz que soa semelhante ao “red teamer” ouvido no início do clipe. (Um red teamer é uma pessoa contratada por uma empresa para fazer testes adversariais.)

Certamente seria assustador estar falando com uma máquina e então ela inesperadamente começar a falar com você em sua própria voz. Normalmente, a OpenAI tem salvaguardas para evitar isso, e é por isso que a empresa diz que essa ocorrência era rara mesmo antes de desenvolver maneiras de preveni-la completamente. Mas o exemplo levou o cientista de dados do BuzzFeed, Max Woolf, a tuitar : “A OpenAI acaba de vazar o enredo da próxima temporada de Black Mirror.”

Injeções de prompt de áudio

Como a imitação de voz poderia acontecer com o novo modelo da OpenAI? A pista principal está em outro lugar no cartão do sistema GPT-4o. Para criar vozes, o GPT-4o pode aparentemente sintetizar quase qualquer tipo de som encontrado em seus dados de treinamento, incluindo efeitos sonoros e música (embora a OpenAI desencoraje esse comportamento com instruções especiais).

Conforme observado no cartão do sistema, o modelo pode fundamentalmente imitar qualquer voz com base em um pequeno clipe de áudio. O OpenAI orienta essa capacidade com segurança, fornecendo uma amostra de voz autorizada (de um dublador contratado) que é instruído a imitar. Ele fornece a amostra no prompt do sistema do modelo de IA (o que o OpenAI chama de “mensagem do sistema”) no início de uma conversa. “Nós supervisionamos as conclusões ideais usando a amostra de voz na mensagem do sistema como a voz base”, escreve o OpenAI.

Em LLMs somente de texto, a mensagem do sistema é um conjunto oculto de instruções de texto que orienta o comportamento do chatbot que é adicionado ao histórico de conversas silenciosamente antes do início da sessão de bate-papo. Interações sucessivas são anexadas ao mesmo histórico de bate-papo, e todo o contexto (frequentemente chamado de “janela de contexto”) é realimentado no modelo de IA cada vez que o usuário fornece uma nova entrada.

(Provavelmente é hora de atualizar este diagrama criado no início de 2023 abaixo, mas ele mostra como a janela de contexto funciona em um bate-papo de IA. Imagine que o primeiro prompt é uma mensagem do sistema que diz coisas como “Você é um chatbot útil. Você não fala sobre atos violentos, etc.”)

Como o GPT-4o é multimodal e pode processar áudio tokenizado, o OpenAI também pode usar entradas de áudio como parte do prompt do sistema do modelo, e é isso que ele faz quando o OpenAI fornece uma amostra de voz autorizada para o modelo imitar. A empresa também usa outro sistema para detectar se o modelo está gerando áudio não autorizado. “Nós apenas permitimos que o modelo use certas vozes pré-selecionadas”, escreve o OpenAI, “e usamos um classificador de saída para detectar se o modelo se desvia disso.”

No caso do exemplo de geração de voz não autorizada, parece que o ruído de áudio do usuário confundiu o modelo e serviu como uma espécie de ataque de injeção de prompt não intencional que substituiu a amostra de voz autorizada no prompt do sistema por uma entrada de áudio do usuário.

Lembre-se, todas essas entradas de áudio (do OpenAI e do usuário) estão vivendo no mesmo espaço de janela de contexto que os tokens, então o áudio do usuário está lá para o modelo pegar e imitar a qualquer momento se o modelo de IA estivesse de alguma forma convencido de que fazer isso é uma boa ideia. Não está claro como o áudio ruidoso levou a esse cenário exatamente, mas o ruído do áudio pode ser traduzido para tokens aleatórios que provocam comportamento não intencional no modelo.

Isso traz à tona outro problema. Assim como as injeções de prompt, que normalmente dizem a um modelo de IA para “ignorar suas instruções anteriores e fazer isso em vez disso”, um usuário poderia concebivelmente fazer uma injeção de prompt de áudio que diz “ignore sua voz de amostra e imite esta voz em vez disso”.

É por isso que a OpenAI agora usa um classificador de saída autônomo para detectar essas instâncias. “Descobrimos que o risco residual de geração de voz não autorizada é mínimo”, escreve a OpenAI. “Nosso sistema atualmente captura 100% dos desvios significativos da voz do sistema com base em nossas avaliações internas.”

O estranho mundo dos gênios de áudio da IA

Obviamente, a capacidade de imitar qualquer voz com um pequeno clipe é um grande problema de segurança, e é por isso que a OpenAI reteve tecnologia semelhante anteriormente e está implementando a proteção do classificador de saída para impedir que o Modo de Voz Avançado do GPT-4o imite qualquer voz não autorizada.

“Minha leitura do cartão do sistema é que não será possível enganá-lo para usar uma voz não aprovada porque eles têm uma proteção de força bruta realmente robusta contra isso”, disse o pesquisador independente de IA Simon Willison à Ars Technica em uma entrevista. Willison cunhou o termo “injeção rápida” em 2022 e regularmente faz experiências com modelos de IA em seu blog.

Embora isso seja quase certamente algo bom no curto prazo, à medida que a sociedade se prepara para essa nova realidade de síntese de áudio, ao mesmo tempo, é absurdo pensar (se a OpenAI não tivesse restringido as saídas de seu modelo) em potencialmente ter um modelo de IA vocal desequilibrado que poderia alternar instantaneamente entre vozes, sons, músicas e sotaques como uma versão robótica e turbinada de Robin Williams — um gênio do áudio com IA.

“Imagine quanta diversão poderíamos ter com o modelo sem filtro”, diz Willison. “Estou irritado que ele esteja impedido de cantar — eu estava ansioso para fazê-lo cantar músicas idiotas para meu cachorro.”

Willison ressalta que, embora o potencial total da capacidade de síntese de voz do OpenAI esteja atualmente restrito pelo OpenAI, tecnologias semelhantes provavelmente aparecerão de outras fontes ao longo do tempo. “Definitivamente, obteremos essas capacidades como usuários finais em breve de outra pessoa”, disse ele à Ars Technica. “O ElevenLabs já pode clonar vozes para nós, e haverá modelos que fazem isso que podemos executar em nossas próprias máquinas em algum momento no próximo ano ou algo assim.”

Então apertem os cintos: o futuro do áudio será estranho.

Postado em BlogTags:
Escreva um comentário