Aguarde...

15 de abril de 2023

Em meio a controvérsias, OpenAI insiste que segurança é missão crítica

Em meio a controvérsias, OpenAI insiste que segurança é missão crítica

Como a OpenAI planeja domar a fera selvagem da IA.

A OpenAI abordou questões de segurança após uma recente reação ética e regulatória.

a declaração publicado na quinta-feira, foi um híbrido de refutação e desculpas que visava simultaneamente garantir ao público que seus produtos são seguros e admitir que há espaço para melhorias. A promessa de segurança da OpenAI parece uma resposta rápida a várias controvérsias que surgiram. No espaço de uma semana, especialistas em IA e líderes do setor, incluindo Steve Wozniak e Elon Musk, publicaram uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de modelos como o GPT-4, o ChatGPT foi totalmente banido na Itália e uma reclamação foi arquivado na Federal Trade Commission por apresentar riscos perigosos de desinformação, especialmente para crianças. Ah, sim, também havia aquele bug que expunha as mensagens de bate-papo e as informações pessoais dos usuários.

A OpenAI afirmou que funciona “para garantir que a segurança seja incorporada ao nosso sistema em todos os níveis”. A OpenAI passou mais de seis meses em “testes rigorosos” antes de lançar o GPT-4 e disse que está procurando opções de verificação para impor seu requisito de 18 anos (ou 13 com aprovação dos pais). A empresa enfatizou que não vende dados pessoais e os usa apenas para melhorar seus modelos de IA. Também afirmou sua disposição de colaborar com os formuladores de políticas e suas colaborações contínuas com as partes interessadas em IA “para criar um ecossistema de IA seguro”.

No meio do compromisso de segurança, a OpenAI reconheceu que o desenvolvimento de um LLM seguro depende de informações do mundo real. Ele argumenta que aprender com a opinião do público tornará os modelos mais seguros e permitirá que o OpenAI monitore o uso indevido. “O uso no mundo real também nos levou a desenvolver políticas cada vez mais diferenciadas contra comportamentos que representam um risco genuíno para as pessoas, ao mesmo tempo em que permitem muitos usos benéficos de nossa tecnologia”.

A OpenAI prometeu “detalhes sobre [sua] abordagem à segurança”, mas, além de sua garantia de explorar a verificação de idade, a maior parte do anúncio parecia um lugar-comum. Não há muitos detalhes sobre como planeja mitigar riscos, aplicar suas políticas ou trabalhar com reguladores.

Postado em BlogTags:
Escreva um comentário