Aguarde...

30 de janeiro de 2024

Estupidez artificial: o GPT pode lidar com a verdade?

Estupidez artificial: o GPT pode lidar com a verdade?

Como uma aplicação de tecnologia jurídica, a IA generativa carece de alguns dos atributos que tendem a ser úteis no exercício da advocacia – nomeadamente, a capacidade de pensar, raciocinar ou exercer julgamento.

“Não que você tenha mentido para mim, mas não acredito mais que você
me abalou.” —Friedrich Nietzsche, Além do Bem e do Mal

Imagine que você é sócio contencioso de um escritório de advocacia. Você tem um novo associado que parece superar todas as expectativas: trabalha 24 horas por dia, sete dias por semana, 365 dias por ano; lê e absorve milhões de páginas de material em uma fração de segundo.

Qual é o problema? O associado está sujeito a alucinações aleatórias e, ocasionalmente, inventa coisas que são extremamente convincentes – mas totalmente falsas. Resumindo, isso é a IA trabalhando para você – pelo menos como existe atualmente. Mais especificamente, transformadores generativos pré-treinados, ou GPT, como você provavelmente já ouviu falar.

No entanto, as mensagens legais do mercado tecnológico são muito diferentes. Incrível . Inovador . Mudança de jogo . Revolucionário . Embora algum cepticismo saudável tenha começado a infiltrar-se no meio cultural mais amplo em torno da revolução da IA, quando se trata de comercializar a mais recente geração de ferramentas de inteligência artificial que estão a chegar rapidamente às caixas de ferramentas dos advogados, a hipérbole falha – para dizer o mínimo. Se você ouvir pelo menos uma fração da agitação descarada do mercado em torno das novas ferramentas legais de IA, é o maior benefício para a profissão jurídica desde a copiadora. 

Mas é tão simples? A glória e a prosperidade estão a apenas algumas teclas bem posicionadas de distância? Consideramos cuidadosamente os riscos com prudência e deliberação, fazendo a devida diligência em todas as armadilhas possíveis? Digamos apenas que o júri ainda não decidiu sobre isso. 

Deixando de lado todas as demonstrações bacanas e a torcida incessante, se essa tecnologia tiver o impacto previsto para ela no setor jurídico, há uma questão que precisa ser compreendida e abordada: a IA generativa pode lidar com a verdade? À medida que a tecnologia de IA se torna mais difundida, responder a essa pergunta é algo que mais do que apenas alguns bons advogados deveriam analisar com atenção. 

Por mais que os hiperventiladores fornecedores de hype possam querer evitar ou encobrir o assunto, não existe um algoritmo para determinar se algo é verdadeiro ou falso, preciso, enganoso ou completamente inventado. Na verdade, declarações altamente convincentes e completamente inventadas são ocorrências regulares. Na verdade, toda uma indústria surgiu tentando verificar a veracidade do conteúdo gerado pela GPT.

No entanto, descobrir quais são os factos – ou seja, procurar a verdade – é fundamental para o nosso sistema jurídico. Referimo-nos aos júris (e juízes em julgamentos de bancada) como julgadores ou apuradores de fatos . Juntamente com a aplicação da lei aos factos , determinar o que realmente aconteceu (ou seja, a verdade, mais uma vez) é a razão de ser do processo legal.

Independentemente da sua posição sobre onde a IA se enquadra atualmente em seu espectro evolutivo, há algumas verdades irrefutáveis ​​que você deve ter em mente ao ser confrontado com a máquina de marketing que tenta lhe vender a utopia da IA ​​que está logo ali na esquina. . . se você apenas pagar uma taxa de assinatura:

  1. A tecnologia subjacente não é nova . A tecnologia conhecida coletivamente como GPT já existe há muito tempo. Aprendizado de máquina e redes neurais desde a década de 1950, IA generativa desde a década de 1960, processamento de linguagem natural desde a década de 1970 e aprendizagem profunda desde a década de 1980. Os avanços no poder da computação e a vasta quantidade de conteúdo disponível em toda a Internet (lixo, alguém?) permitiram o que está sendo retratado como uma revolução no pensamento computacional .
  2. GPT escolhe uma palavra para seguir a anterior com base em probabilidades . Ele reúne frases com base na análise de grandes quantidades de texto (que foram convertidas em números) e depois calcula a probabilidade de uma determinada palavra seguir outra (com um elemento aleatório incorporado para evitar a replicação completa). Foi descrito como preenchimento automático com esteróides. Essa é uma boa analogia.
  3. A GPT não pensa, compreende, entende, raciocina ou tem qualquer julgamento . Ele vê suas perguntas e respostas como padrões numéricos desprovidos de significado ou contexto. Nem a verdade, a falsidade, a confiabilidade ou a exatidão entram nisso. Resumindo, você poderia dizer que não é inteligente.

Quando perguntei ao ChatGPT se ele entende a verdade, recebi a seguinte resposta:

Não possuo crenças pessoais ou consciência para compreender a verdade ou a falsidade da mesma forma que os humanos. Minhas respostas baseiam-se em padrões dos dados nos quais fui treinado, mas não tenho a capacidade de discernir a verdade ou a falsidade num sentido subjetivo ou filosófico.

Numa altura em que a verdade e os factos são cada vez mais vistos por alguns como bens raros, o nosso sistema jurídico precisa de manter a confiança e a fé na sua integridade. É imperativo, portanto, que os advogados que utilizam esta nova geração de ferramentas de IA exerçam o mais alto nível de cuidado e diligência na sua aplicação e trabalhem arduamente para compreender os pontos fortes da tecnologia, bem como as suas limitações.

No final das contas, o GPT é apenas uma ferramenta – nada mais, nada menos. Pode ser bem ou mal usado. Existem alguns usos potencialmente muito úteis desta tecnologia, mas ainda existem algumas questões importantes a serem resolvidas. A probabilidade de que ele substitua os advogados humanos em breve é ​​quase a mesma que a probabilidade de seu smartphone e o controle remoto de sua garagem conspirarem para roubar seu carro elétrico autônomo.

Postado em BlogTags:
Escreva um comentário