Aguarde...

8 de agosto de 2020

Os 6 sistemas profanos de IA que você não desenvolverá

Os 6 sistemas profanos de IA que você não desenvolverá

TLDR; não finja que Magic 8 Ball é uma ferramenta útil para adultos e não construa máquinas de ódio

A inteligência artificial pode ser a ferramenta mais poderosa que os humanos têm. Quando aplicada adequadamente a um problema adequado, a IA permite que os humanos façam coisas surpreendentes. Podemos diagnosticar o câncer rapidamente ou dar voz a quem não consegue falar, simplesmente aplicando o algoritmo correto da maneira correta.

Mas a IA não é uma panacéia ou cura para todos. De fato, quando aplicado incorretamente, é um óleo de cobra perigoso que deve ser evitado a todo custo. Para esse fim, apresento seis tipos de IA que acredito que os desenvolvedores éticos devem evitar.

Primeiro, porém, uma breve explicação. Não estou julgando a intenção do desenvolvedor ou debatendo o principal raciocínio por trás do desenvolvimento desses sistemas, mas reconhecendo seis áreas em que a IA não pode proporcionar um benefício aos seres humanos provavelmente nos prejudicará.

Não estou incluindo tecnologia militar, como armas autônomas ou sistemas de direcionamento movidos a IA, porque precisamos de debate sobre essas tecnologias. E também deixamos intencionalmente “tecnologias de faca” fora desta lista. São técnicos como o DeepFakes, que podem ser usados ​​para o bem e para o mal, como uma faca para cortar legumes ou esfaquear pessoas.

Em vez disso, concentrei-me nas tecnologias que distorcem o próprio problema que pretendem resolver. Começaremos com os frutos baixos: criminalidade e punição.

Criminalidade

A IA não pode determinar a probabilidade de um determinado indivíduo, grupo de pessoas ou população específica cometer um crime. Nem humanos nem máquinas são psíquicos.

O policiamento preditivo é racista . Ele usa dados históricos para prever onde o crime é mais provável de ocorrer com base em tendências passadas. Se a polícia visitar um bairro específico com mais frequência do que outros e prender pessoas naquele bairro regularmente, uma IA treinada com dados dessa área geográfica determinará que é mais provável que ocorra crime naquele bairro do que outros.

Coloque uma outra perspectiva: se você compra exclusivamente papel higiênico no Wal Mart e nunca comprou papel higiênico da Amazon, é mais provável que associe papel higiênico ao Wal Mart do que à Amazon. Isso não significa que há mais papel higiênico no Wal Mart.

A IA que tenta prever criminalidade é fundamentalmente falha porque a grande maioria dos crimes passa despercebida. Os desenvolvedores estão basicamente criando máquinas que validam o que os policiais já fizeram. Eles não prevêem o crime, apenas reforçam a falsa ideia de que o policiamento excessivo de bairros de baixa renda reduz o crime. Isso faz a polícia parecer bem.

Mas na verdade não indica quais indivíduos em uma sociedade provavelmente cometerão um crime. Na verdade, na melhor das hipóteses, apenas fica de olho naqueles que já foram capturados. Na pior das hipóteses, esses sistemas são os melhores amigos de um criminoso. Quanto mais forem usados, mais provável será o crime perpetuar em áreas onde a presença da polícia é tradicionalmente baixa. 

Punição

Os algoritmos não podem determinar a probabilidade de um ser humano cometer um crime novamente depois de ser condenado por um crime anterior. Veja acima, os médiuns não existem. O que uma máquina pode fazer é obter registros históricos de sentenças e chegar à solução matematicamente sensata de que as pessoas mais punidas tendem a ser as mais reincidentes e, portanto, indicam falsamente que os negros devem ter mais chances de cometer crimes do que os brancos.

É exatamente o que acontece quando os desenvolvedores usam os dados incorretos para um problema. Se você deve adicionar 2 + 2, não há utilidade para uma maçã em sua equação. Nesse caso, o que isso significa são dados históricos de pessoas que cometeram crimes após a liberação do sistema judicial não são relevantes para saber se um indivíduo específico irá ou não seguir o exemplo.

As pessoas não estão motivadas a cometer crimes porque estranhos que nunca conheceram foram motivadas a cometer crimes após serem libertadas da custódia. Essas informações, como a população em geral responde à libertação do encarceramento, são úteis para determinar se nosso sistema judiciário está realmente reabilitando pessoas ou não, mas não é possível determinar a probabilidade de um “homem negro de 32 anos, Boston, primeira ofensa” cometer um crime. crime pós-condenação. 

Nenhuma quantidade de dados pode realmente prever se um humano cometerá um crime. É importante entender isso porque você não pode prender, prender ou traumatizar uma pessoa que tenha sido injustamente presa, presa ou condenada com base em  evidências errôneas geradas a partir de um algoritmo .

Gênero

Aqui está uma divertida. Recentemente, uma empresa desenvolveu um algoritmo que poderia determinar o sexo de alguém a partir do nome, endereço de email ou identificador de mídia social . Claro, e eu tenho um algoritmo que faz seu cocô cheirar a Jolly Ranchers de melancia (nota: eu não. Isso é sarcasmo. Não me envie um e-mail.).

A IA não pode determinar o sexo de uma pessoa a partir de outra descrição que não seja explícita. Por quê? Você verá um tema se desenvolvendo aqui: porque os paranormais não existem.

Os humanos não podem olhar para outros humanos e determinar seu sexo. Podemos adivinhar, e geralmente estamos corretos, mas vamos fazer um experimento rápido:

Se você alinhou todos os humanos do planeta e olhou para seus rostos para determinar se eles eram “homens” ou “mulheres”, quantas você erraria? Você acha que uma IA é melhor na determinação do gênero humano nos casos marginais em que nem você, uma pessoa que sabe ler e tudo mais, consegue acertar? Você pode dizer a uma pessoa intersexuais pelo rosto? Você pode sempre dizer que sexo alguém foi designado ao nascer olhando para o rosto deles? E se forem negros ou asiáticos?

Vamos simplificar: mesmo que seu doutorado esteja em estudos de gênero e você tenha estudado IA com Ian Goodfellow, você não pode construir uma máquina que entenda rapidamente o gênero, porque os próprios humanos não. Você não pode dizer o sexo de todas as pessoas, o que significa que sua máquina irá errar. Não há domínios em que seres humanos com erros de gênero sejam benéficos, mas há inúmeros domínios em que isso causará danos diretos aos seres humanos que foram enganados.

Qualquer ferramenta que tente prever o gênero humano com base em dados estranhos não tem outra utilidade senão como uma arma contra as comunidades transgêneros, não binárias e intersexuais.

Sexualidade

Falando em sistemas de IA perigosos que não têm possível caso de uso positivo: Gaydar está entre as idéias mais ofensivas do mundo do aprendizado de máquina.

A inteligência artificial não pode prever a sexualidade de uma pessoa porque, você adivinhou: os médiuns não existem. Os humanos não podem dizer se outros humanos são gays ou heterossexuais, a menos que o assunto do escrutínio indique expressamente exatamente qual é sua sexualidade.

Apesar da insistência de vários membros das multidões sou heterossexual e homossexual, a sexualidade humana é muito mais complexa do que nascermos com cara de gay ou não, porque nossas mães nos deram hormônios diferentes ou se são adversos a encontros sexuais heterossexuais porque … seja o que for que as pessoas heterossexuais achem que gays gays hoje em dia.

No ano de 2020, alguns cientistas ainda estão debatendo se existem homens bissexuais . Como pansexual de fora, não posso deixar de me perguntar se eles debaterão minha existência em mais 20 ou 30 anos quando perceberem que “gay e heterossexual” como conceitos binários foram desatualizados no campo da humanidade. psicologia e sexualidade desde os anos 50. Mas eu discordo.

Você não pode construir uma máquina que preveja a sexualidade humana porque a sexualidade humana é uma construção social. Veja como você pode chegar à mesma conclusão por conta própria:

Imagine uma pessoa de 30 anos que nunca fez sexo ou foi romanticamente atraída por alguém. Agora imagine que eles fantasiam sobre sexo com mulheres. Um dia depois, eles fazem sexo com um homem. Agora eles fantasiam sobre homens. Um dia depois, eles fazem sexo com uma mulher. Agora eles fantasiam sobre os dois. Depois de um mês, eles não tiveram relações sexuais novamente e pararam de fantasiar. Eles nunca mais fazem sexo ou se sentem romanticamente inclinados a outra pessoa. Eles são gays, heterossexuais ou bissexuais? Assexual? Pansexual?

Isso não depende de você ou de qualquer robô a decidir. Pensar em sexo explica alguma parte da sua sexualidade? Ou você é “hetero até fazer coisas gays?” Quanto material gay alguém tem que fazer antes de ser gay? Se você parar de fazer coisas gays, poderá ser hetero de novo?

A própria idéia de que um especialista em ciência da computação escreverá um algoritmo que pode resolver isso para qualquer um é ridícula. E é perigoso.

Não existe um bem concebível que possa vir da Gaydar AI. Seu único uso é como uma ferramenta para discriminação.

Inteligência

A IA não pode determinar quão inteligente é uma pessoa. Vou virar o script aqui porque isso não tem nada a ver com ser psíquico. Quando a IA tenta prever a inteligência humana, está realizando prestidigitação. Está fazendo um truque de mágica e, como qualquer boa ilusão, não há substância real para isso.

Não podemos conhecer a inteligência de uma pessoa a menos que a testemos e, mesmo assim, não existe um método universalmente reconhecido para medir a inteligência humana pura . Os testes podem ser tendenciosos, os especialistas contestam quais são as melhores perguntas e ninguém sabe como lidar com humanos hiperinteligentes com transtornos mentais . Descobrir o quão inteligente é uma pessoa não pode ser resolvido por alguns algoritmos.

Então, o que esses sistemas de IA fazem? Eles buscam evidências de inteligência comparando os dados fornecidos sobre uma pessoa ao modelo de inteligência que os desenvolvedores apresentaram. Por exemplo, eles podem determinar que uma pessoa inteligente não usa palavrões com tanta frequência quanto uma pessoa não inteligente. Nesse caso, Dane Cook seria considerado mais inteligente que George Carlin.

Essa é uma maneira cômica de encarar, mas a verdade é que não há um caso de uso positivo para um robô que declare arbitrariamente um ser humano mais inteligente que outro. Mas existem muitas maneiras pelas quais esses sistemas podem ser usados ​​para discriminar.

Potencial

Ah sim, potencial humano. Aqui, quero me concentrar nos algoritmos de contratação, mas isso se aplica a qualquer sistema de IA projetado para determinar quais seres humanos, fora de um pool, têm mais probabilidade de ter sucesso em uma tarefa, trabalho, dever ou posição do que outros.

A maioria das grandes empresas, de uma forma ou de outra, usa a IA no processo de contratação. Esses sistemas são quase sempre tendenciosos , discriminatórios e antiéticos. Nos raros casos em que não são, é onde eles buscam uma qualificação específica e expressa.

Se você projetar uma IA para rastrear milhares de solicitações de emprego para “aqueles que atendem ao requisito mínimo de um diploma de faculdade em ciência da computação” sem outros parâmetros … bem, você poderia ter feito isso mais rápido e mais barato com um sistema não-AI… mas Eu acho que isso não seria discriminatório.

Caso contrário, não há mérito em desenvolver sistemas de contratação de IA. Todos os dados nos quais eles são treinados são tendenciosos ou inúteis . Se você usar dados com base em candidatos bem-sucedidos anteriores ou em todo o setor, estará entrincheirando o status quo e intencionalmente evitando a diversidade.

Os piores sistemas, no entanto, são os que supostamente medem a “inteligência emocional” de um candidato ou o quão bom ele será. Os sistemas de inteligência artificial que analisam aplicativos e currículos para palavras-chave “positivas” e palavras-chave “negativas”, bem como sistemas de vídeo que usam “reconhecimento emocional” para determinar os melhores candidatos, são inerentemente tendenciosos e quase todos são racistas , sexistas, etistas, e capaz.

A IA não pode determinar o melhor candidato humano para um emprego, porque as pessoas não são conceitos estáticos. Você não pode enviar um humano ou uma máquina para a loja para comprar um ajuste de RH perfeito. O que esses sistemas fazem é lembrar a todos que, tradicionalmente, homens brancos heterossexuais, saudáveis ​​e com menos de 55 anos é o que a maioria das empresas nos EUA e na Europa contrata, por isso é considerado uma aposta segura continuar fazendo isso.

E aí está, seis áreas incrivelmente populares de desenvolvimento de IA – eu estimaria que existem centenas de startups trabalhando apenas em policiamento preditivo e algoritmos de contratação – que devem ser colocadas na lista de não desenvolvedores de qualquer desenvolvedor ético .

Não porque eles poderiam ser usados ​​para o mal, mas porque eles não podem ser usados ​​para o bem. Cada um desses seis paradigmas da IA ​​é unido por subterfúgios. Eles pretendem resolver um problema insolúvel com inteligência artificial e, em seguida, fornecem uma solução que nada mais é do que alquimia.

Além disso, em todas as seis categorias, o fator vinculativo é que elas são medidas por uma porcentagem arbitrária que, de certa forma, indica quão “próximas” estão do “nível humano”. Mas “nível humano” em cada um desses seis domínios significa “nosso melhor palpite”.

Nosso melhor palpite nunca é bom o suficiente quando o “problema” que estamos resolvendo é se um humano específico deve ser empregado, livre ou vivo. É inacreditável que alguém desenvolva um algoritmo que serve apenas para ignorar a responsabilidade humana por uma decisão que um robô é incapaz de tomar de maneira ética.

Postado em Blog
Escreva um comentário