Aguarde...

25 de fevereiro de 2024

5 coisas que você não deve compartilhar com AI Chatbots

5 coisas que você não deve compartilhar com AI Chatbots

As conversas com chatbots podem parecer íntimas, mas na verdade você está compartilhando cada palavra com uma empresa privada.

A popularidade dos chatbots de inteligência artificial aumentou. Embora as suas capacidades sejam impressionantes, é importante reconhecer que os chatbots não são perfeitos. Existem riscos inerentes associados à utilização de chatbots de IA, tais como preocupações com a privacidade e potenciais ataques cibernéticos. É crucial ter cautela ao interagir com chatbots.

Vamos explorar os riscos potenciais do compartilhamento de informações com chatbots de IA e ver quais tipos de informações não devem ser divulgadas a eles.

Os riscos envolvidos no uso de chatbots de IA

5 coisas que você não deve compartilhar com AI Chatbots

Os riscos e vulnerabilidades de privacidade associados aos chatbots de IA apresentam preocupações de segurança significativas para os usuários. Você pode ficar surpreso, mas seus companheiros de bate-papo amigáveis, como ChatGPT, Bard, Bing AI e outros, podem expor inadvertidamente suas informações pessoais online. Esses chatbots contam com modelos de linguagem de IA, que obtêm insights de seus dados.

Por exemplo, a versão atual do chatbot do Google, Bard, afirma explicitamente em sua página de perguntas frequentes que coleta e utiliza dados de conversas para treinar seu modelo. Da mesma forma, o ChatGPT também apresenta problemas de privacidade, pois pode reter registros de bate-papo para melhoria do modelo. Mas oferece uma opção de exclusão.

Como os chatbots de IA armazenam dados em servidores, eles se tornam vulneráveis ​​a tentativas de hacking. Esses servidores contêm uma grande quantidade de informações que os cibercriminosos podem explorar de diversas maneiras. Eles podem se infiltrar nos servidores, roubar os dados e vendê-los em mercados da dark web. Além disso, os hackers podem aproveitar esses dados para quebrar senhas e obter acesso não autorizado aos seus dispositivos.

Além disso, os dados gerados a partir das suas interações com chatbots de IA não se restringem apenas às respetivas empresas. Embora afirmem que os dados não são vendidos para fins publicitários ou de marketing, são partilhados com determinados terceiros para requisitos de manutenção do sistema.

A OpenAI, a organização por trás do ChatGPT, reconhece que compartilha dados com “um grupo seleto de provedores de serviços confiáveis” e que algum “pessoal autorizado da OpenAI” pode ter acesso aos dados. Estas práticas levantam ainda mais preocupações de segurança em torno das interações do chatbot com IA, uma vez que os críticos argumentam que as preocupações com a segurança generativa da IA ​​podem piorar.

Portanto, proteger as informações pessoais dos chatbots de IA é crucial para manter a sua privacidade.

O que não compartilhar com AI Chatbots?

Para garantir sua privacidade e segurança, é essencial seguir estas cinco práticas recomendadas ao interagir com chatbots de IA.

1. Detalhes Financeiros

Os cibercriminosos podem usar chatbots de IA como o ChatGPT para hackear sua conta bancária? Com o uso generalizado de chatbots de IA, muitos usuários recorreram a esses modelos de linguagem para aconselhamento financeiro e gerenciamento de finanças pessoais. Embora possam melhorar a literacia financeira, é crucial conhecer os perigos potenciais da partilha de detalhes financeiros com chatbots de IA.

Ao usar chatbots como consultores financeiros, você corre o risco de expor suas informações financeiras a possíveis cibercriminosos que poderiam explorá-las para drenar suas contas. Apesar das empresas alegarem anonimizar os dados das conversas, terceiros e alguns funcionários ainda podem ter acesso a eles. Isto levanta preocupações sobre a criação de perfis, onde os seus dados financeiros podem ser usados ​​para fins maliciosos, como campanhas de ransomware ou vendidos a agências de marketing.

Para proteger suas informações financeiras de chatbots de IA, você deve estar atento ao que compartilha com esses modelos generativos de IA. É aconselhável limitar suas interações à obtenção de informações gerais e a fazer perguntas amplas. Se você precisar de aconselhamento financeiro personalizado, pode haver opções melhores do que depender apenas de bots de IA. Eles podem fornecer informações imprecisas ou enganosas, colocando potencialmente em risco o seu suado dinheiro. Em vez disso, considere procurar aconselhamento de um consultor financeiro licenciado que possa fornecer orientação confiável e personalizada.

2. Seus pensamentos pessoais e íntimos

5 coisas que você não deve compartilhar com AI Chatbots

Muitos usuários estão recorrendo aos chatbots de IA em busca de terapia, sem saber das possíveis consequências para o seu bem-estar mental. Compreender os perigos de divulgar informações pessoais e íntimas a estes chatbots é essencial.

Em primeiro lugar, os chatbots carecem de conhecimento do mundo real e só podem oferecer respostas genéricas a questões relacionadas com a saúde mental. Isto significa que os medicamentos ou tratamentos sugeridos podem não ser apropriados para as suas necessidades específicas e podem prejudicar a sua saúde.

Além disso, compartilhar pensamentos pessoais com chatbots de IA levanta questões significativas de privacidade. Sua privacidade pode ser comprometida, pois seus segredos e pensamentos íntimos podem vazar online. Indivíduos maliciosos podem explorar essas informações para espioná-lo ou vender seus dados na dark web. Portanto, salvaguardar a privacidade dos pensamentos pessoais ao interagir com chatbots de IA é de extrema importância.

É crucial abordar os chatbots de IA como ferramentas de informação geral e apoio, em vez de um substituto da terapia profissional. Se você precisar de aconselhamento ou tratamento de saúde mental, é sempre aconselhável consultar um profissional de saúde mental qualificado. Eles podem fornecer orientação personalizada e confiável, priorizando sua privacidade e bem-estar.

3. Informações confidenciais do seu local de trabalho

5 coisas que você não deve compartilhar com AI Chatbots

Outro erro que os usuários devem evitar ao interagir com chatbots de IA é o compartilhamento de informações confidenciais relacionadas ao trabalho. Até mesmo gigantes da tecnologia proeminentes como Apple, Samsung, JPMorgan e Google, o criador do Bard, restringiram seus funcionários de utilizar chatbots de IA no local de trabalho.

Um relatório da Bloomberg destacou um caso em que funcionários da Samsung usaram o ChatGPT para fins de codificação e carregaram inadvertidamente código confidencial na plataforma generativa de IA. Este incidente resultou na divulgação não autorizada de informações confidenciais sobre a Samsung, levando a empresa a proibir o uso de chatbots de IA. Como um desenvolvedor que busca assistência de IA para resolver problemas de codificação, este é o motivo pelo qual você não deve confiar informações confidenciais em chatbots de IA como o ChatGPT. É essencial ter cautela ao compartilhar códigos confidenciais ou detalhes relacionados ao trabalho.

Da mesma forma, muitos funcionários dependem de chatbots de IA para resumir atas de reuniões ou automatizar tarefas repetitivas, representando um risco de exposição involuntária de dados confidenciais. Assim, manter a privacidade das informações confidenciais de trabalho e evitar compartilhá-las com chatbots de IA é de extrema importância.

Os usuários podem salvaguardar suas informações confidenciais e proteger suas organizações contra vazamentos inadvertidos ou violações de dados, estando atentos aos riscos associados ao compartilhamento de dados relacionados ao trabalho.

4. Senhas

5 coisas que você não deve compartilhar com AI Chatbots
 

É crucial enfatizar que compartilhar suas senhas online, mesmo com modelos de linguagem, é absolutamente proibido. Esses modelos armazenam seus dados em servidores públicos, e divulgar suas senhas a eles coloca em risco sua privacidade. Em uma violação de servidor, os hackers podem acessar e explorar suas senhas para causar danos financeiros.

Uma violação significativa de dados envolvendo ChatGPT ocorreu em maio de 2022, levantando sérias preocupações sobre a segurança das plataformas de chatbot. Além disso, o ChatGPT foi banido na Itália devido ao Regulamento Geral de Proteção de Dados (GDPR) da União Europeia. Os reguladores italianos consideraram o chatbot AI não compatível com as leis de privacidade, destacando os riscos de violações de dados na plataforma. Conseqüentemente, torna-se fundamental proteger suas credenciais de login dos chatbots de IA.

Ao evitar compartilhar suas senhas com esses modelos de chatbot, você pode proteger proativamente suas informações pessoais e reduzir a probabilidade de ser vítima de ameaças cibernéticas. Lembre-se de que proteger suas credenciais de login é uma etapa essencial para manter sua privacidade e segurança online.

5. Detalhes residenciais e outros dados pessoais

É importante evitar compartilhar informações de identificação pessoal (PII) com chatbots de IA. PII abrange dados confidenciais que podem ser usados ​​para identificá-lo ou localizá-lo, incluindo sua localização, número de seguro social, data de nascimento e informações de saúde. Garantir a privacidade dos dados pessoais e residenciais ao interagir com chatbots de IA deve ser uma prioridade máxima.

Para manter a privacidade dos seus dados pessoais ao interagir com chatbots de IA, aqui estão algumas práticas importantes a serem seguidas:

  • Familiarize-se com as políticas de privacidade dos chatbots para compreender os riscos associados.
  • Evite fazer perguntas que possam revelar inadvertidamente sua identidade ou informações pessoais.
  • Tenha cuidado e evite compartilhar suas informações médicas com bots de IA.
  • Esteja atento às vulnerabilidades potenciais de seus dados ao usar chatbots de IA em plataformas sociais como SnapChat.

Evite compartilhar demais com chatbots de IA

Concluindo, embora a tecnologia de chatbot de IA ofereça avanços significativos, ela também apresenta sérios riscos de privacidade. Proteger seus dados controlando as informações compartilhadas é crucial ao interagir com chatbots de IA. Fique atento e siga as práticas recomendadas para mitigar riscos potenciais e garantir a privacidade.

Postado em BlogTags:
Escreva um comentário