Skip to main content

À medida que o setor de tecnologia avança cada vez mais para desenvolver e implantar seu próprio chatbot de Inteligência Artificial, sua adoção generalizada acendeu um novo conjunto de preocupações com a privacidade de dados entre algumas empresas, reguladores e observadores do setor.

Algumas empresas, incluindo JPMorgan Chase, reprimiram o uso do ChatGPT pelos funcionários. O chatbot de IA viral, deu início à corrida armamentista de IA da Big Tech, mas causou preocupações de conformidade relacionadas ao uso de software de terceiros pelos funcionários.

Isso só aumentou as preocupações crescentes com a privacidade quando a OpenAI, a empresa por trás do ChatGPT, divulgou que teve que colocar a ferramenta offline temporariamente em 20 de março para corrigir um bug que permitia que alguns usuários vissem as linhas de assunto do histórico de bate-papo de outros usuários.

O mesmo bug, agora corrigido, também possibilitou “alguns usuários verem o nome e sobrenome de outro usuário ativo, endereço de e-mail, endereço de pagamento, os últimos quatro dígitos (somente) de um número de cartão de crédito e data de validade do cartão de crédito”.

A Itália tomou medidas mais avançadas em relação as preocupações com a privacidade relacionadas ao chatbot. Recentemente, o país europeu decidiu bloquear temporariamente a ferramenta no território nacional.

Uma ‘caixa preta’ de dados

Mark McCreary, copresidente da prática de privacidade e segurança de dados do escritório de advocacia Fox Rothschild LLP definiu o ChatGPT como uma espécie de “caixa preta” em uma entrevista dada para o site internacional CNN.

Com o chatbot, lançado ao público no final de novembro, os usuários podem gerar ensaios, histórias e letras de músicas simplesmente digitando prompts. Desde então, o Google e a Microsoft também lançaram ferramentas de IA, que funcionam da mesma maneira e são alimentadas por grandes modelos de linguagem treinados em vastos tesouros de dados online.

“Você não sabe como isso será usado”, disse McCreary sobre as informações inseridas no chatbot. Isso levanta preocupações particularmente altas para as empresas. À medida que mais e mais funcionários adotam casualmente essas ferramentas para ajudar com e-mails de trabalho ou anotações de reuniões, McCreary disse: “Acho que a oportunidade de segredos comerciais da empresa serem lançados nessas várias IAs vai aumentar”.

Se os dados inseridos pelas pessoas estão sendo usados ​​para treinar ainda mais essas ferramentas de IA, como afirmaram muitas das empresas por trás das ferramentas, isso pode significar que o individuo perdeu, de certa forma, o controle por trás desses dados.

Uma política de privacidade de 2.000 palavras

A OpenAI, empresa apoiada pela Microsoft por trás do ChatGPT, diz em sua política de privacidade que coleta todos os tipos de informações pessoais das pessoas que usam seus serviços. Ele diz que pode usar essas informações para melhorar ou analisar seus serviços, realizar pesquisas, se comunicar com os usuários e desenvolver novos programas e serviços, entre outras coisas.

A política de privacidade declara que não pode fornecer informações pessoais a terceiros sem aviso prévio ao usuário, a menos que exigido por lei. Se a política de privacidade de mais de 2.000 palavras parece um pouco opaca, provavelmente é porque isso se tornou a norma do setor na era da Internet. O OpenAI também possui um documento de Termos de Uso separado, que coloca a maior parte do ônus no usuário para tomar as medidas apropriadas ao se envolver com suas ferramentas.

A OpenAI também publicou uma nova postagem no blog na quarta-feira, descrevendo sua abordagem à segurança da IA: 

“Não usamos dados para vender nossos serviços, publicidade ou criar perfis de pessoas – usamos dados para tornar nossos modelos mais úteis para as pessoas. O ChatGPT, por exemplo, melhora com treinamento adicional sobre as conversas que as pessoas têm com ele.”

A política de privacidade do Google, que inclui sua ferramenta Bard, é igualmente prolixa e possui termos de serviço adicionais para seus usuários de IA generativa. A empresa afirma que, para ajudar a melhorar o Bard e proteger a privacidade dos usuários, “selecionamos um subconjunto de conversas e usamos ferramentas automatizadas para ajudar a remover informações de identificação pessoal”.

O Google também disse em um comunicado para CNN que os usuários podem “optar facilmente por usar o Bard sem salvar suas conversas em sua Conta do Google”. Os usuários do Bard também podem revisar seus prompts ou excluir as conversas do Bard por meio deste link. “Também temos proteções projetadas para impedir que a Bard inclua informações de identificação pessoal em suas respostas”, disse o Google.

Essa matéria usou como fonte a matéria escrita por Catherine Thorbecke para o site CNN Business.

Fique ligado aqui no Adnews! Por que pra gente, sair do óbvio, é tão óbvio quanto criar e transformar.

Visão geral de privacidade

Este site usa cookies para que possamos oferecer a melhor experiência de usuário possível. As informações dos cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você acha mais interessantes e úteis.