Skip to main content
Lilian Primo

CEO da LPA Consultoria , founder na Mobye , Vice Presidente do Conselho Consultivo do Instituto Êxito Latino Americano de Empreendedorismo e Inovação e Head de empreendedorismo e Startup na ANEFAC, Colunista na Nova Brasil FM, Conselheira empresarial e Co-Investidora na Bossanova.

Após a evolução rápida dos robôs e das inteligências artificiais, parece que a humanidade quer um freio.

Não é de hoje que falo sobre as inteligências artificiais. Já escrevi inúmeros artigos sobre esse tema, o mais recente foi intitulado “Nenhum emprego está a salvo das Inteligências Artificiais?”, que você pode conferir clicando aqui. Em todos esses artigos, é espantoso que cada vez mais a ficção que assistíamos nos filmes, desenhos e séries, desde os anos 60, esteja cada vez mais próxima da realidade.

Porém, todo esse avanço, principalmente na área da Inteligência Artificial, começou a preocupar a humanidade. No dia 22 de março de 2023, foi publicada uma “carta aberta”, intitulada “Pause Giant AI Experiments”, (na tradução livre, Pause experimentos gigantes de IA), com a seguinte recomendação: “Pedimos a todos os laboratórios de IA que parem imediatamente, por pelo menos seis meses, o treinamento de sistemas de IA mais poderosos que o GPT-4”, e o seguinte argumento: “Os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade”. Ela já conta com mais de 27 mil assinaturas, e se destacam muitas pessoas ligadas à área de tecnologia.

A carta foi publicada na instituição sem fins lucrativos “Future of Life Institute”, estabelecida em 2015, com a missão de conduzir a tecnologia transformadora para beneficiar a vida, longe de riscos extremos em grande escala, tendo como seu principal financiador a Musk Foundation. Você pode ver a carta na íntegra (em inglês), assim como as assinaturas clicando aqui.

Essa carta chamou a atenção por ter nomes muito conhecidos, como:

  • Elon Musk, bilionário, dono da Tesla, SpaceX e Twitter;
  • Steve Wozniak, cofundador da Apple;
  • Jaan Tallinn, cofundador do Skype;
  • Evan Sharp, cofundador do Pinterest;
  • Chris Larsen, cofundador do Ripple;
  • Craig Peters, CEO da Getty Images;
  • Tom Gruber, chefe de design da equipe que criou Siri, a assistente virtual da Apple;
  • Yuval Noah Harari, professor e autor dos livros “Homo Deus” e “Sapiens”;
  • Andrew Yang, político, pré-candidato à presidência dos EUA em 2020 e à prefeitura de Nova York em 2021;
  • Max Tegmark, professor do MIT para Inteligência Artificial e Interações Fundamentais, além de presidente do “Future of Life Institute”.

Estes são apenas alguns nomes que destaquei por serem cofundadores ou CEOs de empresas de tecnologia muito conhecidas na mídia por seus trabalhos, e até mesmo políticos.

Após essa carta, coincidência ou não, muitos países começaram a pensar em regulamentações para a área de inteligência artificial. E devido a sua fama o foco tem sido no “ChatGPT”, por ser a ferramenta mais popular dessa revolução das inteligências artificiais.

Parem os robôs!

Na China, por exemplo, mesmo o ChatGPT não estando disponível no país, ele tem sido tema de várias discussões sobre a área de inteligência artificial, inclusive gigantes chinesas da tecnologia estão fazendo uma corrida para lançar a própria inteligência para concorrer com o robô americano.

O governo chinês pretende adotar um sistema de “avaliação de segurança” para todas as ferramentas de inteligências artificiais. De acordo com o projeto, as IA vão passar por essa avaliação antes do início da comercialização do serviço, conforme divulgado em 11 de abril de 2023 pela Administração do Ciberespaço da China.

Segundo o que afirma a agência, as inteligências artificiais devem “refletir os valores socialistas fundamentais e não devem apresentar conteúdo relacionado à subversão do poder do Estado”, com o objetivo de garantir o “desenvolvimento saudável e a aplicação padronizada da tecnologia de inteligência artificial generativa”.

Ainda não há uma data de quando essa medida entrará em vigor, pois, segundo a agência regulatória, o projeto passará primeiro por uma consulta pública, antes de ser aprovado.

Parem os robôs!

A União Europeia não ficou para trás, porém, a Itália saiu na frente sozinha, com uma ação mais radical, e bloqueou temporariamente o ChatGPT no país, por suspeitas de violação de regras de coleta de dados e por não se enquadrar na lei de proteção de dados da União Europeia.

Segundo a agência italiana, “a ausência de qualquer base legal que justifique a recolha e armazenamento massivo de dados pessoais de forma a treinar os algoritmos subjacentes ao funcionamento da plataforma”.

Essa decisão da Itália acelerou a discussão dentro do bloco europeu, que em 13 de abril de 2023, reuniu autoridades nacionais de privacidade para criar uma força-tarefa e analisar o robô ChatGPT. O Conselho Europeu de Proteção de Dados (EDPB, na sigla em inglês) vai usar esse caso como base para o bloco criar uma política de regras de privacidade que serão adotadas para as inteligências artificiais dentro da União Europeia. Em comunicado, o grupo de análise informou que “O EDPB decidiu lançar uma força-tarefa dedicada a promover a cooperação e a troca de informações sobre possíveis ações conduzidas pelas autoridades de proteção de dados”.

Parem os robôs!

Em 11 de abril de 2023, os Estados Unidos, segundo a agência de notícias Reuters, abriu uma consulta à população sobre sugestões de medidas para responsabilizar e controlar o funcionamento das ferramentas baseadas em inteligências artificiais.

Esse tema está atraindo muito a atenção no país, principalmente do legislativo americano, pois o ChatGPT, por tudo que ele mostrou fazer, foi uma das ferramentas que teve o maior crescimento na história em número de usuários, passando dos 100 milhões de ativos mensais.

O chefe da Administração Nacional de Telecomunicações e Informações (NTIA, na sigla em inglês) do Departamento de Comércio, Alan Davidson, disse que “Sistemas de IA responsáveis podem trazer enormes benefícios, mas apenas se abordarmos suas possíveis consequências e danos” e completou “Para que esses sistemas alcancem todo o seu potencial, as empresas e os consumidores precisam poder confiar neles”.

A grande preocupação no país é a segurança das informações. Em outra entrevista, Davidson comentou que o principal objetivo do governo é determinar se as inteligências artificiais funcionam da maneira que as empresas afirmam, se são seguras e eficazes, se têm resultados discriminatórios ou “refletem níveis inaceitáveis de viés”, se espalham ou perpetuam a desinformação e se respeitam a privacidade dos indivíduos. “Temos que nos mover rapidamente, porque essas tecnologias de IA estão se espalhando muito rápido”.

Parem os robôs!

E no Brasil? Você deve estar se perguntando. Aqui, o assunto já está sendo tratado muito antes da carta aberta.

Em 6 de dezembro de 2022, a Comissão de Juristas do Senado (CJSUBIA), presidida pelo ministro Ricardo Villas Bôas Cueva, com relatoria da jurista Laura Schertel, entregou o Relatório Final para elaboração do Marco Regulatório de Inteligência Artificial. O relatório tem duplo objetivo: estabelecer direitos para a proteção da pessoa afetada e dispor de um arcabouço regulatório de fiscalização e supervisão. A expectativa é de que, agora em 2023, o Relatório tramite pelo Senado para que seja criado um projeto de lei que defina o desenvolvimento e o uso das inteligências artificiais no Brasil.

É interessante pensar como a ficção está cada vez mais próxima da nossa realidade. Países pensando em leis para se proteger dos robôs, não te lembra algo? O livro “Eu, Robô”, lançado em 1950 pelo escritor Isaac Asimov, criava as três leis da robótica. Em uma época que não existia sequer a internet ou celulares, ele já imaginou esse conflito com inteligências artificiais e a preocupação de que eles poderiam causar um mal ao ser humano.

Apenas por curiosidade, estas são as três leis da robótica, segundo Isaac Asimov:

  1. Um robô não pode ferir um humano ou permitir que um humano sofra algum mal;
  2. Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que essas ordens entrem em conflito com a primeira lei;
  3. Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores.

Com essas discussões sobre inteligências artificiais, é uma ótima opção de leitura a obra de Isaac Asimov. Para quem gosta de filmes, dois filmes mais recentes que foram baseados em livros dele são “Eu, Robô”, de 2004, e “O Homem Bicentenário”, de 1999. Outra opção de filme sobre o tema, que não tem origem nos livros, é “AI – Inteligência Artificial”, de 2001, dirigido por Steven Spielberg.

Como dito pelo escritor Oscar Wilde, “A vida imita a arte mais do que a arte imita a vida”.

Lilian Primo é CEO e fundadora da Moybe Mobilidade Elétrica, VP do Instituto Êxito e VP de TI da Anefac. Fala sobre tecnologia, inovação, mobilidade e tendências.

* Este texto não reflete, necessariamente, a opinião do Adnews.

Fique ligado no Adnews pelo Instagram e LinkedIn! Pra gente, sair do óbvio é tão óbvio quanto criar e transformar.