Nos Estados Unidos e no Brasil, eventos recentes amplificaram as vozes de especialistas que advertem sobre os riscos de sistemas de inteligência artificial. No South by Southwest, reunião global de formuladores e investidores em políticas de tecnologia que ocorre em Austin, Texas, anualmente, e, agora em maio, no Web Summit Rio, maior evento de tecnologia do mundo, pesquisadores e consultores falaram, entre outros pontos, sobre o temor de um “futuro catastrófico”, a defesa de que as empresas de tecnologia sejam responsabilizadas por potenciais riscos e a pouca confiança de que governos estejam preparados para o que está por vir.
Em 2019, o grupo de pesquisa OpenAI criou o GPT-2, capaz de gerar parágrafos de texto coerentes e analisar e compreender, de modo rudimentar, textos sem instruções específicas. O software, chamado pelos próprios criadores de “perigoso demais”, não foi totalmente disponibilizado para o público, pois havia o receio de uso por pessoas mal intencionadas e geração de desinformação.
Em três anos, a capacidade da inteligência artificial aumentou muito. Em 2022, foi distribuída, quase sem limitações, a nova versão, o GPT-3. A novidade gerou milhares de artigos, notícias e postagens de rede social, enquanto repórteres e especialistas testavam seus recursos.
O ChatGPT escreveu roteiros ao estilo de comediantes conhecidos, artigos ao estilo de estudiosos de diversos assuntos, opinou sobre religiões, escreveu textos de ficção e sobre ciências. Outros modelos de inteligência artificial, como o Dall-E, produziram imagens tão convincentes que geraram polêmica sobre sua inclusão em sites de arte, além de serem usadas, por engano, por sites de notícias.
Diretora da Casa Branca entusiasmada
Em 14 de março, a OpenAI apresentou a versão GPT-4, afirmando que houve cuidados para prevenir abusos. Na South by Southwest, Arati Prabhakar, diretora do Escritório de Política de Ciências e Tecnologia da Casa Branca, afirmou que está entusiasmada com as possibilidades da inteligência artificial, mas alertou que estamos vendo “a história demonstra que esse tipo de tecnologia, nova e potente, pode e será usada para o bem e para o mal”.
Austin Carson, fundador da SeedAI, grupo de consultoria sobre políticas de inteligência artificial, foi um pouco mais direto: “Se, em seis meses, vocês não tiverem perdido completamente a cabeça [e soltou um palavrão], pago um jantar”.
Tentando prever as possíveis consequências, Amy Webb, chefe do instituto Future Today e professora de negócios da Universidade de Nova York, nos EUA, disse que a inteligência artificial pode seguir uma dentre duas direções nos próximos dez anos. Em um cenário otimista, irá se concentrar no bem comum, com um design de sistema transparente, e os indivíduos poderão decidir se suas informações disponíveis ao público na internet serão incluídas na base de dados de conhecimento da inteligência artificial. A tecnologia seria uma ferramenta que facilitaria a vida, tornando-a mais integrada.
O outro cenário previsto por Webb é catastrófico e envolve menos privacidade de dados, poder centralizado em poucas companhias, e a inteligência artificial antecipando as necessidades do usuário, mas as entendendo errado ou, no mínimo, reprimindo suas escolhas. Para Webb, o cenário otimista tem apenas 20% de chance de acontecer. Segundo ela, a capacidade dos governos de agir rapidamente para estabelecer proteções legais para orientar o desenvolvimento tecnológico e evitar o uso indevido tem-se mostrado fraca, a exemplo da experiência com as empresas de redes sociais (Facebook, Twitter, Google e outras).
“O que ouvi em muitas conversas foram preocupações de que não existe nenhuma barreira de proteção”, afirmou Melanie Subin, diretora-gerente do instituto Future Today. Segundo ela, “existe a sensação de que algo precisa ser feito”.
Nos Estados Unidos, a supervisão federal das empresas de redes sociais é baseada, em grande parte, na Lei de Decência nas Comunicações, aprovada pelo Congresso americano em 1996, além de uma cláusula contida no artigo 230 da lei. O texto protege as empresas da internet de serem responsabilizadas pelo conteúdo gerado pelos usuários em seus sites e tem sido acusado de permitir que essas empresas ganhem muito poder e influência.
As chances de mudanças não são muito grandes. As grandes empresas de tecnologia mantêm equipes de lobistas em Washington, e nas capitais dos estados nos EUA. Elas também contam com altas somas de dinheiro para influenciar os políticos com doações de campanha. A jornalista de tecnologia Kara Swisher afirma que “ficamos esperando uma legislação do Congresso para proteger os consumidores, e eles abriram mão da sua responsabilidade”. Para ela, um grande perigo é que muitas das empresas que são grandes players nas redes sociais, como Facebook, Google, Amazon, Apple e Microsoft, agora são líderes na área de inteligência artificial.
Se o Congresso não conseguir regulamentar com sucesso as redes sociais, será um desafio agir rapidamente para lidar com as preocupações sobre o que Swisher chama de “corrida armamentista” da inteligência artificial.
As comparações entre as regulamentações de inteligência artificial e as redes sociais também não são apenas acadêmicas. A nova tecnologia de IA pode navegar pelas águas já turbulentas de plataformas como Facebook, YouTube e Twitter e transformá-las em um mar revolto de desinformação, à medida que se torna cada vez mais difícil distinguir postagens de seres humanos reais de contas falsas — mas totalmente convincentes — geradas por IA.
Empresas devem ser responsabilizadas
No Web Summit Rio, que está ocorrendo neste início de maio, Meredith Whitakker, presidente da fundação que mantém o aplicativo de mensagens Signal, apontou que as ferramentas de IA exigem uma significativa infraestrutura de servidores e servidoras, além de uma grande quantidade de dados. Segundo ela, esses recursos estão disponíveis apenas para um pequeno grupo de empresas, como Amazon, Microsoft e Google.
“Há apenas algumas organizações no mundo que têm os recursos exigidos para criar inteligência artificial em larga escala do começo ao fim. São as grandes empresas de tecnologia”, afirmou.
Para Whitakker, se houver uma regulação sobre inteligência artificial, ela precisa se concentrar nestes recursos. “As grandes empresas de tecnologia dizem que querem regulação, mas têm pessoas no Congresso tentando garantir que elas escrevam essa regulação. Precisamos de outras medidas que exijam que, quando a IA for adotada, ela vai contemplar o interesse público”, defendeu.
Há 13 anos, Chelsea Manning, especialista em segurança, vazou para o WikiLeaks mais de 700 mil documentos militares e diplomáticos confidenciais dos EUA. No Web Summit, ela afirmou que o interesse por IA é novo, mas os riscos em torno dela são antigos. “Certamente, muitos problemas de privacidade que vemos nos últimos 15 anos continuarão”, analisou. Para ela, a questão está em como as empresas e os desenvolvedores usam a inteligência artificial e o que desenvolvem a partir dela: “Tudo vai depender de como nós, especialistas em tecnologia, vamos treinar os algoritmos, entender suas limitações e refletir sobre o que podemos fazer do ponto de vista ético”.
Sindicatos vêm alertando sobre uso de IA. Sintrajufe/RS vem fazendo reportagens especiais
O uso do ChatGPT já é uma realidade no Judiciário. No final de abril, a Comissão de Tecnologia da Informação e Inovação do Conselho Nacional de Justiça (CNJ) analisava pedido do advogado Fábio de Oliveira Ribeiro para que seu uso fosse proibido para fundamentar decisões. O pedido liminar foi negado, embora o advogado sustente que a ferramenta é sedutora, mas oferece respostas inconsistentes e, não raro, incompletas e incorretas.
Na Colômbia, o juiz Juan Manuel Padilla utilizou o ChatGPT para ajudar a fundamentar e redigir uma sentença. Em entrevista, ele defendeu o programa e outros semelhantes podem ser úteis para “facilitar a redação de textos”, mas “não com o objetivo de substituir” juízes. A substituição de trabalhadores e trabalhadoras em 80 profissões é uma previsão que pode se concretizar em um futuro muito próximo. Partindo da capacidade do ChatGPT-4 de realizar pesquisa e cálculos, o especialista André Cia perguntou para a própria IA quais setores ela poderá afetar em cinco anos. Foram listadas 80 profissões e o tempo em que poderão ser substituídas pela IA. A de assistente jurídico (conhecimentos em leis e regulamentações, habilidades de pesquisa) teria um prazo de até 24 meses.
Com informações de BBC, G1, Época Negócios e edição do Sintrajufe/RS