Por Giovani Saavedra*
09/06/2023 | 05h00
Recentemente, o mundo foi surpreendido com um manifesto de vários executivos de tecnologia e importantes pesquisadores de inteligência artificial, incluindo o CEO da Tesla Elon Musk e o pioneiro da IA Yoshua Bengio, pedindo uma pausa no desenvolvimento vertiginoso de novas e poderosas ferramentas de IA. O manifesto foi apresentado em uma carta intitulada "Pause Giant AI Experiments: An Open Letter", coordenada pela organização sem fins lucrativos Future of Life Institute, que tem dentre seus consultores externos nada mais, nada menos que Elon Musk. A carta também foi assinada pelo cofundador da Apple, Steve Wozniak; CEO de Estabilidade AI Emad Mostaque e os cofundadores do Center for Humane Technology, Tristan Harris e Aza Raskin, dentre outros. O foco principal das preocupações está direcionado ao treinamento de sistemas mais poderosos que o GPT-4, a tecnologia lançada pela OpenAI, startup apoiada pela Microsoft Corp. Isso inclui a próxima geração da tecnologia OpenAI, GPT-5.
Mais do que apenas um manifesto meramente técnico, ele acirra ainda mais o debate sobre ética e o uso "duplo" (dual-use) da inteligência artificial. De fato, às vezes, o mal pode emergir de um meio fervorosamente e confessadamente benévolo. Essa frase aparentemente singela e inocentemente óbvia esconde o significado profundo por trás do principal risco da IA: o simples fato de que um sistema de IA que pode ter sido criado com a intenção de gerar um bem incrível à humanidade, pode, facilmente, ser torcido num pesadelo tão nefasto, que poderia fazer inveja a obras literárias ficcionais como I Robot de Isaac Asimov ou mesmo filmes ficcionais do imaginário hollywoodiano recente ao ponto de quase fazê-las parecer mais com livros de história do que de ficção.
Os potenciais usos duplos da inteligência artificial (IA) crescem tão rápido como a capacidade de processamento das novas gerações da OpenAI. Recentemente, participando de um evento fechado para pesquisadores do seguimento, apesar já estar bem familiarizado com o potencial da IA, confesso ter me impressionado as apresentações de todos(as) colegas pesquisadores do ramo técnico de pesquisa aplicada de IA: desde o uso para a criação de novos remédios, de mapeamento do DNA, até o uso na medicina, na química, na arte, no desenvolvimento de softwares, no desenvolvimento de vacinas etc. Mas ainda mais impressionante do que a apresentação do uso positivo da tecnologia eram os relatos apocalípticos e assustadores dos mesmos pesquisadores acerca da descoberta e crescente tomada de consciência do potencial usos duplo das suas pesquisas para criação de armas, atentados, dentre outros.
Talvez o exemplo mais rumoroso, e, ao que tudo indica, será até documentado em uma série da Netflix é o caso da equipe liderada por Sean Ekins na área de pesquisa de fármacos, pesquisador que tive inclusive a oportunidade de conhecer pessoalmente e com quem pude debater sobre os riscos de IA no referido evento. Ele e sua equipe relatam os detalhes da sua descoberta do duplo uso de sua pesquisa com IA num artigo da Revista Nature (Fabio Urbina, Filippa Lentzos, Cédric Invernizzi, and Sean Ekins, "Dual-Use Of Artificial-Intelligence-Powered Drug Discovery," Nature, March 2022). E os relatos são alarmantes. De maneira resumida, a ideia inicial consistia em criar um sistema de IA que buscaria encontrar novos compostos moleculares que poderiam potencialmente abrir caminho para drogas curativas para resolver doenças não resolvidas e outros males até o momento. Nem todos os compostos moleculares selecionados terão, naturalmente, a capacidade de curar doenças. Então, o sistema de IA analisa milhares de possibilidades. Para os seres humanos, ter que examinar laboriosamente milhares e milhares de moléculas é demorado e não é particularmente prático. Mas acontece que megavolumes de pesquisa praticamente não são problema para a IA de hoje e, especialmente, quando se usa Machine Learning (ML) e Deep Learning (DL).
A abordagem usada pelos cientistas foi essencialmente carregar o ML/DL com milhões de moléculas identificadas, juntamente com seus dados de bioatividade associados. Estes podem ser retirados de várias bases de dados disponíveis publicamente. A noção geral é usar a IA para examinar compostos moleculares existentes, encontrar padrões computacionalmente identificáveis e, em seguida, extrapolar esses padrões para propor novos compostos moleculares de um resultado benéfico. Em suma, o objetivo da pesquisa era encontrar os compostos moleculares que têm a maior promessa e, ao mesmo tempo, conseguem oferecer a menor toxicidade. Suponhamos que essa mesma IA e, em vez de minimizar a toxicidade como critério central, seja utilizada na direção oposta, ou seja, para maximizar a toxicidade. Não é difícil enxergar onde isso vai parar não é verdade? Rapidamente, os pesquisadores perceberam que a sua pesquisa feita com dados públicos facilmente acessíveis poderia ser utilizada por qualquer um para criação de armas químicas.
Esse é só um exemplo, talvez, o mais rumoroso e internacionalmente conhecido dos últimos anos, mas a verdade é que dúvida mais não há: tanto o potencial da IA para revolucionar nossas vidas para o bem, quanto para o mal é incontroverso. A questão maior é o que fazer com essa informação. Por um lado, não há como frear o processo de inovação nessa área. Por outro lado, não há como ignorar o risco. A necessidade de regulação e mitigação desse risco é, portanto, evidente. Uma primeira proposta de regulação está sendo discutida no congresso. Será suficiente para impedir a "Skynet" ou vamos precisar ainda da Sarah e do John Connor? Espero, sinceramente, que, nesse caso, a vida não imite a arte...
*Giovani Saavedra, professor do Mackenzie - SP, doutor em Direito e Filosofia pela Universidade de Frankfurt (Alemanha), mestre em Direito, advogado. Sócio-fundador e Head de Compliance e Direito Digital da Saavedra & Gottschefsky - Sociedade de Advogados
Este texto reflete única e exclusivamente a opinião do(a) autor(a) e não representa a visão do Instituto Não Aceito Corrupção
Esta série é uma parceria entre o blog e o Instituto Não Aceito Corrupção (Inac). Os artigos têm publicação periódica
Comments