CEO da indústria farmacêutica Não pare a pesquisa em IA, nosso trabalho é muito importante.

CEO da indústria farmacêutica Não pare a pesquisa em IA, é importante.

Como a sociedade deve lidar com os riscos da inteligência artificial? Há aqueles que argumentam que os benefícios concebíveis superam o perigo imediato, e assim, as restrições devem ser buscadas com cautela.

“Acho que essas sugestões amplas e gerais de que paremos o trabalho [na IA] estão um pouco equivocadas”, disse Chris Gibson, co-fundador e CEO da Recursion Pharmaceuticals, em uma entrevista recente com a ENBLE.

“Acho que é muito importante que as pessoas continuem a aproveitar a oportunidade que existe com a aprendizagem de máquina”, disse Gibson.

Também: Os 5 maiores riscos da IA generativa, de acordo com um especialista

A empresa de Gibson está trabalhando com a Big Pharma para empregar a IA na descoberta de medicamentos.

Gibson estava respondendo a uma carta publicada em março por Elon Musk, o estudioso de IA Yoshua Bengio e vários outros, pedindo uma pausa temporária na pesquisa em IA para investigar os perigos.

A petição pedia uma pausa no que descreve como “uma corrida fora de controle” pela superioridade da IA, produzindo sistemas que seus criadores não conseguem “entender, prever ou controlar de forma confiável”.

Gibson focou em preocupações consideradas irreais, como o potencial de programas de aprendizado de máquina se tornarem conscientes, uma situação que estudiosos que consideraram o assunto consideram bastante remota.

“Não queremos pausar por seis meses ou um ano, por causa de quanto oportunidade há no futuro”, diz Chris Gibson, co-fundador e CEO da Recursion Pharmaceuticals.

“O trabalho que estamos fazendo na Recursion é super interessante, treinando modelos com bilhões de parâmetros que são realmente empolgantes no contexto da biologia”, disse Gibson à ENBLE. “Mas eles não são conscientes, não vão se tornar conscientes, estão muito longe disso.”

Uma das preocupações principais de Gibson é preservar a capacidade de sua empresa e de outras avançarem com o trabalho em coisas como a descoberta de medicamentos. A Recursion, que é parceira da Bayer e da Genentech, entre outras, tem atualmente cinco candidatos a medicamentos em estágios clínicos do pipeline de desenvolvimento de medicamentos. A empresa já acumulou mais de 13 petabytes de informações em Fenomaps, seu termo para bancos de dados de “relações inferidas” entre moléculas.

Também: ‘A OpenAI é desenvolvimento de produtos, não pesquisa em IA’, diz o principal cientista de IA da Meta

“Modelos que são mantidos isolados para responder a perguntas realmente específicas, eu acho, são muito importantes para avançar a humanidade”, disse Gibson. “Modelos como o nosso e outras empresas como a nossa, não queremos pausar por seis meses, ou pausar por um ano, por causa de quanto oportunidade há no futuro.”

A empresa de Gibson, que é pública, anunciou em julho que recebeu um investimento de US$ 50 milhões da Nvidia, cujos chips de GPU dominam o processamento de IA.

Gibson foi cauteloso em suas observações sobre aqueles que se preocupam com a IA ou que pediram uma pausa. “Há pessoas realmente inteligentes dos dois lados da questão”, disse ele, observando que um co-fundador da Recursion se afastou da administração diária da empresa há vários anos devido a preocupações com os desafios éticos da IA.

Yoshua Bengio, um conselheiro da Recursion, é um dos signatários da carta.

“Yoshua é brilhante, então isso me coloca em uma posição um pouco delicada”, disse Gibson. “Mas, eu diria, acho que há argumentos muito importantes dos dois lados do debate.”

Também: O grande quebra-cabeça do corpo e da doença está começando a ceder à IA, diz o CEO da Recursion

As diferentes perspectivas das partes a favor e contra uma moratória “sugerem cautela”, disse ele, “mas não acredito que devemos pausar todo o treinamento e toda a inferência de algoritmos de ML e IA por qualquer período de tempo”.

A equipe de Gibson fez um acompanhamento com a ENBLE para destacar que Bengio, em seu post no blog sobre os riscos da IA, fez distinções entre ameaças versus aplicações úteis para a sociedade da IA, como a saúde.

Gibson está de acordo com colegas como o cientista-chefe de IA da Meta Properties, Yann LeCun, que se manifestou contra a iniciativa de seu amigo e colaborador ocasional.

Gibson permitiu que algumas noções de risco, por mais improváveis ​​que sejam, precisam ser cuidadosamente consideradas. Uma delas são os cenários de fim da humanidade que foram descritos por organizações como o Future of Humanity Institute.

“Há pessoas no campo da IA que acham que, se você pedir a um algoritmo de ML ou IA para maximizar algum tipo de função de utilidade, digamos, tornar o mundo o mais bonito e pacífico possível, então um algoritmo de IA poderia, provavelmente não totalmente incorretamente, interpretar que os seres humanos são a causa da maioria da falta de beleza e falta de paz”, disse Gibson.

Também: ChatGPT: O que o The New York Times e outros estão entendendo errado sobre isso

Como resultado, um programa poderia “colocar algo realmente assustador em prática”. Essa perspectiva é “provavelmente improvável”, disse ele. “Mas o impacto é tão grande que é importante pensar sobre isso; é improvável que um de nossos aviões caia quando voamos no céu, mas certamente prestamos atenção ao aviso porque o custo é tão substancial.”

Também existem “algumas coisas que são realmente óbvias com as quais todos poderíamos concordar hoje”, disse Gibson, como não permitir que programas tenham controle de armas de destruição em massa.

“Eu defenderia dar acesso aos nossos sistemas de lançamento nuclear a um algoritmo de IA ou ML? Com certeza não”, disse ele.

Em um nível mais prosaico, Gibson acredita que questões de viés precisam ser tratadas em algoritmos. “Precisamos ter certeza de que estamos sendo muito cautelosos em relação aos conjuntos de dados e garantindo que as funções de utilidade com as quais otimizamos nossos algoritmos não tenham algum tipo de viés neles.”

Também: A IA pode ter 20% de chance de consciência em 10 anos, diz o filósofo David Chalmers

“Há mais viés entrando nos resultados desses algoritmos que estão se tornando cada vez mais parte de nossas vidas”, observou Gibson.

As preocupações mais básicas, na opinião de Gibson, devem ser óbvias para todos. “Um bom exemplo é, eu acho, é mais arriscado dar a um algoritmo acesso incontrolado à internet”, disse ele. “Então, pode haver algumas regulamentações a curto prazo em relação a isso.”

Sua posição sobre regulamentação, ele disse, é que “fazer parte de uma sociedade de alto desempenho é colocar todas essas opções na mesa e ter uma discussão importante sobre elas. Só precisamos ter cuidado para não nos estendermos demais com regulamentações abrangentes direcionadas a toda IA ou todo ML.”

Uma preocupação urgente para a ética da IA é a tendência atual das empresas, como a OpenAI e o Google, de divulgar cada vez menos o funcionamento interno de seus programas. Gibson disse que é contra qualquer regulamentação que exija que os programas sejam de código aberto. “Mas”, acrescentou, “acho muito importante que a maioria das empresas compartilhe parte de seu trabalho de várias maneiras com a sociedade, para fazer com que todos avancem.”

Também: Por que o código aberto é essencial para amenizar os medos em relação à IA, segundo o fundador do Stability.ai

A Recursion disponibilizou muitos de seus conjuntos de dados como código aberto, observou ele, e “não excluo a possibilidade de disponibilizarmos alguns de nossos modelos como código aberto no futuro.”

Obviamente, as grandes questões de regulamentação e controle voltam à vontade dos cidadãos de cada nação. Uma questão chave é como educar o eleitorado sobre a IA. Nesse sentido, Gibson não estava otimista.

Embora a educação seja importante, ele disse: “Minha crença geral é que o público parece desinteressado em se educar nos dias de hoje.”

“As pessoas interessadas em se educar tendem a prestar atenção nessas coisas”, disse ele, “e a maioria do resto do mundo não, o que é extremamente lamentável.”