O Cofundador da OpenAI, Reid Hoffman, dá seu voto de confiança a Sam Altman

O Cofundador da OpenAI, Reid Hoffman, expressa sua confiança em Sam Altman

O cofundador da OpenAI, Reid Hoffman, diz que a empresa está melhor com Sam Altman de volta como CEO, e ele ficou chocado ao saber que membros do conselho com quem costumava trabalhar pensassem o contrário. Hoffman, que deixou o conselho da OpenAI em março após cofundar o concorrente Inflection AI, fez seus primeiros comentários sobre a recente turbulência na OpenAI durante o evento de aniversário de 30 anos da ENBLE, em San Francisco, na terça-feira.

“Surpresa seria um eufemismo”, ele disse sobre sua reação ao saber da demissão de Altman. Após uma revolta de funcionários e investidores, Altman recuperou seu emprego alguns dias depois. “Estamos em um lugar muito melhor para que o mundo tenha Sam como CEO. Ele é muito competente nisso”, disse Hoffman, que, juntamente com Elon Musk e outros empresários de tecnologia de destaque, formulou a primeira visão da OpenAI quando ela foi fundada em 2015.

“Eu acho que nunca vi antes na história de qualquer corporação em que um conselho demitiu um CEO e algo que chega a 100% dos funcionários assinam uma carta dizendo: ‘Reintegrem o CEO ou nós vamos embora'”, disse Hoffman. “Isso é histórico”.

Hoffman participou de um painel chamado “AI Optimist Club” na terça-feira. Em um painel separado na ENBLE, a cientista da computação Joy Buolamwini disse que, embora Altman tenha uma atitude semelhante a muitos líderes de tecnologia, com um “otimismo privilegiado sobre o que a IA pode fazer e como ela pode ser benéfica”, ela recebeu de bom grado a busca de um terreno comum com ele em questões como a necessidade de regulamentação governamental da IA.

O editor da ENBLE, Steven Levy, discutiu inteligência artificial com a pioneira da IA Fei-Fei Li e o investidor e cofundador da OpenAI Reid Hoffman na LiveENBLE em San Francisco.

Fotografia: Kimberly White/Getty Images

O apoio de líderes de tecnologia a Altman é significativo, pois a OpenAI tenta superar a crise, mesmo que muito ainda seja desconhecido sobre as preocupações que levaram quatro membros do conselho a demiti-lo. A rápida adoção de tecnologias como ChatGPT da OpenAI está fornecendo sinais iniciais de como sistemas de IA poderosos podem remodelar o trabalho e o entretenimento, com aqueles no comando, como Altman, tendo a maior influência sobre o curso das mudanças. Na quarta-feira, o Google anunciou o Gemini, um novo modelo de IA multifacetado destinado a concorrer com a OpenAI.

“Só porque você pode construir a tecnologia não significa necessariamente que isso terá um bom resultado”, disse Hoffman, cofundador do LinkedIn e investidor na empresa de capital de risco Greylock. “Você tem que moldá-la. Você tem que direcionar o que está fazendo – ser um moldador inteligente e conduzir na direção certa”.

Entre as questões que a OpenAI terá que enfrentar ao reformular seu conselho, e presumivelmente reforçar sua missão, está como equilibrar o foco no potencial de lucro e valor dos sistemas de IA hoje com a perspectiva de futuros sistemas que se tornam mais inteligentes do que os humanos.

Alguns palestrantes no LiveENBLE disseram que questões de hoje, como o potencial do ChatGPT para espalhar falsidades ou estereótipos raciais, de gênero ou religiosos problemáticos, devem ter prioridade para ajudar a sociedade a corrigir o que parece ser um rumo preocupante.

Os problemas do amanhã podem esperar, disse Margaret Mitchell, pesquisadora e cientista-chefe de ética na startup Hugging Face, que hospeda projetos de IA de código aberto. “Não é como se algo fosse simplesmente mudar fundamentalmente e muitas pessoas morrerem”, disse ela. “As pessoas estão morrendo agora, hoje, devido aos drones AI em operação que estão tomando a decisão de matar pessoas.”

O escritor sênior do ENBLE, Khari Johnson, entrevistou a cientista da computação Joy Buolamwini, presidente do grupo de defesa AI Harms da Algorithmic Justice League, e Margaret Mitchell, pesquisadora e cientista-chefe de ética na startup Hugging Face, no LiveENBLE em San Francisco.

Fotografia: Kimberly White/Getty Images

Hoffman e outros disseram que não há necessidade de pausar o desenvolvimento da IA. Ele chamou essa medida drástica, pela qual alguns pesquisadores de IA fizeram petição, de tola e destrutiva. Hoffman se identificou como um “aceleracionista” racional – alguém que sabe reduzir a velocidade ao virar uma esquina, mas que, presumivelmente, está disposto a acelerar quando a estrada à frente estiver livre. “Recomendo que todos se juntem a nós no clube dos otimistas, não porque seja uma utopia em que tudo dê certo, mas porque pode ser parte de uma solução incrível”, disse ele. “É isso que estamos tentando construir.”

Mitchell e Buolamwini, que é artista-chefe e presidente do grupo de defesa AI Harms da Algorithmic Justice League, disseram que confiar em promessas das empresas para mitigar viés e mau uso da IA não seria suficiente. Em sua opinião, governos devem deixar claro que sistemas de IA não podem minar os direitos das pessoas ao tratamento justo ou à humanidade. “Aqueles que correm o risco de serem explorados, extorquidos ou mesmo exterminados” precisam ser protegidos, disse Buolamwini, acrescentando que sistemas como drones letais devem ser interrompidos. “Já estamos em um mundo onde a IA é perigosa”, disse ela. “Temos IA como anjos da morte.”

Aplicações como armamento estão longe do foco principal da OpenAI, que é ajudar programadores, escritores e outros profissionais. As ferramentas da empresa segundo seus termos não podem ser usadas em militares e guerra — embora o principal apoiador e cliente entusiasmado da OpenAI, a Microsoft, tenha um grande negócio com o exército dos EUA. Mas Buolamwini sugeriu que as empresas que desenvolvem aplicativos comerciais não merecem menos escrutínio. À medida que a IA assume tarefas mundanas como composição, as empresas devem estar prontas para lidar com as consequências sociais de um mundo que pode oferecer aos trabalhadores menos oportunidades significativas de aprender os princípios básicos de um trabalho que pode acabar sendo vital para se tornar altamente qualificado. “O que significa passar por esse processo de criação, encontrar a palavra certa, descobrir como se expressar e aprender algo na luta para fazê-lo?” ela disse.

Fei-Fei Li liderou o desenvolvimento de um conjunto de dados chamado ImageNet que ajudou a iniciar o boom da aprendizagem profunda que permitiu o ChatGPT.

Fotografia: Aldo Chacon

Fei-Fei Li, cientista da computação da Universidade Stanford que dirige o Instituto de Inteligência Artificial Centrada no Ser Humano da universidade, disse que a comunidade de IA deve estar focada em seus impactos nas pessoas, desde a dignidade individual até as grandes sociedades. “Deveria começar um novo clube chamado ‘tecno-humanista'”, ela disse. “É muito simples dizer: ‘Você quer acelerar ou desacelerar?’ Devemos falar sobre onde queremos acelerar e onde devemos desacelerar.”

Li é um dos pioneiros da inteligência artificial moderna, tendo desenvolvido o sistema de visão computacional conhecido como ImageNet. Será que a OpenAI deseja uma voz aparentemente equilibrada como a dela em seu novo conselho? O presidente do conselho da OpenAI, Bret Taylor, não respondeu a um pedido de comentário. Mas se surgir a oportunidade, Li disse: “Vou considerar isso cuidadosamente.”