O Drama da Sala de Reuniões da OpenAI Pode Complicar o Seu Futuro

O Drama da Sala de Reuniões da OpenAI Pode Complicar o Seu Futuro Conheça os Desafios que a Organização Enfrenta

Em junho, tive uma conversa com o cientista-chefe Ilya Sutskever na sede da OpenAI, conforme relatado na matéria de capa de outubro da ENBLE. Entre os temas discutidos estava a estrutura incomum da empresa. A OpenAI começou como um laboratório de pesquisa sem fins lucrativos, cuja missão era desenvolver inteligência artificial em nível ou além do humano – denominada inteligência artificial geral ou AGI – de forma segura. A empresa descobriu um caminho promissor em modelos linguísticos grandes que geram textos surpreendentemente fluidos, mas desenvolver e implementar esses modelos requeriam enormes quantidades de infraestrutura computacional e montanhas de dinheiro. Isso levou a OpenAI a criar uma entidade comercial para atrair investidores externos, e eles conseguiram um grande parceiro: a Microsoft. Praticamente todos na empresa passaram a trabalhar para esse novo braço com fins lucrativos. Mas foram impostos limites à vida comercial da empresa. O lucro entregue aos investidores foi limitado – para os primeiros apoiadores, cem vezes o valor investido – depois disso, a OpenAI voltaria a ser completamente sem fins lucrativos. Tudo isso era governado pelo conselho do sem fins lucrativos original, que respondia apenas aos objetivos da missão original e talvez a Deus.

Plaintext

INSCREVA-SE para receber o Plaintext

Sutskever não apreciou quando fiz uma piada de que o gráfico estranho que mapeava esse relacionamento parecia algo que um futuro GPT poderia criar ao ser solicitado a projetar uma forma de evitar impostos. “Somos a única empresa no mundo que tem uma estrutura de lucro limitada”, ele me repreendeu. “Aqui está a razão pela qual faz sentido: se você acredita, como nós acreditamos, que se tivermos muito sucesso, essas GPUs vão roubar meu emprego, seu emprego e o emprego de todos, parece bom se essa empresa não fizer lucros ilimitados.” Enquanto isso, para garantir que a parte da empresa voltada para o lucro não negligencie seu compromisso de garantir que a IA não saia do controle, há aquele conselho, de olho nas coisas.

Esse suposto guardião da humanidade é o mesmo conselho que demitiu Sam Altman na última sexta-feira, alegando que não tinha mais confiança no CEO porque “ele não foi consistentemente franco em suas comunicações com o conselho, dificultando sua capacidade de exercer suas responsabilidades”. Não foram fornecidos exemplos desse comportamento alegado, e quase ninguém na empresa sabia da demissão até pouco antes de ser anunciada publicamente. O CEO da Microsoft, Satya Nadella, e outros investidores não receberam aviso prévio. Os quatro diretores, representando a maioria do conselho de seis pessoas, também expulsaram o presidente e presidente da OpenAI, Greg Brockman, do conselho. Brockman rapidamente renunciou.

Após falar com alguém familiarizado com o pensamento do conselho, parece-me que, ao demitir Altman, os diretores acreditavam estar cumprindo sua missão de garantir que a empresa desenvolva IA poderosa de maneira segura – única e exclusivamente esse era o motivo de existência. Aumentar os lucros ou o uso do ChatGPT, manter um ambiente de trabalho amigável e manter a Microsoft e outros investidores satisfeitos não eram suas preocupações. Na visão dos diretores Adam D’Angelo, Helen Toner e Tasha McCauley – e de Sutskever – Altman não foi honesto com eles. Em resumo: o conselho não confiava mais em Altman para avançar na missão da OpenAI. Se o conselho não pode confiar no CEO, como pode proteger ou mesmo monitorar o progresso na missão?

Não posso dizer se a conduta de Altman realmente ameaçou a missão da OpenAI, mas sei disso: o conselho parece ter ignorado a possibilidade de que uma execução mal explicada de um líder amado e carismático possa prejudicar essa missão. Os diretores pareciam acreditar que demitir Altman e substituí-lo sem confusão. Em vez disso, as consequências foram imediatas e vulcânicas. Altman, já algo como herói cult, tornou-se ainda mais reverenciado nessa nova narrativa. Ele pouco ou nada fez para dissuadir a fúria que se seguiu. Para o conselho, o esforço de Altman para recuperar seu cargo, e a revolta dos funcionários nos últimos dias, é uma espécie de justificação de que foi certo demiti-lo. O esperto Sam ainda está aprontando alguma coisa! Enquanto isso, todo o Vale do Silício explodiu, manchando o status da OpenAI, talvez permanentemente.

As impressões digitais de Altman não aparecem na carta aberta lançada ontem e assinada por mais de 95% dos cerca de 770 funcionários da OpenAI, que dizem que os diretores são “incapazes de supervisionar a OpenAI”. A carta diz que, se os membros do conselho não reinstalarem Altman e renunciarem, os trabalhadores que assinaram podem sair e se juntar a uma nova divisão de pesquisa avançada em IA na Microsoft, formada por Altman e Brockman. Essa ameaça não pareceu abalar a determinação dos diretores, que aparentemente sentiram como se estivessem sendo solicitados a negociar com terroristas. Presumivelmente, um diretor sente-se diferente – Sutskever, que agora diz que lamenta suas ações. Sua assinatura aparece na carta de você-sai-ou-sairemos. Aparentemente, tendo aparentemente apagado sua desconfiança em relação a Altman, os dois trocaram bilhetes de amor um para o outro no X, a plataforma de propriedade de outro fundador da OpenAI, agora estranho ao projeto.

Por enquanto, o conselho está desafiando os funcionários reunidos, desafiando virtualmente a força de trabalho da OpenAI a sair pela porta e se juntar a Altman na Microsoft. De acordo com a carta, os diretores disseram aos líderes da OpenAI que permitir que a empresa seja destruída “seria consistente com a missão”. (O New York Times atribuiu essas palavras posteriormente a Helen Toner.) Isso parece extremo. Se todos saírem, é difícil imaginar como a OpenAI continuará sendo líder no aceleramento da singularidade – e se outra pessoa a trouxer, o conselho da empresa não terá voz sobre como ela acontece com segurança. Nem mesmo o excelente café e almoço gratuito da OpenAI atrairiam os melhores pesquisadores de aprendizado de máquina necessários para ocupar os espaços de trabalho de repente vagos dos atuais bruxos da empresa. Não me surpreende ouvir relatos de negociações entre o conselho e representantes de Altman.

Certamente, a ideia de toda a força de trabalho da OpenAI se juntar à Microsoft parece algo que nem mesmo o ChatGPT ousaria alucinar. Com certeza, seria um golpe fantástico para a Microsoft atrair o melhor talento em pesquisa em IA. Mas seria extremamente caro, e muitos desses funcionários da OpenAI estão envolvidos em coisas mais pedestres, como design de interface, gerenciamento de produtos e relações com desenvolvedores que a Microsoft já tem muitas pessoas trabalhando. E os produtos da OpenAI não competiriam com todos os aplicativos Copilot que a Microsoft está lançando com base na tecnologia da OpenAI? Mas a coisa mais louca de todas seria a simples realidade de que a OpenAI, literalmente formada para frustrar empresas como a Microsoft de dominar a tecnologia de IA, teria entregado seu talento de elite – completamente e sem reserva – nas mãos de uma gigante de trilhões de dólares. A Microsoft não teria nenhuma hesitação em embolsar “verdadeiramente quantias ilimitadas de retornos” a partir das futuras descobertas da equipe ex-OpenAI – algo que qualquer pessoa que siga Altman para lá gostaria de refletir, à luz de seu tempo anterior em uma empresa com princípios fundadores diferentes. (Eu acredito que uma porcentagem alta de pesquisadores da OpenAI acabaria se mudando para outras startups de IA em ascensão ou seguiria seu próprio caminho para iniciar novas empresas.)

Toda essa história tem tantas reviravoltas nos últimos cinco dias que não me atrevo a prever o que vem a seguir. Mas isso não significa que devemos nos sentar e curtir a diversão, como aquele GIF onipresente de Michael Jackson jogando pipoca na boca. Não somos espectadores desinteressados ​​nessa trama. Por trás deste episódio da vida real, geek e cheio de reviravoltas de Sucessão, há questões que determinarão como será o nosso futuro coletivo.

“Vejo o problema apresentado pela superinteligência como o desafio final da humanidade”, disse Sutskever para mim naquela entrevista de junho. “Então, o que fazemos com isso? Minha visão é que, se houver compreensão de alta qualidade, se todos os intelectuais inteligentes e pessoas que são pensadoras em diferentes domínios se reunirem, se houver discussões e ideias poderosas circulando, talvez algo bom aconteça.” Essa é uma visão otimista do que está por vir. Agora, no entanto, os guardiões do candidato líder da superinteligência nascente estão envolvidos em uma briga de faca lunática na sala de conferências. É uma distração alarmante enquanto caminhamos em direção à AGI.

Não perca futuras edições exclusivas para assinantes desta coluna. Assine a ENBLE (com 50% de desconto para os leitores do Plaintext) hoje.