O Mundo Não Está Preparado para a Próxima Década de IA

O Mundo não está preparado para a próxima década de IA.

NO EPISÓDIO DESTA SEMANA do Have a Nice Future, Gideon Lichfield e Lauren Goode conversam com Mustafa Suleyman, o cofundador da DeepMind e InflectionAI. Eles discutem seu novo livro, The Coming Wave, que explica por que nossos sistemas não estão preparados para lidar com o próximo grande salto na tecnologia. Suleyman explica por que não é loucura sugerir que os chatbots poderiam derrubar governos e argumenta por uma melhor forma de avaliar a inteligência artificial. (Dica: tem a ver com ganhar um milhão de dólares.)

O livro de Mustafa Suleyman, The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma, será lançado em 5 de setembro. Enquanto isso, você pode conferir a cobertura da ENBLE sobre a DeepMind, Inflection AI e tudo relacionado à inteligência artificial.

Lauren Goode é @LaurenGoode. Gideon Lichfield é @glichfield. Ligue para a linha principal em @ENBLE.

Você sempre pode ouvir o podcast desta semana através do player de áudio nesta página, mas se quiser se inscrever gratuitamente para receber todos os episódios, aqui está como fazer:

Se estiver usando um iPhone ou iPad, basta tocar neste link ou abrir o aplicativo chamado Podcasts e pesquisar por Have a Nice Future. Se você usa Android, pode nos encontrar no aplicativo Google Podcasts apenas tocando aqui. Você também pode baixar um aplicativo como Overcast ou Pocket Casts e procurar por Have a Nice Future. Estamos no Spotify também.

Observação: Esta é uma transcrição automática, que pode conter erros.

Gideon Lichfield: Oh Deus, não. Eu pareço um apresentador ruim da BBC lá. Desculpe.

[Risadas]

Lauren Goode: Eu gosto da BBC.

[Música]

Gideon Lichfield: Olá, eu sou Gideon Lichfield.

Lauren Goode: E eu sou Lauren Goode. E este é o Have a Nice Future, um podcast sobre como tudo está mudando assustadoramente rápido.

Gideon Lichfield: A cada semana conversamos com alguém que tem ideias grandes, audaciosas e às vezes perturbadoras sobre o futuro, e perguntamos a eles como todos nós podemos nos preparar para viver nele.

Lauren Goode: Nosso convidado desta semana é Mustafa Suleyman, o cofundador da empresa de IA DeepMind e, mais recentemente, o cofundador e CEO da Inflection AI.

Gideon Lichfield: Ele também é autor de um próximo livro sobre como a IA e outras tecnologias irão dominar o mundo e possivelmente ameaçar a estrutura do estado-nação.

Mustafa Suleyman (trecho de áudio): Agora teremos acesso a AIs de ensino altamente capazes e persuasivas que podem nos ajudar a realizar qualquer intenção sombria que tenhamos. E isso definitivamente vai acelerar os danos, não há dúvida sobre isso. E é isso que temos que enfrentar.

[Música]

Lauren Goode: Então, Gideon, Mustafa é um convidado que ambos queríamos trazer para o podcast, embora acredite que por motivos ligeiramente diferentes. Você o entrevistou recentemente na Collision Conference em Toronto, no palco. Eu falei com ele em outro evento nos bastidores; conversamos sobre seu chatbot, Pi. Mas ao trazê-lo para o Have a Nice Future, eu realmente queria ter uma ideia de por que ele está construindo o que está construindo – tipo, precisamos de mais um chatbot? E qual é a conexão entre um chatbot e a melhoria da humanidade? E acredito que você esteja mais intrigado com alguns dos grandes temas amplos que ele apresenta em seu novo livro.

Gideon Lichfield: Eu acho que ele tem um histórico realmente interessante. Ele é sírio-britânico, trabalhou por um tempo no governo e na resolução de conflitos, depois cofundou a DeepMind com mais algumas pessoas, e o objetivo deles originalmente era resolver a inteligência artificial geral, que é o que a OpenAI também foi criada para resolver. E eles resolveram alguns problemas de IA realmente importantes – como eles basicamente resolveram como vencer o jogo de Go e vários outros jogos, e trabalharam na dobragem de proteínas, o que está mudando rapidamente a forma como a biologia e o desenvolvimento de medicamentos estão sendo feitos. Eles venderam a DeepMind para o Google, e ele trabalhou lá por alguns anos. E então ele saiu do Google, em parte porque disse que era muito burocrático e estava se movendo muito devagar para ele, e fundou a Inflection, que está criando esse chatbot, que, como ouviremos, pretende ser muito mais do que apenas um chatbot, mas não é mais uma tentativa de alcançar a inteligência artificial geral, o que é intrigante. E agora aqui está esse livro, que diz que a IA e a biologia sintética e várias outras tecnologias estão se desenvolvendo tão rapidamente e se tornarão tão difundidas que minarão a própria estrutura de nossa capacidade de governar nossos países e sociedades. Estou realmente interessado em como todas essas coisas se juntam.

Lauren Goode: Certo. Existe uma trajetória de construção de IA, construção de IA, construção de IA … Espera aí. Quão preocupados devemos estar?

Gideon Lichfield: O que estamos construindo?

Lauren Goode: Sim. Reunir todas essas ideias é meio que a pergunta fundamental que eu tinha para ele, especialmente porque ele tem estado tanto entusiasmado com as possibilidades da IA quanto agora alertando sobre seu rápido avanço e suas ameaças, e eu realmente queria me aprofundar nos detalhes disso. Mas vou dar isso a Mustafa: Ele transmite uma humanidade muito grande nessa conversa, o que talvez não possamos dizer sobre todos os empreendedores de IA com quem conversamos.

Gideon Lichfield: Sim, muitas pessoas que temos no programa falam sobre construir a tecnologia e deixar a sociedade resolver os problemas e como regulá-la. E, para ser justo, Mustafa também parece acreditar, como você vai ouvir, que você precisa construir a coisa primeiro e depois descobrir onde seus perigos podem estar. Mas acho que pelo menos ele tem respostas mais ponderadas do que alguns sobre quais podem ser esses perigos e como devemos começar a nos preparar.

Lauren Goode: E tudo isso está na conversa que vem logo após o intervalo.

[Música]

Gideon Lichfield: Mustafa Suleyman, bem-vindo ao Have a Nice Future.

Mustafa Suleyman: Gideon, oi. É ótimo estar aqui.

Lauren Goode: É ótimo tê-lo no programa.

Mustafa Suleyman: Ei, Lauren, obrigado por me receber.

Lauren Goode: Na verdade, eu perguntei ao Pi, abri o aplicativo quando soube que você viria, e perguntei o que eu deveria perguntar a você neste podcast. Ele disse: “Ooh, isso é empolgante, ponto de exclamação. Mustafa Suleyman é um pensador e inovador incrível -“.

Mustafa Suleyman: Oh, Deus. [Risos]

Lauren Goode: “E seu livro certamente estará repleto de insights. Posso perguntar que tipo de podcast você tem e o que você quer obter com a entrevista?” E assim por diante. Minha percepção disso é que o conjunto de dados pode estar um pouco tendencioso. O que você acha?

[Risadas]

Mustafa Suleyman: Você deveria refazer a pergunta e ver se é diferente. Pode vir com o mesmo entusiasmo, mas certamente não foi roteirizado por nós, eu prometo. [Risos]

Lauren Goode: Mas existem muitos assistentes de chatbot com IA personalizada por aí agora. Eles estão fazendo o maior sucesso desde que a OpenAI lançou seu chatbot no final de 2022. Por que você decidiu usar um chatbot?

Mustafa Suleyman: Acredito que a conversa será a nova interface. Se você der um passo para trás por um momento e olhar para o seu computador ou até mesmo para o seu telefone, verá um grande número de botões e ícones na navegação inferior em um verdadeiro mundo de sonho multicolorido. E é uma experiência bastante avassaladora. Isso porque não foi projetado com uma interface limpa e unificada voltada para os humanos como primeiro princípio de design. É a junção dessas duas necessidades, tradução humana e as necessidades do computador. E acredito que a próxima onda será aquela em que você passa a maior parte do tempo conversando com sua IA, essa é a principal forma de controle.

Gideon Lichfield: Você cofundou a DeepMind cerca de 12 anos atrás e, assim como a OpenAI, tinha a missão de desenvolver inteligência artificial geral de forma ética e segura. E 12 anos depois, você fundou a Inflection AI e, desta vez, disse que não está trabalhando em direção à IA geral. Então, por quê? O que mudou e qual é o seu objetivo agora?

Mustafa Suleyman: Fundamos a DeepMind em 2010 e o lema era construir uma inteligência artificial geral segura e ética, um sistema capaz de se sair bem em uma ampla gama de ambientes. Essa era a missão da DeepMind, a crença de que temos que aprender tudo do zero. Agora, na Inflection, estamos desenvolvendo uma IA chamada Pi, que significa Inteligência Pessoal, e ela está mais focada em ser uma IA pessoal. Bem diferente de uma IA que aprende qualquer habilidade profissional desafiadora. Uma IA pessoal, na nossa visão, é aquela que está muito mais próxima de um assistente pessoal; é como um chefe de gabinete, um amigo, um confidente, um apoio, e ela vai chamar o recurso certo no momento certo, dependendo da tarefa que você der a ela. Então, ela tem elementos de generalidade, mas não foi projetada com a generalidade como primeiro princípio, como objetivo principal de design.

Gideon Lichfield: Você acha que a IA geral é perigosa? É por isso que você não está fazendo isso, ou você simplesmente não acha que é possível?

Mustafa Suleyman: Até agora, ninguém propôs nem mesmo uma estrutura teórica convincente que me dê confiança de que seria possível conter uma IA geral que tivesse capacidades significativas de melhoria recursiva de si mesma.

Lauren Goode: Como seus pensamentos sobre a IA geral e como ainda não houve um framework real comprovado, nem mesmo teoricamente, para isso, informaram o tipo de modelo que você está construindo?

Mustafa Suleyman: Acho que essa é a maneira correta de pensar sobre isso. O estreito é mais provável de ser seguro, embora isso não seja garantido. O mais geral é mais provável de ser autônomo e, portanto, um pouco menos seguro. E nossa IA é uma IA pessoal, o que significa que ela foi projetada principalmente para uma boa conversa e, com o tempo, ela aprenderá a fazer coisas para você. Então ela será capaz de usar APIs, mas isso não significa que você possa instruí-la da mesma maneira que instrui outro modelo de linguagem, porque isso não é um modelo de linguagem, o Pi é uma IA. O GPT é um modelo de linguagem. São coisas muito, muito diferentes.

Gideon Lichfield: Qual é a diferença?

Mustafa Suleyman: A primeira etapa de montar uma IA é treinar um grande modelo de linguagem. A segunda etapa é o que chamamos de ajuste fino, onde você tenta alinhar ou restringir as capacidades do seu modelo pré-treinado de forma muito ampla para fazê-lo executar uma tarefa específica. Para nós, essa tarefa é a conversa, o ensino, o compartilhamento de conhecimento, o entretenimento e a diversão, mas para outras empresas, elas realmente querem expor isso como uma API, para que você tenha acesso ao modelo pré-treinado com todas essas outras capacidades. E é aí que acho que o desafio de segurança se torna um pouco mais difícil.

Gideon Lichfield: No futuro próximo, o futuro próximo que você está descrevendo, todo mundo tem uma espécie de assistente de IA pessoal ou chefe de equipe, como você chamou, que pode fazer tarefas para eles, e talvez possa reservar viagens ou organizar viagens ou fazer algumas pesquisas para eles.

Lauren Goode: Em breve, ele vai apresentar nosso podcast para nós, Gideon.

Gideon Lichfield: Bem, sim, essa é uma boa pergunta. Ele vai nos substituir? Ele vai substituir nossos produtores? Mas, mais importante, acho que nesse mundo em que todos têm esses assistentes de IA, você sugeriu que isso ajuda a tirar as pessoas da pobreza, cria novas oportunidades econômicas. Há 20 anos, ninguém tinha smartphones, e era difícil imaginar como o mundo seria mudado ao ter smartphones, e hoje todos nós temos esses computadores nos nossos bolsos que nos permitem fazer coisas incríveis. Mas em um nível estrutural fundamental, o mundo não é diferente. Ainda existem as mesmas desigualdades, ainda existem os mesmos conflitos. Então, como um mundo em que todos têm um assistente de IA é diferente do mundo de hoje?

Mustafa Suleyman: Sim. Não acho que concordaria que não há nada estruturalmente diferente no mundo nos últimos 20 anos. Eu não iria tão longe a ponto de atribuir todos os benefícios aos smartphones, mas certamente acho justo dizer que os smartphones nos tornaram mais inteligentes, mais espertos, nos deram acesso à informação, nos permitiram nos conectar com novas pessoas e construir negócios enormes com base nesse hardware. Então, está claro—

Gideon Lichfield: Também nos deu acesso maciço a desinformação e nos ajudou a desperdiçar muito tempo com todo tipo de distrações que nem sempre são boas para nós. Então acho que você pode fazer alguns contra-argumentos.

[Conversa sobreposta]

Lauren Goode: Nos tornou muito piores em dirigir veículos.

[Risadas]

Mustafa Suleyman: Sim. Olha, definitivamente não sou um tecnólogo ingênuo e otimista, então há indiscutivelmente imensos aspectos negativos e danos. Mas a maneira como penso em uma IA pessoal não é muito diferente da chegada de um smartphone. Um smartphone basicamente colocou o dispositivo móvel mais poderoso que nossa espécie é capaz de inventar nas mãos de mais de um bilhão de pessoas, então não importa o quão rico você seja, seja um bilionário ou ganhe um salário regular, agora todos nós temos acesso ao mesmo hardware de ponta. Acho importante afirmar desde o início que essa é a trajetória em que estamos, e acho isso incrível.

Gideon Lichfield: Eu acredito que também é possível argumentar que uma nova tecnologia pode trazer à tona nossos piores impulsos, assim como os melhores. E assim, alguém poderia plausivelmente dizer: “Assistentes de IA terão tantos aspectos negativos quanto positivos, da mesma forma que os smartphones fazem”.

Mustafa Suleyman: Essa é a outra face de ter acesso a informações na web. Agora teremos acesso a IA de ensino altamente capazes e persuasivas que podem nos ajudar a realizar qualquer tipo de intenção obscura que tenhamos. E essa é a coisa com a qual temos que lidar, isso vai ser sombrio, definitivamente vai acelerar danos – sem dúvida alguma. E é isso que temos que enfrentar.

Lauren Goode: Você consegue traçar uma linha entre essa ideia de que aqui está uma IA pessoal que conclui tarefas para você ou lhe dá maior acesso a informações para “Isso vai ajudar a resolver a pobreza”? Como isso realmente funciona? Essa IA, Pi, aqui está seu chatbot, acabou de me dar uma piada engraçadinha para este podcast, ajuda a acabar com a pobreza.

Mustafa Suleyman: É uma pergunta difícil. Eu não juntei essas duas coisas, não disse que vai resolver a pobreza ou acabar com a fome mundial. [Risada] Isso não é para isso que o Pi foi projetado. O Pi é uma IA pessoal que vai te ajudar como indivíduo a ser mais produtivo. Outras pessoas usarão os avanços em inteligência artificial para diversas finalidades, incluindo potencializar a ciência. Então, no âmbito científico, eu consigo ver totalmente isso sendo uma ferramenta que te ajuda a filtrar artigos de forma mais eficiente, que te ajuda a sintetizar os últimos avanços, que te ajuda a armazenar e registrar todas as suas ideias e te ajuda a ser um pesquisador mais eficiente. Quer dizer, o jeito de pensar nisso é que estamos comprimindo o conhecimento disponível na internet em pedaços digeríveis de forma personalizada. Há uma quantidade enorme de informações disponíveis agora que podem ser reproduzidas de forma altamente personalizada, o que acho que vai potencializar a inteligência das pessoas, e isso, por si só, as tornará muito mais produtivas. Acredito que, de maneira geral, ter um assistente pessoal provavelmente vai te tornar uma pessoa mais inteligente e produtiva.

Gideon Lichfield: Você está trabalhando na Inflection no curto prazo da inteligência artificial, mas você tem um livro sendo lançado, que começa falando sobre esse futuro próximo da IA e termina prevendo o possível colapso do Estado-nação. Você quer nos dar um resumo do argumento?

Mustafa Suleyman: Com a onda de IA, a escala desses modelos cresceu em uma ordem de magnitude de 10 vezes a cada ano nos últimos 10 anos. E estamos em uma trajetória para aumentar em 10 vezes a cada ano nos próximos cinco anos, e isso é muito, muito previsível e muito provável de acontecer.

Lauren Goode: E a premissa do seu livro é que não estamos prontos para isso?

Mustafa Suleyman: Nós definitivamente não estamos prontos, porque esse tipo de poder fica cada vez menor e mais eficiente, e sempre que algo é útil na história da invenção, tende a ficar mais barato, tende a ficar menor e, portanto, se prolifera. Então, a história da próxima década é uma proliferação de poder, o que acredito que vai representar uma ameaça genuína ao Estado-nação, diferente de qualquer coisa que tenhamos visto desde o nascimento do Estado-nação.

Lauren Goode: Você se considera uma pessoa com poder?

Mustafa Suleyman: Sim.

Lauren Goode: Que poder é esse?

Mustafa Suleyman: Bem, sou rico, vendi minha empresa em 2014 e agora tenho uma nova empresa. Sou educado. Basicamente, me tornei parte da elite desde a minha vida adulta. Eu cresci como um jovem de classe trabalhadora muito pobre de famílias imigrantes sem educação na minha família, mas agora definitivamente estou no grupo privilegiado. [Risada]

Lauren Goode: Então você está em uma posição única, porque em seu livro, você está chamando a atenção para esse desequilíbrio de poder que você antecipa que está chegando na próxima onda.

Mustafa Suleyman: Certo.

Lauren Goode: Mas você mesmo é uma pessoa poderosa que, no fim das contas, pode – é como se você pudesse ajustar um pouco os parâmetros com a IA que você mesmo está construindo.

Mustafa Suleyman: Exatamente. E acredito que a contenção é o tema, acredito, da próxima década.

Gideon Lichfield: Bem, vamos falar sobre essa ideia de contenção no livro, porque é um termo que você empresta da Guerra Fria. Naquele contexto, significava conter uma arma ou um Estado. Mas é obviamente uma questão muito diferente conter uma tecnologia que pode estar nas mãos de bilhões de pessoas. Qual é a essência da contenção, na sua opinião, para essas tecnologias hoje?

Mustafa Suleyman: Não há um estado perfeito em que o jogo acaba e conseguimos conter completamente uma tecnologia, porque as tecnologias continuarão a ficar mais baratas e mais fáceis de usar, continuará a haver uma grande demanda por elas. E, ao contrário de qualquer outra tecnologia anterior, essas são tecnologias de uso oni, são inerentemente gerais, podem ser usadas para tudo e qualquer coisa intermediária. E, assim, tentar demarcar e definir quais partes da tecnologia devem ser restritas, atualmente, os governos não têm realmente a capacidade de fazer essa avaliação em tempo real. É por isso que tenho sido muito favorável e participei dos compromissos voluntários da Casa Branca. E, portanto, acho que este é um exemplo de ser proativo e cauteloso e incentivar restrições autoimpostas sobre o tipo de coisas que podemos fazer, nos maiores modelos. E, assim, ficamos presos por esse limite, um limite autoimposto em que os maiores modelos têm que ser extra deliberados, atentos e cautelosos na forma como abordam o treinamento e a implantação.

Lauren Goode: Então, como você concilia isso? Como você diz: “Acabamos de assinar um compromisso, estamos procurando voluntariamente criar garantias ou salvaguardas, mas também este ano estamos treinando o maior modelo de linguagem do mundo”.? Isso é uma boca cheia, o maior modelo de linguagem grande do mundo. O que isso realmente significa? Quando empresas como a sua assinam um compromisso dizendo: “Vamos investigar coisas como proveniência e vamos criar soluções em torno disso”. Ou “Vamos garantir que nossos conjuntos de treinamento não sejam tendenciosos”. No dia a dia, o que isso significa que sua equipe, seus engenheiros estão fazendo para tornar isso mais seguro?

Mustafa Suleyman: Gostaríamos de saber quais dados de treinamento foram incluídos no modelo, qual é o método e o processo de ajuste fino e restrição das capacidades desses modelos? Quem pode auditar esse processo? Então, o jogo aqui é tentar exercitar o músculo do princípio da precaução cedo, para que tenhamos o hábito e a prática de fazê-lo à medida que as coisas mudam nos próximos cinco a 10 anos.

Gideon Lichfield: Se eu fosse um cínico, o que é claro que não sou de jeito nenhum…

Mustafa Suleyman: [Risos] De jeito nenhum.

Lauren Goode: Não é o Gideon.

Gideon Lichfield: Eu poderia dizer que você e as empresas de IA estão criando um acordo muito bom para vocês mesmos, porque vocês estão dizendo ao governo: “Olhe, você, governo, não pode entender o suficiente sobre isso para regulamentar, então vamos estabelecer voluntariamente algumas salvaguardas, vamos direcionar a agenda, vamos decidir o quão precaucionário o princípio da precaução precisa ser”. E, então, acho que a pergunta que estou fazendo é: qual é o incentivo do setor privado, que lidera a conversa porque tem o conhecimento necessário, para estabelecer padrões que sejam realmente bons para a sociedade?

Mustafa Suleyman: Se pudéssemos aprovar uma regulamentação formal, acho que seria um bom começo. Mas você está certo, uma boa regulamentação, acredito, é uma função de grupos muito diversos de pessoas se manifestando e expressando suas preocupações e participando do processo político. E, no momento, estamos um pouco sobrecarregados por apatia, raiva e polarização. E ainda assim, este é o momento crítico, acho, em que há tempo de sobra, temos muitos anos para tentar acertar isso. Acredito que temos uma boa década em que podemos ter a conversa popular, e é em parte isso que estou tentando fazer com o livro e em parte o que outros estão tentando fazer com os compromissos voluntários também.

Gideon Lichfield: Quais são alguns dos cenários que você prevê que a maioria das pessoas provavelmente nem consegue imaginar que podem acontecer se não conseguirmos manter essas tecnologias sob controle?

Mustafa Suleyman: Bem, acredito que daqui a uns 15 ou 20 anos, poderíamos imaginar atores não estatais muito poderosos. Pense em cartéis de drogas, milícias, criminosos organizados, apenas uma organização com a intenção e motivação de causar graves danos. E se a barreira de entrada para iniciar e realizar conflitos estiver diminuindo rapidamente, então o estado tem uma pergunta desafiadora, que é: como ele continua a proteger a integridade de suas próprias fronteiras e o funcionamento de seus próprios estados? Se grupos cada vez menores de pessoas puderem exercer um poder semelhante ao de um estado, esse é basicamente o risco da próxima onda.

Lauren Goode: Estou muito intrigada com o que você está fazendo com a Inflection, porque quando penso em seu histórico, você trabalhou em política, trabalhou em causas sociais, é claro que acabou co-fundando o DeepMind e depois trabalhou no Google. Mas você também escreveu um livro e parece ter essas intenções diplomáticas, acredita na colaboração. Por que você é um fundador de startup?

Mustafa Suleyman: Sou mais feliz quando estou criando coisas. O que realmente amo fazer é entender profundamente como algo funciona, e gosto de fazer isso em um nível micro. Adoro ir do micro para o macro, mas não posso ficar apenas no macro. Sou obcecado por fazer isso diariamente, e acho que isso é a parte empreendedora de mim. Adoro “O que vamos lançar amanhã? O que vamos fazer? O que vamos construir?” Se tivesse que escolher entre os dois, isso é o que me faz mais feliz, e é o que gosto de fazer na maior parte do tempo.

Lauren Goode: E você acha que trabalhar fora do mundo das startups seria apenas uma luta, parece isso? Você não teria tanta gratificação—

Mustafa Suleyman: É muito lento.

[Risadas]

Lauren Goode: … ao ver os efeitos de seus esforços.

Mustafa Suleyman: Preciso de feedback. E preciso de medição—

Lauren Goode: Você precisa de feedback. Você poderia ser um jornalista. Temos que publicar coisas o tempo todo, e recebemos muitos feedbacks online. Posso ler alguns dos comentários para você.

[Risadas]

Mustafa Suleyman: Lamento ouvir isso. Espero que nossa IA possa ser gentil e de apoio a você e depois lidar com todos aqueles malvados no Twitter. [Risada]

Lauren Goode: E apenas para deixar claro, não usamos IA em nossos relatórios da ENBLE.

Mustafa Suleyman: Ainda não.

Lauren Goode: Ah, rapaz. É um podcast totalmente diferente.

[Risadas]

Gideon Lichfield: Mas talvez usemos Pi para nos salvar de todas as maldades do Twitter, como Mustafa disse.

Lauren Goode: Talvez. [Risada]

Gideon Lichfield: Desculpe. Em X, em X. Não no Twitter, não mais.

Lauren Goode: Isso mesmo.

Mustafa Suleyman: Oh, cara.

Gideon Lichfield: Você deixou o Google para fundar a Inflection, e você falou publicamente sobre como estava frustrado com a lentidão no Google, a burocracia. Você disse que eles poderiam ter lançado seu próprio modelo de linguagem grande um ano ou mais antes do OpenAI lançar o ChatGPT. Parece estar um pouco em conflito com essa cautela que você expressa no livro, ao dizer: “Por um lado, precisávamos nos mover mais rápido no Google e eu quero lançar coisas todos os dias, e por outro lado, precisamos ter muito cuidado ao lançar coisas porque o mundo não está pronto para lidar com isso.”

Mustafa Suleyman: Sim. Pude ver, ao interagir com a LaMDA todos os dias, que ela não estava nem perto de causar danos significativos – assim como o GPT-4, acho que seria difícil argumentar que ele causou algum dano material no mundo.

Gideon Lichfield: Ainda não.

Lauren Goode: Bem jogado, Gideon.

Mustafa Suleyman: Possivelmente. Duvido. Já foi usado por bilhões de pessoas. Talvez. Veremos. Acho que teremos que ver daqui a alguns anos. Mas acho modelos desse tamanho bem improváveis, e isso foi bem óbvio para mim na época. E acho que a melhor maneira de operar é simplesmente colocar as coisas sensatamente lá fora. Isso não significa que você tem que ser imprudente, mas você tem que obter feedback e medir o impacto e ser muito atencioso e iterativo, uma vez que você vê as pessoas usando de certas maneiras.

Gideon Lichfield: Quero te perguntar sobre algo que você propôs chamado de Teste de Turing Moderno. Você sugeriu que precisamos de uma nova maneira de avaliar a inteligência, em vez da ideia ultrapassada de algo que possa apenas parecer humano. Um dos exemplos que você propôs de uma máquina que poderia passar nesse teste de Turing ou algo para o qual você pode dizer: “Faça um milhão de dólares a partir de uma quantia menor”. E ela vai lá e faz. Por que essa foi sua referência?

Mustafa Suleyman: Uma versão moderna do Teste de Turing, na minha opinião, é aquela em que você pode dar um objetivo bastante abstrato para uma IA. Eu escolhi “Produza um produto, faça-o ser fabricado, promova-o e tente fazer um milhão de dólares”. Acho que a primeira onda do Teste de Turing Moderno teria uma quantidade razoável de intervenção humana, talvez três ou quatro ou cinco momentos em que um humano precisaria fazer um contrato, abrir uma conta bancária, todas as aprovações legais e financeiras envolvidas. Mas acho que a maioria dos outros elementos, enviar emails para os fabricantes na China, fazer drop-shipping, tentar otimizar o marketing produzindo novos conteúdos de marketing, todos esses elementos como componentes individuais, estamos quase lá. O desafio será juntá-los em uma sequência de ações, tendo em vista esse objetivo amplo.

Lauren Goode: Isso é tão interessante, porque inicialmente eu pensei: “Ah, isso é apenas um teste de Turing para ver se você pode transformar uma IA em um capitalista de risco em um curto período de tempo?” Mas entendi o que você está dizendo, que precisa haver essa ligação, e é isso que está faltando. Então, o que te mantém acordado à noite?

Mustafa Suleyman: Acho que o maior desafio da próxima década será a proliferação do poder, que amplificará a desigualdade e acelerará a polarização, porque será mais fácil espalhar desinformação do que nunca. E acho que isso vai abalar nosso mundo atualmente instável.

Gideon Lichfield: Você acha que a IA tem algumas soluções para isso, além de ser a causa de alguns dos problemas?

Mustafa Suleyman: Curiosamente, acho que serão as plataformas tecnológicas que terão um papel bastante importante aqui, porque elas desempenham uma função importante na moderação da web. Acho que devemos nos familiarizar muito mais com a ideia de moderação constante em tempo real das principais plataformas e da própria web. Acho que será muito difícil saber quem produziu qual conteúdo, e a única maneira real de policiar isso é que as plataformas terão que tornar isso uma regra.

Lauren Goode: Uma pergunta final para você. Depois que o Pi, seu assistente pessoal, terminou de elogiar você, eu pedi a ele perguntas mais difíceis para fazer a você, e uma das coisas que ele disse foi: “Se você tivesse que escolher uma coisa que gostaria que as pessoas parassem de fazer hoje para termos um futuro melhor, o que seria?”

Mustafa Suleyman: Acho que seria assumir que a outra pessoa tem más intenções. Olhamos além um do outro, e quase que subconscientemente escolhemos não ouvi-los porque já rotulamos suas más intenções. Acho que se nos aproximarmos uns dos outros tentando realmente nos colocar no lugar do outro – quanto mais faço isso, mais humilde me sinto. É algo difícil de fazer. Pi definitivamente conseguiu me fazer uma pergunta difícil.

Lauren Goode: Todos nós devemos encontrar nossas próprias maneiras de fazer um pouco de trabalho de campo, é o que você está dizendo.

Mustafa Suleyman: Sim, você tem que ir e tocar, cheirar, respirar e fazer parte de um ambiente diferente do que está acostumado.

[Música]

Gideon Lichfield: Isso foi muito divertido, Mustafa, muito obrigado por se juntar a nós em Have a Nice Future.

Mustafa Suleyman: Muito obrigado. Foi divertido.

[Música]

Lauren Goode: Gideon, estou muito intrigada com o que impulsiona o Mustafa. Ele tem uma origem interessante – ele não é o cara branco comum, que abandonou Stanford, começou um aplicativo, é tecnólogo. Ele tem uma perspectiva global. Claramente, ele quer ser uma espécie de líder de pensamento. Mas acredito que também diz algo sobre nossa sociedade capitalista e a influência incrível de alguns dos nossos capitalistas mais bem-sucedidos, que ele vê o setor privado como o lugar onde ele pode tanto criar coisas quanto ter influência. Que impressão você teve ao conversar com ele sobre o que o motiva?

Gideon Lichfield: Ele disse na entrevista que gosta de construir coisas e que gosta de lançar algo todos os dias, gosta de ter essa motivação para fazer as coisas avançarem. E parece que ele também acredita que a maneira de explorar esses problemas complexos sobre o que a tecnologia fará com o mundo é construindo a própria tecnologia. Ele menciona no livro que sua experiência no governo e seu trabalho em resolução de conflitos inspiraram algumas das perguntas que ele está se fazendo hoje sobre como governamos nossas sociedades. É difícil dizer o quanto disso é real e o quanto é uma construção narrativa, como as pessoas em sua posição inevitavelmente fazem, mas definitivamente há uma mente preocupada com esses problemas, acredito, e tentando encontrar as respostas corretas.

Lauren Goode: Então, eu sei que você devorou o livro, que devemos observar que o Mustafa coescreveu com outra pessoa. O que você achou do livro?

Gideon Lichfield: Bem, achei o livro muito intrigante, porque ele está levantando as mesmas perguntas nas quais estou muito interessado agora e pretendo continuar trabalhando depois que deixar a ENBLE no final deste ano – que essencialmente é: como governamos nossas sociedades no século XXI quando nossas instituições foram projetadas no século XVIII? E hoje temos um mundo onde a tecnologia está avançando muito mais rápido, estamos muito mais interconectados, tudo é muito maior e mais complexo, e essas instituições que criamos séculos atrás não estão realmente à altura do desafio. Sua extrapolação de como as tecnologias que temos hoje vão influenciar o futuro realmente me impactou, e ao mesmo tempo levantou algumas dúvidas, porque não tenho certeza se compartilho da sua otimismo sobre o quão poderosos os modelos de IA se tornarão. Obviamente, ele sabe mais sobre IA do que eu, então talvez eu devesse acreditar nele. Mas, por outro lado, acho que vimos muitos fundadores de empresas de tecnologia fazerem previsões ousadas sobre o que a tecnologia pode fazer e que acabaram não se concretizando.

Lauren Goode: Eu concordo com você, essa taxa exponencial com que a IA vai continuar avançando pode não necessariamente atingir o alvo, mas achei importante o ponto que ele fez sobre como isso diminui as barreiras de acesso a essas ferramentas para todos. Porque vou admitir, podemos ser um pouco míopes, experimentamos a tecnologia através de nossa própria visão, nosso próprio mundo, nossas próprias experiências. Mesmo às vezes, apesar de tentarmos abordar uma ampla gama de tópicos de tecnologia, ainda não vemos todos os ângulos. E eu achei interessante o que ele disse, por exemplo, sobre as habilidades dos atores não estatais de utilizar e empregar essas ferramentas. Se a barreira de entrada para iniciar e realizar conflitos for reduzida, então isso é uma questão desafiadora, como se pessoas menores também pudessem usar essas ferramentas. De repente, você está falando sobre problemas de IA potenciais que são muito maiores do que apenas “Meu chatbot é capaz de me fornecer terapia ou processar minha solicitação de renovação de passaporte?”

Gideon Lichfield: Sim, acho que talvez meu ceticismo seja porque, quando olho para o impacto que a tecnologia teve nos últimos, digamos, dez anos ou mais, vejo tanto mais quanto menos impacto do que se poderia esperar. Então, olhamos para a Primavera Árabe e vemos como as mídias sociais foram eficazes em permitir levantes e a derrubada de governos e movimentos populares, mas 10 anos depois, o Oriente Médio ainda parece praticamente o mesmo do que antes, porque basicamente os autoritários se adaptaram às mesmas técnicas que os revolucionários estavam usando, e as estruturas de poder e riqueza essenciais na região não mudaram muito. Isso não apagou a ideia de Estado-nação, não apagou a ideia de fronteiras, não virou o mundo de cabeça para baixo em um sentido macro. E então, quando penso nas previsões de Mustafa de que atores não estatais usarão IA generativa para, de alguma forma, fundamentalmente abalar a estrutura política do mundo, consigo ver maneiras pelas quais isso pode acontecer localmente, mas acho que se você olhar para o todo, o mundo não parecerá muito diferente daqui a 20 ou 30 anos do que parece hoje. Mas quem sabe, eu ainda posso estar errado.

Lauren Goode: Sério? Você não acha que o mundo mudou de maneiras importantes desde a internet?

Gideon Lichfield: Claro, acho que o mundo mudou enormemente e, se olharmos para nossas vidas cotidianas, elas são imensamente diferentes do que eram antes de termos a internet. Mas se eu ampliar a visão e olhar para o quadro mais amplo, acho que ainda vejo um mundo em que alguns países dominam a política, algumas pessoas ricas dominam os negócios e a sociedade, essas desigualdades estão aumentando, não diminuindo, apesar do chamado efeito democratizante da tecnologia. As formas como os seres humanos negociam poder e influência ainda são fundamentalmente as mesmas. Talvez eu esteja sendo muito cínico, mas em algum nível, vejo a sociedade humana como sendo praticamente a mesma de sempre, independentemente da tecnologia que temos.

Lauren Goode: Também fiquei feliz que ele explicou seu pensamento por trás do teste de Turing reimaginado. [Risos]

Gideon Lichfield: Porque você estava pensando: “Por que o teste de Turing é um teste de quão bom um robô capitalista pode ser?”

Lauren Goode: Exatamente, sim. Parecia para mim que a interpretação do teste de Turing como se um robô pudesse ganhar um milhão de dólares era realmente grosseira, mas então ele explicou o que ele quis dizer, e agora, isso parece ser uma das lacunas no desenvolvimento da IA. Mesmo algumas das ferramentas de IA generativa mais sofisticadas, há essa lacuna de execução. Você pode ter uma sessão de brainstorm realmente impressionante ou até mesmo uma sessão de terapia com um robô, mas no momento em que você diz: “OK, renove meu passaporte para mim”, provavelmente ele não consegue fazer isso. Todas as partes ainda não estão conectadas. E então, acho que ele usou a ideia de que ele pode investir dinheiro e ganhar dinheiro para você enquanto você dorme, como uma determinação de se isso está realmente funcionando ou não.

Gideon Lichfield: Sim. E acho que uma das perguntas para mim é: quantas dessas barreiras têm a ver apenas com o poder dos modelos? Você os torna mais poderosos e, eventualmente, eles descobrem como fazer todas as coisas. E quanto disso são problemas realmente bobos e triviais que o computador não consegue resolver porque você ainda precisa de um humano para conectá-lo às APIs corretas ou dar-lhe acesso aos dados corretos? Na mesma conferência em que entrevistei o Mustafa no palco, conheci alguém que estava brincando com um agente de IA rudimentar. E o que era basicamente um modelo de linguagem grande conectado a algumas APIs e alguns serviços da web. E o que ele havia feito era usá-lo para raspar a lista de participantes da conferência, que tinha milhares de pessoas, e recomendar a ele 100 pessoas com as quais ele deveria tentar se conectar. E isso me pareceu um caso realmente útil para uma IA, se você pudesse fazê-la funcionar. E eu pude perceber que onde isso poderia falhar era, em primeiro lugar, ele teve que construir a coisa que permitiu que ela raspasse os dados do site da conferência, ela não conseguiu descobrir como fazer isso sozinha. E assim, frequentemente, há um humano fazendo essas conexões entre diferentes serviços digitais para que eles possam funcionar juntos. Mas então a outra questão era: quão bem o seu IA te conhece? E quão bem ela será capaz de fazer recomendações para você de pessoas com quem você deve falar na conferência? E a diferença entre fazer recomendações que são apenas mais ou menos OK e aquelas que são realmente muito boas pode depender de uma enorme quantidade de conhecimento sobre você e dados sobre você que você pode não ser capaz de fornecer porque esses dados podem não existir em uma forma que ela possa digerir. Acho que é nesse tipo de aplicação muito específica que começaremos a perceber o quão poderosa a IA é ou o quanto mais será necessário para que ela seja útil. E eu realmente não acho que tenhamos uma boa noção ainda de quão difícil isso vai ser.

Lauren Goode: E no final do dia, você ainda teria que participar de todas essas reuniões. Você, Gideon.

Gideon Lichfield: Sim, eu ainda teria que participar de todas essas reuniões. Suponho que o próximo passo seja construir uma IA que possa participar das reuniões por mim e depois transferir os resultados para o meu cérebro. E isso não é algo que veremos tão cedo.

[Música]

Lauren Goode: Isso é tudo para o nosso programa de hoje. Obrigado por ouvir. Você pode ler o livro do Mustafa, “The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma”, quando for lançado nas livrarias em 5 de setembro.

Gideon Lichfield: Have a Nice Future é apresentado por mim, Gideon Lichfield.

Lauren Goode: E por mim, Lauren Goode. Se você gosta do programa, nos diga, deixe uma avaliação e um comentário onde você ouve seus podcasts. Adoramos ler seus comentários. E não se esqueça de se inscrever para receber novos episódios toda semana.

Gideon Lichfield: Você também pode nos enviar um e-mail para [email protected].

Lauren Goode: Have a Nice Future é uma produção da Condé Nast Entertainment. Danielle Hewitt, da Prologue Projects, produz o programa. Nossa assistente de produção é Arlene Arevalo.

Gideon Lichfield: E estaremos de volta aqui na próxima quarta-feira. Até lá, tenha um futuro agradável.


Se você comprar algo usando os links em nossas histórias, podemos receber uma comissão. Isso ajuda a apoiar nosso jornalismo. Saiba mais.