O código aberto é na verdade o berço da inteligência artificial. Aqui está o porquê

O código aberto é, na verdade, o pioneiro da inteligência artificial. Aqui está o motivo'.

keep-ai-open-source-smaller-may-2023

De certa forma, o código aberto e a inteligência artificial nasceram juntos. Em 1971, se você mencionasse IA para a maioria das pessoas, elas talvez pensassem nas Três Leis da Robótica de Isaac Asimov. No entanto, naquele ano, a IA já era um assunto real no MIT, onde Richard M. Stallman (RMS) se juntou ao Laboratório de Inteligência Artificial do MIT.

Recursos Especiais

zd-del2

A Interação entre a IA Generativa e a Engenharia

O avanço da IA generativa pode aproveitar um tremendo potencial para o campo da engenharia. Mas também pode apresentar desafios, enquanto empresas e engenheiros tentam entender o impacto da IA em seus papéis, estratégias de negócios, dados, soluções e desenvolvimento de produtos. Como será o caminho do futuro para incorporar a IA generativa no cenário do software? A ENBLE decodifica de todas as perspectivas.

Leia agora

Anos depois, à medida que surgia o software proprietário, RMS desenvolveu a ideia radical do Software Livre. Décadas depois, esse conceito, transformado em software de código aberto, se tornaria o berço da IA moderna.

Não foi um escritor de ficção científica, mas um cientista da computação, Alan Turing, que começou o movimento da IA moderna. O artigo de Turing de 1950, Máquina de Computação e Inteligência, originou o Teste de Turing. Resumidamente, o teste afirma que, se uma máquina consegue te enganar a ponto de você pensar que está conversando com um ser humano, então ela é inteligente.

De acordo com algumas pessoas, a IA de hoje já pode fazer isso. Eu não concordo, mas estamos claramente a caminho.

Também: Os melhores chatbots de IA: ChatGPT e alternativas

Em 1960, o cientista da computação John McCarthy cunhou o termo “inteligência artificial” e, ao longo do caminho, criou a linguagem Lisp. O feito de McCarthy, como o cientista da computação Paul Graham colocou, “fez pelo programação algo semelhante ao que Euclides fez pela geometria. Ele mostrou como, fornecendo alguns operadores simples e uma notação para funções, você pode construir uma linguagem de programação completa.”

O Lisp, no qual dados e código são misturados, tornou-se a primeira linguagem da IA. Também foi o primeiro amor de programação de RMS.

Então, por que não tínhamos um GNU-ChatGPT nos anos 1980? Existem várias teorias. A que eu prefiro é que a IA inicial tinha ideias corretas, mas na década errada. O hardware não estava à altura do desafio. Outros elementos essenciais, como Big Data, ainda não estavam disponíveis para ajudar a IA real a começar. Projetos de código aberto como Hadoop, Spark e Cassandra forneceram as ferramentas de que a IA e a aprendizagem de máquina precisavam para armazenar e processar grandes quantidades de dados em grupos de máquinas. Sem esses dados e acesso rápido a eles, Modelos de Linguagem Grandes (LLMs) não poderiam funcionar.

Também: Meus dois plugins favoritos do ChatGPT Plus e as coisas notáveis que posso fazer com eles

Hoje, até Bill Gates – que não é fã de código aberto – admite que a IA baseada em código aberto é a maior coisa desde que ele foi introduzido à ideia de uma interface gráfica do usuário (GUI) em 1980. A partir dessa ideia de GUI, você pode se lembrar, Gates criou um pequeno programa chamado Windows.

Em particular, os modelos gerativos de IA AI generative models, como o ChatGPT e o Llama 2, que são extremamente populares hoje em dia, surgiram a partir de origens de código aberto. Isso não quer dizer que o ChatGPT, o Llama 2 ou o DALL-E sejam de código aberto. Não são.

Oh, eles deveriam ser. Como disse Elon Musk, um investidor inicial da OpenAI: “A OpenAI foi criada como uma empresa sem fins lucrativos, de código aberto (por isso a nomeei “Open” AI), para servir como uma contrapartida ao Google, mas agora se tornou uma empresa de código fechado, visando lucro máximo, controlada efetivamente pela Microsoft. Não era isso que eu pretendia.”

Também: Os melhores geradores de imagens de IA para experimentar

Seja como for, a OpenAI e todos os outros programas de IA gerativos são construídos sobre bases de código aberto. Em particular, o Hugging Face’s Transformer é a principal biblioteca de código aberto para construção de modelos de aprendizado de máquina (ML) hoje em dia. Com nome engraçado e tudo, ele fornece modelos pré-treinados, arquiteturas e ferramentas para tarefas de processamento de linguagem natural. Isso permite que desenvolvedores construam sobre modelos existentes e os ajustem para casos de uso específicos. Em particular, o ChatGPT depende da biblioteca do Hugging Face para seus GPT LLMs. Sem o Transformer, não há ChatGPT.

Além disso, o TensorFlow e o PyTorch, desenvolvidos pela Google e pelo Facebook, respectivamente, impulsionaram o ChatGPT. Essas estruturas em Python fornecem ferramentas e bibliotecas essenciais para construir e treinar modelos de aprendizado profundo. Não é preciso dizer que outros programas de IA/ML de código aberto são construídos em cima delas. Por exemplo, o Keras, uma API TensorFlow de alto nível, costuma ser usado por desenvolvedores sem experiência em aprendizado profundo para construir redes neurais.

Também: programadores de IA fazem isso — mas tanto o TensorFlow quanto o PyTorch são usados em vários projetos. Nos bastidores do seu chatbot de IA favorito há uma mistura de diferentes projetos de código aberto.

Alguns programas de alto nível, como o Llama-2 da Meta, afirmam ser de código aberto. Não são. Embora muitos programadores de código aberto tenham optado pelo Llama porque ele é tão amigável quanto qualquer um dos grandes programas de IA, quando a coisa aperta, o Llama-2 não é de código aberto. É verdade que você pode baixá-lo e usá-lo. Com pesos do modelo e código inicial para o modelo pré-treinado e versões ajustadas à conversação, é fácil construir aplicativos baseados no Llama. Há apenas um pequeno problema escondido na licença: se o seu programa for um sucesso estrondoso e tiver 

mais de 700 milhões de usuários mensais ativos no mês calendário anterior, você deve solicitar uma licença para a Meta, que a Meta pode ou não conceder a você a seu critério exclusivo, e você não está autorizado a exercer nenhum dos direitos previstos neste Contrato, a menos que e até que a Meta conceda expressamente tais direitos a você.

Você pode abandonar qualquer sonho que tenha de se tornar bilionário escrevendo Virtual Girl/Boy Friend baseado no Llama. Mark Zuckerberg lhe agradecerá por ajudá-lo a somar mais alguns bilhões.

Também: IA é muito parecido com streaming. Os complementos somam rápido

Agora, existem alguns LLMs verdadeiramente de código aberto, como o Falcon180B. No entanto, quase todos os principais LLMs comerciais não são adequadamente de código aberto. Vale ressaltar que todos os principais LLMs foram treinados com dados de código aberto. Por exemplo, o GPT-4 e a maioria dos outros grandes LLMs obtêm parte de seus dados do CommonCrawl, um arquivo de texto que contém petabytes de dados coletados da web. Se você escreveu algo em um site público — um desejo de aniversário no Facebook, um comentário no Reddit sobre o Linux, uma menção na Wikipédia ou um livro no Archives.org — se foi escrito em HTML, há chances de que seus dados estejam lá em algum lugar.

Então, será que o código aberto está fadado a sempre ser a dama de honra, nunca a noiva no negócio de IA? Não tão rápido.

Em um documento interno vazado do Google, um engenheiro de IA do Google escreveu: “A verdade desconfortável é que não estamos posicionados para vencer essa corrida armamentista de IA generativa, e nem o OpenAI. Enquanto estávamos discutindo, uma terceira facção está silenciosamente comendo nosso almoço.”

Quem é esse terceiro jogador? A comunidade de código aberto.

Acontece que você não precisa de nuvens de hiperescala ou milhares de GPUs de alta qualidade para obter respostas úteis da IA generativa. Na verdade, você pode executar LLMs em um smartphone: As pessoas estão executando modelos fundamentais em um Pixel 6 a cinco tokens LLM por segundo. Você também pode afinar uma IA personalizada em seu laptop em uma noite. Quando você pode “personalizar um modelo de linguagem em algumas horas em hardware de consumo”, observou o engenheiro, “é algo importante.” Com certeza.

Também: A ética da IA generativa: como podemos aproveitar essa tecnologia poderosa

Graças aos mecanismos de afinação, como o low-rank adaptation (LoRA) de código aberto da Hugging Face, você pode realizar afinação de modelos por uma fração do custo e do tempo de outros métodos. Quanta fração? O que você acha de personalizar um modelo de linguagem em algumas horas em hardware de consumo?

O desenvolvedor do Google acrescentou:

“Parte do que torna o LoRA tão eficaz é que, assim como outras formas de afinação, ele é empilhável. Melhorias como a afinação de instruções podem ser aplicadas e depois aproveitadas conforme outros contribuintes adicionam diálogo, raciocínio ou uso de ferramentas. Embora as afinações individuais sejam de baixa classificação, sua soma não precisa ser, permitindo que as atualizações de classificação completa no modelo se acumulem ao longo do tempo. Isso significa que, à medida que novos e melhores conjuntos de dados e tarefas se tornam disponíveis, o modelo pode ser atualizado de forma barata sem nunca ter que pagar o custo de uma execução completa.”

Nosso programador misterioso concluiu: “Concorrer diretamente com o código aberto é uma proposta perdedora… Não devemos esperar conseguir acompanhar. A internet moderna funciona com código aberto por um motivo. O código aberto possui algumas vantagens significativas que não podemos replicar.”

Também: Expandindo o ChatGPT: Os plugins de chatbot de IA podem realmente mudar o jogo?

Há trinta anos, ninguém imaginava que um sistema operacional de código aberto pudesse usurpar sistemas proprietários como Unix e Windows. Talvez leve muito menos do que três décadas para um programa de IA verdadeiramente aberto e completo superar os programas semi-proprietários que estamos usando hoje.