Há um grande risco em não saber o que a OpenAI está construindo na nuvem, alertam os estudiosos de Oxford.

Há risco em desconhecer projetos da OpenAI na nuvem, alertam estudiosos de Oxford.

Um dos eventos mais importantes em inteligência artificial (IA) em 2023 foi a decisão da OpenAI, criadora do ChatGPT, de divulgar quase nenhuma informação sobre seu mais recente grande modelo de linguagem (LLM), o GPT-4, quando a empresa lançou o programa em março.

Essa mudança repentina para o sigilo está se tornando um grande problema ético para a indústria de tecnologia, porque ninguém sabe, além da OpenAI e sua parceira Microsoft, o que está acontecendo na caixa preta em sua nuvem computacional.

Também: Com o GPT-4, a OpenAI opta pelo sigilo em vez da divulgação

A obstrução é o tema de um relatório deste mês dos estudiosos Emanuele La Malfa, da Universidade de Oxford, e colaboradores do The Alan Turing Institute e da Universidade de Leeds.

Em um artigo publicado no servidor de pré-impressão arXiv, La Malfa e colegas exploram o fenômeno de “Modelos de Linguagem como Serviço” (LMaaS), referindo-se a LLMs hospedados online, seja por meio de uma interface de usuário ou via API. Os principais exemplos desse modelo são o ChatGPT da OpenAI e o GPT-4.

“A pressão comercial levou ao desenvolvimento de LMs grandes e de alto desempenho [modelos de linguagem], acessíveis exclusivamente como serviço para clientes, que retornam strings ou tokens em resposta à entrada textual de um usuário – mas para os quais informações sobre arquitetura, implementação, procedimento de treinamento ou dados de treinamento não estão disponíveis, nem a capacidade de inspecionar ou modificar seus estados internos”, escrevem os autores.

Diferenças entre modelos de linguagem de código aberto e LMaaS. Um usuário de programas de código aberto tem controle total, enquanto os clientes de um serviço LMaaS têm que se contentar com o que obtêm por meio de um navegador ou uma API.

Essas restrições de acesso “inerentes ao LMaaS, combinadas com sua natureza de caixa preta, estão em desacordo com a necessidade do público e da comunidade acadêmica de entender, confiar e controlá-los melhor”, observam eles. “Isso causa um problema significativo no cerne do campo: os modelos mais potentes e arriscados são também os mais difíceis de analisar.”

O problema é apontado por várias partes, incluindo concorrentes da OpenAI, especialmente aqueles que contam com código de código aberto para superar o código fechado. Por exemplo, Emad Mostaque, CEO da startup de IA generativa Stability.ai, que produz ferramentas como o gerador de imagens Stable Diffusion, disse que nenhuma empresa pode confiar em programas de código fechado como o GPT-4.

“Modelos abertos serão essenciais para dados privados”, disse Mostaque durante uma pequena reunião com a imprensa e executivos em maio. “Você precisa saber tudo o que está dentro dele; esses modelos são tão poderosos.”

Também: GPT-3.5 vs GPT-4: Vale a pena assinar o ChatGPT Plus?

La Malfa e sua equipe revisam a literatura dos vários modelos de linguagem e identificam como a obstrução impede uma auditoria dos programas em quatro fatores críticos: acessibilidade, replicabilidade, comparabilidade e confiabilidade.

Os autores observam que essas preocupações são um desenvolvimento recente na ética da IA: “Essas questões são específicas para o paradigma LMaaS e distintas das preocupações preexistentes relacionadas a modelos de linguagem.”

Também: Por que o código aberto é essencial para amenizar os temores em relação à IA, de acordo com o fundador da Stability.ai

A acessibilidade diz respeito à questão de manter o código em segredo, o que beneficia desproporcionalmente grandes empresas com grandes orçamentos de P&D, alegam os escritores.

“Com o poder computacional distribuído de forma desigual e concentrado em um número pequeno de empresas”, eles escrevem, “aqueles com uma vantagem tecnológica, mas não computacional, enfrentam um dilema: embora abrir o código de seu LMaaS seja benéfico em termos de exposição no mercado e contribuição para sua base de código pela comunidade, liberar o código que alimenta um modelo pode rapidamente queimar sua vantagem competitiva em favor de jogadores com recursos computacionais mais altos.”

Além disso, a precificação uniforme dos programas LMaaS significa que pessoas em economias menos desenvolvidas estão em desvantagem ao acessar as ferramentas. “Um ponto de partida para mitigar essas questões é analisar o impacto do LMaaS e, mais geralmente, dos serviços de inteligência artificial por uso pago, como uma tecnologia autônoma, pervasiva e disruptiva”, sugerem eles.

Outra questão é o aumento da lacuna na forma como os LLMs são treinados: os comerciais podem reutilizar prompts dos clientes e, assim, se destacar dos programas que usam apenas dados públicos, observam os autores.

Também: Como o ChatGPT funciona?

As licenças comerciais do LMaaS, eles escrevem, “concedem às empresas o direito de usar prompts para fornecer, manter e melhorar seus serviços”, de modo que não há uma base comum de dados de treinamento de onde todos extraem.

Eles oferecem um gráfico (abaixo) que avalia a disparidade na coleta de prompts dos clientes para treinamento e “ajuste fino” dos modelos de linguagem, que é uma etapa que, em alguns casos, aprimora as habilidades de um modelo de linguagem, e se eles permitem que os usuários optem por não participar.

Comparação de se os modelos de linguagem oferecem opção de cancelamento para seus clientes em relação aos dados e se eles usam os dados para treinamento e ajuste fino de seus modelos caixa-preta.

Depois de descreverem em detalhes os vários riscos, La Malfa e sua equipe propõem “uma agenda tentativa” para abordar as quatro áreas, instando: “precisamos trabalhar como uma comunidade para encontrar soluções que permitam que pesquisadores, formuladores de políticas e membros do público confiem no LMaaS”.

Por um lado, eles recomendam que “as empresas devem divulgar o código-fonte” de seus programas LMaaS, se não para o público em geral, então “o LMaaS deve estar pelo menos disponível para auditores/avaliadores/equipes de segurança com restrições de compartilhamento.”

Também: Bots de IA têm se destacado em exames de faculdade de medicina, mas devem se tornar seus médicos?

As empresas, eles propõem, não devem eliminar totalmente os modelos de linguagem mais antigos à medida que implementam novos. Ou, pelo menos, “todos os parâmetros que compõem um modelo devem ser codificados e um registro de ‘confirmações de modelo’ deve ser oferecido pelos mantenedores do modelo ao usuário, à medida que o mantenedor atualiza o modelo”. E o campo, incluindo revistas e conferências, deve “desencorajar o uso de modelos” que não sigam essas precauções.

Para referência, ferramentas precisam ser desenvolvidas para testar quais elementos um LMaaS absorveu de seus prompts, para que a linha de base possa ser definida com precisão.

Claramente, com o LMaaS, o tema da ética em IA entrou em uma nova fase, na qual informações críticas são mantidas sob sigilo, tornando as escolhas éticas um assunto mais difícil para todos do que eram no passado.