Chatbots de IA estão invadindo seu governo local – e deixando todos nervosos

AI chatbots are invading your local government - and making everyone nervous.

A Agência de Proteção Ambiental dos Estados Unidos bloqueou o acesso dos seus funcionários ao ChatGPT, enquanto a equipe do Departamento de Estado dos EUA na Guiné o utilizou para redigir discursos e postagens nas redes sociais.

O estado de Maine proibiu os funcionários do poder executivo de usar inteligência artificial generativa pelo resto do ano, devido à preocupação com a cibersegurança do estado. Em Vermont, próximo dali, os funcionários do governo estão usando essa tecnologia para aprender novas linguagens de programação e escrever código interno, de acordo com Josiah Raiche, diretor de inteligência artificial do estado.

A cidade de San Jose, Califórnia, elaborou um guia de 23 páginas sobre inteligência artificial generativa e exige que os funcionários municipais preencham um formulário sempre que utilizarem uma ferramenta como o ChatGPT, Bard ou Midjourney. A poucos minutos de carro ao norte, o governo do condado de Alameda promoveu sessões para educar os funcionários sobre os riscos da inteligência artificial generativa, como a tendência de gerar informações convincentes, mas imprecisas. No entanto, o condado ainda não vê a necessidade de uma política formal.

“Estamos mais preocupados com o que você pode fazer, não com o que você não pode fazer”, diz Sybil Gurney, vice-diretora de informação do condado de Alameda. Os funcionários do condado estão “realizando grande parte do seu trabalho escrito usando o ChatGPT”, acrescenta Gurney, e têm utilizado o Einstein GPT da Salesforce para simular usuários em testes de sistemas de TI.

Em todos os níveis, os governos estão buscando maneiras de aproveitar a inteligência artificial generativa. Autoridades estaduais e municipais afirmaram à ENBLE que acreditam que essa tecnologia pode melhorar algumas das qualidades mais irritantes da burocracia, agilizando a papelada rotineira e melhorando a capacidade do público de acessar e compreender materiais governamentais densos. No entanto, os governos, sujeitos a leis estritas de transparência, eleições e um senso de responsabilidade cívica, também enfrentam desafios distintos do setor privado.

“Todos se preocupam com a responsabilidade, mas isso se intensifica quando você é literalmente o governo”, diz Jim Loter, diretor interino de tecnologia da cidade de Seattle, que lançou diretrizes preliminares de inteligência artificial generativa para seus funcionários em abril. “As decisões que o governo toma podem afetar as pessoas de maneiras bastante profundas e … devemos ser justos, responsáveis ​​e abertos sobre os métodos que informam nossas decisões.”

A importância para os funcionários do governo foi ilustrada no mês passado, quando um superintendente assistente em Mason City, Iowa, foi colocado sob os holofotes nacionais por usar o ChatGPT como um passo inicial para determinar quais livros deveriam ser removidos das bibliotecas do distrito por conterem descrições de atos sexuais. A remoção dos livros era exigida por uma lei estadual recentemente promulgada.

Esse nível de escrutínio dos funcionários do governo provavelmente continuará. Nas políticas de inteligência artificial generativa das cidades de San Jose e Seattle e do estado de Washington, todos os funcionários foram alertados de que qualquer informação inserida como estímulo em uma ferramenta de inteligência artificial generativa automaticamente se torna sujeita a divulgação de acordo com as leis de registros públicos.

Essas informações também são automaticamente inseridas nos bancos de dados corporativos usados para treinar as ferramentas de inteligência artificial generativa e podem ser devolvidas a outra pessoa usando um modelo treinado no mesmo conjunto de dados. Na verdade, um grande estudo do Instituto de Inteligência Artificial Humanizada da Universidade Stanford, publicado em novembro passado, sugere que quanto mais precisos são os grandes modelos de linguagem, maior é a probabilidade de eles reproduzirem blocos inteiros de conteúdo de seus conjuntos de treinamento.

Isso representa um desafio particular para agências de saúde e justiça criminal.

Loter diz que os funcionários de Seattle consideraram usar a inteligência artificial generativa para resumir relatórios investigativos extensos do Escritório de Responsabilidade Policial da cidade. Esses relatórios podem conter informações públicas, mas ainda sensíveis.

A equipe do Tribunal Superior do Condado de Maricopa, no Arizona, usa ferramentas de inteligência artificial generativa para escrever código interno e gerar modelos de documentos. Eles ainda não a utilizaram para comunicações voltadas ao público, mas acreditam que ela tem potencial para tornar os documentos legais mais legíveis para não advogados, segundo Aaron Judy, chefe de inovação e inteligência artificial do tribunal. Teoricamente, a equipe poderia inserir informações públicas sobre um caso judicial em uma ferramenta de inteligência artificial generativa para criar um comunicado de imprensa sem violar qualquer política do tribunal, mas, segundo ela, “eles provavelmente estariam nervosos”.

“Você está usando a contribuição dos cidadãos para treinar o mecanismo de lucro de uma entidade privada para que eles possam ganhar mais dinheiro”, diz Judy. “Não estou dizendo que isso é algo ruim, mas todos nós temos que estar confortáveis ​​em dizer, no final do dia, ‘Sim, é isso que estamos fazendo'”.

De acordo com as diretrizes de San Jose, o uso de inteligência artificial generativa para criar um documento para consumo público não é proibido, mas é considerado “alto risco” devido ao potencial da tecnologia de introduzir desinformação e porque a cidade é precisa na forma como se comunica. Por exemplo, um grande modelo de linguagem solicitado a redigir um comunicado de imprensa pode usar a palavra “cidadãos” para descrever as pessoas que vivem em San Jose, mas a cidade usa apenas a palavra “residentes” em suas comunicações, pois nem todos na cidade são cidadãos dos EUA.

Empresas de tecnologia cívica como a Zencity adicionaram ferramentas de IA generativa para escrever comunicados de imprensa governamentais em suas linhas de produtos, enquanto os gigantes da tecnologia e grandes consultorias – incluindo Microsoft, Google, Deloitte e Accenture – estão oferecendo uma variedade de produtos de IA generativa em nível federal.

As primeiras políticas governamentais sobre IA generativa vieram de cidades e estados, e os autores de várias dessas políticas disseram à ENBLE que estão ansiosos para aprender com outras agências e melhorar seus padrões. Alexandra Reeve Givens, presidente e CEO do Center for Democracy and Technology, diz que a situação está propícia para “liderança clara” e “orientações específicas e detalhadas do governo federal”.

O Escritório de Orçamento e Gestão Federal deve lançar seu projeto de orientação para o uso de IA pelo governo federal neste verão.

A primeira onda de políticas de IA generativa divulgadas por agências municipais e estaduais são medidas provisórias que os funcionários dizem que serão avaliadas nos próximos meses e expandidas. Todas elas proíbem que os funcionários usem informações confidenciais e não públicas em prompts e exigem algum nível de verificação humana e revisão do trabalho gerado por IA, mas também há diferenças notáveis.

Por exemplo, as diretrizes em San Jose, Seattle, Boston e estado de Washington exigem que os funcionários divulguem o uso de IA generativa em seu produto de trabalho, enquanto as diretrizes de Kansas não exigem.

Albert Gehami, oficial de privacidade de San Jose, diz que as regras em sua cidade e em outras evoluirão significativamente nos próximos meses à medida que os casos de uso se tornarem mais claros e os servidores públicos descobrirem as maneiras pelas quais a IA generativa é diferente de tecnologias já ubíquas.

“Quando você trabalha com o Google, digita algo e recebe uma parede de diferentes pontos de vista, e tivemos 20 anos de apenas tentativa e erro basicamente para aprender a usar essa responsabilidade”, diz Gehami. “Vinte anos depois, provavelmente teremos descoberto com a IA generativa, mas não quero que lutemos com a cidade por 20 anos para descobrir isso”.