4 maneiras de superar suas maiores preocupações sobre IA geradora

4 formas de superar suas principais preocupações em relação à IA geradora

worry-tech-gettyimages-1427840767

A inteligência artificial generativa (IA) é mágica aos olhos não treinados.

Desde resumir textos até criar imagens e escrever código, ferramentas como o ChatGPT da OpenAI e o Copilot da Microsoft produzem soluções brilhantes para perguntas desafiadoras em segundos. No entanto, as habilidades mágicas da IA generativa também podem vir acompanhadas de trapaças pouco úteis.

Também: Sua empresa precisa de um chefe de inteligência artificial?

Seja preocupações éticas, problemas de segurança ou alucinações, os usuários devem estar cientes dos problemas que podem minar os benefícios da tecnologia emergente. Aqui, quatro líderes empresariais explicam como você pode superar algumas das grandes preocupações com a IA generativa.

1. Aproveite novas oportunidades de maneira ética

Birgitte Aga, chefe de inovação e pesquisa no Museu Munch em Oslo, Noruega, diz que muitas das preocupações com IA estão relacionadas a pessoas que não entendem seu impacto potencial – e com razão.

Até mesmo uma ferramenta de IA generativa de alto padrão, como o ChatGPT, está disponível para o público há pouco mais de 12 meses. Embora muitas pessoas tenham se familiarizado com a tecnologia, poucas empresas usaram a ferramenta em um ambiente de produção.

Aga diz que as organizações devem dar aos seus funcionários a oportunidade de ver o que as tecnologias emergentes podem fazer de forma segura e protegida. “Acho que diminuir a barreira para que todos participem é fundamental”, diz ela. “Mas isso não significa fazer isso de forma acrítica.”

Aga diz que, à medida que seus funcionários discutem como a IA pode ser usada, eles também devem considerar algumas das grandes questões éticas, como viés, estereotipagem e limitações tecnológicas.

Também: Segurança e viés da IA: Desvendando a cadeia complexa de treinamento de IA

Ela explica em uma conversa por vídeo com a ENBLE como o museu está trabalhando com a especialista em tecnologia TCS para encontrar maneiras de usar a IA para tornar a arte mais acessível a um público mais amplo.

“Com a TCS, realmente temos alinhamento em todas as reuniões quando se trata de nossa ética e valores”, diz ela. “Encontre colaboradores com quem você realmente se alinhe nesse nível e construa a partir daí, em vez de apenas encontrar pessoas que façam coisas legais.”

2. Criar uma força-tarefa para mitigar riscos

Avivah Litan, vice-presidente distinta de análise da Gartner, diz que uma das questões-chave a serem consideradas é a pressão por mudanças por parte de pessoas fora do departamento de TI.

“O negócio quer seguir em frente a todo vapor”, diz ela, referindo-se à adoção de ferramentas de IA generativa por profissionais em toda a organização, com ou sem a autorização dos responsáveis. “Os especialistas em segurança e risco estão tendo dificuldades em lidar com essa implantação, acompanhar o que as pessoas estão fazendo e gerenciar o risco.”

Também: 64% dos trabalhadores tentaram passar o trabalho de IA generativa como se fosse deles

Como resultado, há muita tensão entre dois grupos: as pessoas que querem usar IA e as pessoas que precisam gerenciar seu uso.

“Ninguém quer reprimir a inovação, mas os especialistas em segurança e risco nunca tiveram que lidar com algo assim antes”, diz ela em uma videochamada com a ENBLE. “Embora a IA esteja por aí há anos, eles não precisavam se preocupar com essa tecnologia até o surgimento da IA generativa.”

Litan diz que a melhor maneira de amenizar as preocupações é criar uma força-tarefa para a IA que conte com especialistas de toda a empresa e que considere privacidade, segurança e risco.

“Então todos estão na mesma página, sabem quais são os riscos, sabem o que o modelo deve fazer e obtêm um desempenho melhor”, diz ela.

Também: IA em 2023: Um ano de avanços que não deixaram nenhuma coisa humana inalterada

Litan diz que a pesquisa da Gartner sugere que dois terços das organizações ainda não estabeleceram uma força-tarefa para IA. Ela encoraja todas as empresas a criar esse tipo de equipe interdepartamental.

“Essas forças-tarefa promovem uma compreensão comum”, diz ela. “As pessoas sabem o que esperar e o negócio pode criar mais valor.”

3. Restringir seus modelos para reduzir alucinações

Thierry Martin, gerente sênior de estratégia de dados e análise da Toyota Motors Europe, diz que sua maior preocupação com a IA gerativa são as alucinações.

Ele já viu esses tipos de problemas em primeira mão ao testar a IA generativa para fins de programação.

Indo além das explorações pessoais, Martin diz que as empresas devem prestar atenção nos grandes modelos de linguagem (LLMs) que utilizam, nas entradas que exigem e nas saídas que produzem.

“Precisamos de modelos de linguagem grandes e muito estáveis”, diz ele. “Muitos dos modelos mais populares hoje são treinados em várias coisas, como poesia, filosofia e conteúdo técnico. Ao fazer uma pergunta, há uma porta aberta para alucinações.”

Também: 8 maneiras de reduzir as alucinações do ChatGPT

Em uma entrevista em vídeo com a ENBLE, Martin enfatiza que as empresas devem encontrar maneiras de criar modelos de linguagem mais restritos.

“Quero me manter dentro da base de conhecimento que estou fornecendo”, diz ele. “Então, se eu perguntar algo específico ao meu modelo, ele me dará a resposta correta. Portanto, gostaria de ver modelos mais vinculados aos dados que estou fornecendo.”

Martin tem interesse em saber mais sobre desenvolvimentos pioneiros, como a colaboração da Snowflake com a Nvidia, onde ambas as empresas estão criando uma fábrica de IA que ajuda as empresas a transformarem seus dados em modelos de IA generativa personalizados.

“Por exemplo, um LLM que é perfeito para fazer consultas SQL em código Python é algo interessante”, diz ele. “ChatGPT e todas essas outras ferramentas públicas são boas para o usuário casual. Mas se você conectar esse tipo de ferramenta a dados empresariais, precisa ser cauteloso.”

4. Avance devagar para moderar as expectativas

Bev White, CEO da especialista em recrutamento Nash Squared, diz que sua grande preocupação é a realidade prática do uso da AI generativa pode ser muito diferente da visão.

“Houve muita expectativa”, diz ela em uma conversa em vídeo com a ENBLE. “Também houve muitos alarmistas dizendo que empregos serão perdidos e que a AI criará desemprego em massa. E também existem todos os medos sobre segurança e privacidade dos dados.”

White diz que é importante reconhecer que os primeiros 12 meses da AI generativa foram caracterizados por grandes empresas de tecnologia correndo para refinar e atualizar seus modelos.

“Essas ferramentas já passaram por muitas iterações — e isso não é por acidente”, diz ela. “Pessoas que usam a tecnologia estão descobrindo vantagens, mas também precisam ficar atentas às mudanças a cada nova iteração.”

Também: Os 3 maiores riscos da AI generativa – e como lidar com eles

White aconselha CIOs e outros gerentes seniores a proceder com cautela. Não tenha medo de dar um passo para trás, mesmo que pareça que todo mundo está avançando rapidamente.

“Acho que precisamos de algo tangível que possamos usar como orientação. Os CISOs nas organizações devem começar a pensar em AI generativa — e nossas evidências sugerem que estão. Além disso, a regulamentação precisa acompanhar o ritmo das mudanças”, diz ela.

“Talvez precisemos ir um pouco mais devagar enquanto descobrimos o que fazer com a tecnologia. É como inventar um foguete incrível, mas não ter os estabilizadores e sistemas de segurança ao seu redor antes de lançá-lo.”