A IA traz novas capacidades e riscos para a segurança dos dados de saúde

AI brings new capabilities and risks to healthcare data security

A proteção de dados é um aspecto crítico para gerenciar adequadamente o ambiente de TI de uma organização de saúde. Os dados de saúde continuam sendo um dos principais alvos de criminosos cibernéticos devido ao nível de sensibilidade de seus dados do sistema. Os conjuntos de dados visados são informações de identificação pessoal (PII), informações financeiras e informações de saúde.

Essas organizações podem fortalecer seus sistemas introduzindo atualizações periódicas e aplicativos como parte de sua estratégia DevSecOps. Velocidade, confiabilidade e segurança são aspectos críticos de uma abordagem de DevSecOps bem-sucedida. As ferramentas e processos usados para perseguir esse objetivo ditam seu nível de sucesso.

Dito isso, apesar do lançamento constante de novas ferramentas, os avanços recentes em inteligência artificial (IA) estão recebendo enorme atenção. Por exemplo, a IA generativa e os modelos de linguagem grandes (LLM) estão ajudando trabalhadores de várias indústrias a acelerar processos e descarregar tarefas manuais, melhorando continuamente seus programas.

Os desenvolvedores estão descobrindo que as ferramentas de IA podem produzir rapidamente linhas de código com algumas instruções simples. Essa tecnologia ainda é muito jovem, então não está claro quão bem-sucedidos esses esforços serão, mas isso não impede muitas equipes de desenvolvimento de começar a usar ferramentas de IA.

As empresas de saúde precisam manter um controle estrito sobre sua infraestrutura de TI. Então, como as ferramentas de IA se encaixam em seus requisitos?

A IA generativa e as ferramentas LLM podem aumentar significativamente o tempo de lançamento no mercado, mas quais são os riscos? É possível ter os níveis necessários de controle para equipes de saúde de DevSecOps?

Vamos explorar onde essa tecnologia está atualmente, o que significa para as equipes de InfoSec e como utilizar essas novas e poderosas ferramentas com segurança.

Como a IA generativa e os LLM funcionam

Tanto a IA generativa quanto as ferramentas LLM funcionam com base em instruções. O usuário pode fazer perguntas ou solicitar uma função e a ferramenta gera uma resposta. Essas respostas são ajustadas com mais perguntas ou instruções para atender melhor ao usuário.

No entanto, há uma diferença entre a IA generativa e os LLM. A IA generativa descreve qualquer tipo de inteligência artificial que usa comportamento aprendido para produzir conteúdo único. Ela gera imagens e texto e engloba modelos de linguagem grandes e outros tipos de IA.

Por outro lado, os LLMs são versões altamente refinadas da IA generativa. Eles são treinados em grandes quantidades de dados, produzem respostas semelhantes às humanas e são mais aplicáveis às práticas de DevOps. Os usuários podem inserir comandos solicitando que o programa crie um fluxo ou um gatilho, por exemplo, e o LLM pode produzir código aplicável à solicitação do usuário ao programa.

Escolhendo o modelo certo

Há uma variedade de modelos de IA para escolher. Modelos de código aberto baseados em versões anteriores são treinados com novo material de origem diariamente. Modelos maiores e mais populares, como o Google Bard e o Chat GPT da Open AI, são as versões mais conhecidas de grandes modelos de linguagem em uso.

Essas ferramentas são treinadas em sites, artigos e livros. As informações contidas neste texto de origem informam as respostas às consultas do usuário e ditam como o programa formula suas respostas.

A arquitetura das ferramentas de IA generativa é construída com várias camadas de mecanismos para ajudá-las a entender os relacionamentos e dependências entre palavras e declarações, permitindo que elas sejam mais conversacionais.

Os dados inseridos em um modelo de IA informam as respostas. Esses sistemas são refinados ao longo do tempo, aprendendo com as interações com os usuários e com novo material de origem. Treinamento e refinamento adicionais tornarão essas ferramentas mais precisas e confiáveis.

Aprender com dados de entrada do usuário é uma ótima maneira de acelerar o processo de aprendizado das ferramentas de IA generativa e LLM. No entanto, essa abordagem pode introduzir riscos de segurança de dados para equipes de DevSecOps. Mas antes de analisarmos os riscos, vamos ver o que as equipes têm a ganhar ao implementar ferramentas de IA generativa.

O que a IA generativa / LLM pode fazer pelo DevOps?

O conjunto de ferramentas disponíveis para os desenvolvedores está se tornando cada vez mais especializado. Ferramentas como o Einstein GPT têm o potencial de mudar a forma como vemos o desenvolvimento de software e permitem que as organizações de saúde diminuam o tempo de lançamento no mercado de suas práticas de desenvolvimento de software.

Aqui estão algumas das maneiras pelas quais as ferramentas LLM podem beneficiar as equipes de DevOps.

  1. Aumentar a velocidade de lançamento

A velocidade é um grande benefício para as equipes de DevOps. A capacidade de introduzir rapidamente uma atualização ou aplicativo confiável torna a organização mais flexível e capaz de responder a problemas emergentes. As organizações de saúde que frequentemente lançam lançamentos oportunos são líderes na indústria e têm mais chances de obter sucesso.

As ferramentas LLM ajudam os desenvolvedores a escrever grandes trechos de código em uma fração do tempo que levariam para escrever o código por conta própria. Colocar a fase de desenvolvimento do ciclo de vida do aplicativo no caminho rápido com a escrita automatizada posiciona para produzir muito mais rápido.

  1. Reduzir processos manuais

Nossos membros da equipe são nosso maior patrimônio, mas erros humanos são inevitáveis. A introdução de novas ferramentas automatizadas no pipeline do DevOps ajuda bastante na redução de erros e na otimização das operações. Isso é verdade tanto para ferramentas de LLM (Machine Learning Linguístico, na sigla em inglês) quanto para ferramentas de DevOps padrão, como análise estática de código e automação CI/CD.

A capacidade dos desenvolvedores de inserir instruções e ter a ferramenta de LLM executar uma grande parte da codificação aumenta bastante a produtividade.

Tarefas manuais e repetitivas levam a erros. Mas quando os desenvolvedores podem transferir a maior parte da escrita para um LLM, tudo o que eles precisam fazer é revisar o código antes de confirmá-lo no projeto.

  1. Fornecer Material de Referência

A confusão leva a perda de tempo. A produtividade diminui quando os desenvolvedores não conseguem encontrar a resposta para uma pergunta ou se deparam com um erro confuso. A IA generativa e as ferramentas de LLM fornecem contexto e respostas para perguntas específicas em tempo real.

Explicações detalhadas para documentação de linguagens de programação, identificação de bugs e padrões de uso estão ao alcance dos desenvolvedores.

A solução de problemas se torna mais eficiente, permitindo que sua equipe volte ao trabalho em vez de gastar tempo resolvendo problemas. As ferramentas de LLM sugerem correções e estratégias de depuração para manter as atualizações no prazo.

Potenciais Riscos de Segurança de Dados Associados à IA

As respostas às consultas do LLM são diferentes a cada vez. E embora isso funcione bem em um ambiente de conversação, pode causar problemas para os desenvolvedores que usam a tecnologia para escrever código. Código ruim leva a vulnerabilidades de segurança de dados. Para setores regulamentados, como a área da saúde, cada vulnerabilidade potencial precisa ser examinada.

Ainda há muitas perguntas sobre como a utilização dessas ferramentas se desenvolverá, mas aqui estão algumas considerações-chave:

  1. Resultados Não Confiáveis

A IA generativa e as ferramentas de LLM são muito rápidas para produzir resultados, mas os resultados podem não ter alta qualidade. Todos os resultados – seja uma resposta a uma pergunta sobre história ou uma linha de código – vêm dos dados de entrada. Se esses dados de origem contiverem erros, os resultados fornecidos pela ferramenta de LLM também terão erros.

As equipes de DevOps têm padrões que esperam que seus desenvolvedores alcancem. O código produzido pelas ferramentas de LLM não adere automaticamente a essas diretrizes.

O desempenho do código resultante pode não ser perfeito. É simplesmente uma resposta a um prompt. E embora essas ferramentas sejam um avanço enorme em relação a qualquer tipo de ferramenta baseada em consultas que vimos no passado, elas ainda não são perfeitas.

  1. Preocupações com Conformidade

Ferramentas como o Einstein GPT são tão novas que há muitas perguntas sobre como elas afetarão um pipeline de DevOps. Quando se trata de conformidade regulatória com regulamentações de segurança de dados, setores como a área da saúde precisam obter algumas respostas antes de poderem usar essas ferramentas com segurança e confiança.

Por exemplo, o que acontece com o código gerado por uma ferramenta de LLM? Você está armazenando-o em um repositório público? Se sim, isso causaria uma grande preocupação com a conformidade em relação ao código-fonte desprotegido. O que aconteceria se esse código fosse usado em um ambiente de produção de uma organização de saúde?

Essas ferramentas são treinadas com base em informações públicas obtidas do GitHub para conhecimento de desenvolvimento. É impossível saber exatamente o que foi utilizado nesse treinamento, o que significa que podem existir riscos de segurança. Isso significa que qualquer pessoa cujas consultas sejam respondidas com código inseguro compartilhará o mesmo risco de segurança.

Setores regulamentados precisam ter cuidado especial com essas ferramentas. Organizações de saúde lidam com informações incrivelmente sensíveis. O nível de controle necessário por setores regulamentados simplesmente não é possível neste momento com ferramentas de LLM e IA generativa.

  1. Desafios de Implementação

As ferramentas de LLM aumentam a velocidade com que os desenvolvedores produzem código. Isso remove o gargalo da fase de desenvolvimento para produzir uma atualização, mas esse gargalo se moverá mais adiante na linha. Existe um ponto de equilíbrio entre agir rápido e agir rápido demais. Será desafiador manter o controle.

Uma infraestrutura circundante de ferramentas automatizadas de DevOps pode ajudar a aliviar a pressão do desenvolvimento acelerado, mas é demais para assumir de uma vez se os sistemas ainda não estiverem em vigor. Essas ferramentas já estão disponíveis e os desenvolvedores as estão usando por causa da facilidade que elas proporcionam em seus trabalhos. A gestão pode pedir às equipes que evitem o uso dessas ferramentas, mas será difícil limitar o uso.

Como Prevenir Esses Problemas

Essas ferramentas estão crescendo rapidamente em popularidade. À medida que novas ferramentas de LLM continuam a ser lançadas, as equipes de DevOps não têm muito tempo para se preparar. Isso significa que as organizações de saúde precisam começar a se preparar hoje para se antecipar às potenciais vulnerabilidades associadas a essas ferramentas.

Aqui estão algumas coisas que podem ajudá-lo a evitar as possíveis desvantagens das ferramentas LLM e de inteligência artificial generativa.

  1. Fortaleça o seu pipeline de DevOps

Um pipeline de DevOps otimizado incluirá uma variedade de ferramentas automatizadas e comunicação aberta entre as equipes departamentais. Capacitar os membros da equipe com ferramentas automatizadas garante a cobertura total de um projeto e reduz os processos manuais.

Esses fatores serão cada vez mais necessários à medida que as ferramentas LLM aumentam a velocidade com que o código é escrito. Aproveitar essa velocidade é crucial para garantir que todas as verificações de qualidade sejam concluídas sem causar problemas mais adiante no pipeline.

Implementar e aperfeiçoar o uso dessas ferramentas prepara as equipes para o sucesso à medida que as ferramentas LLM se tornam amplamente disponíveis. As empresas de saúde precisam ser capazes de controlar seu pipeline de DevOps. Uma infraestrutura de DevOps em torno fornece o suporte necessário para alcançar esse controle.

  1. Analise o código com Análise Estática de Código

O código produzido pelas ferramentas LLM é pouco confiável. Isso significa que sua equipe precisa gastar mais tempo na fase de desenvolvimento posterior para garantir que quaisquer erros sejam corrigidos antes que o código seja mesclado ao repositório principal.

A análise estática de código é um aspecto indispensável do conjunto de ferramentas de DevOps de uma organização de saúde. Essa ferramenta automatizada verifica cada linha de código em relação a regras internas para identificar qualquer coisa que possa resultar em bugs e erros se não for corrigida.

E, embora seja tentador se contentar com uma ferramenta genérica de análise estática de código, elas simplesmente não fornecem a cobertura necessária para alcançar uma qualidade de código e conformidade regulatória consistentemente alta.

  1. Ofereça Treinamento Contínuo

O erro humano é a principal causa de perda de dados. Isso é mitigado pela utilização de ferramentas automatizadas que reduzem o trabalho manual e oferecem treinamento para novos e atuais membros da equipe. As ferramentas LLM são poderosas, mas seus benefícios são equiparados aos seus riscos, que dependem de como são utilizadas.

Para garantir uma implementação bem-sucedida, comunique as melhores práticas à sua equipe e defina claramente as expectativas da sua organização. Essas melhores práticas incluem considerações como verificar as estruturas adequadas para cada trecho de código proveniente de uma ferramenta LLM, fazer backup de dados críticos do sistema e evitar o uso de ferramentas não autorizadas. As empresas de saúde, em especial, precisam ter cuidado com a forma como sua equipe interage com a plataforma, dada a sensibilidade dos dados que possuem.

Atenção Adequada Começa Hoje

Ferramentas de inteligência artificial generativa e LLM continuarão a se tornar mais prevalentes. Muitos benefícios potencialmente grandes podem ser obtidos ao usar essas ferramentas, mas também existem riscos significativos. As empresas de saúde devem ser intencionais ao construir sua abordagem de DevOps e, sem falhas, testar cada linha de código proveniente de uma ferramenta LLM.

Crédito da imagem: Tima Miroshnichenko; Pexels; Obrigado!