Software de vigilância por IA monitora passageiros do metrô de Londres

O Transporte de Londres usou um sistema de visão computacional para tentar detectar crimes e armas, pessoas caindo nos trilhos e passageiros que evadem a tarifa durante um teste em uma única estação, de acordo com documentos obtidos pelo WIRED.

O metrô de Londres está testando atualmente ferramentas avançadas de vigilância de inteligência artificial (IA) que podem identificar e prevenir atividades criminosas em tempo real.

👀🚇🔎📸💻

Os londrinos que usam o metrô podem ficar surpresos ao saber que seus movimentos, comportamento e linguagem corporal estão sendo monitorados de perto por software de vigilância AI. 🤖📹 O software, combinado com imagens ao vivo do circuito fechado de televisão (CCTV), foi projetado para detectar sinais de agressão, a presença de armas e situações inseguras, como pessoas caindo nos trilhos ou evitando pagar tarifas. O teste, realizado pela Transport for London (TfL), testou 11 algoritmos na estação de metrô de Willesden Green.

Durante o período de teste de outubro de 2022 a setembro de 2023, a TfL gerou mais de 44.000 alertas, sendo 19.000 enviados para a equipe da estação em tempo real. Os alertas gerados tinham como objetivo fornecer informações e assistência à equipe da linha de frente. Os algoritmos de IA usaram visão computacional para detectar vários comportamentos, incluindo acesso não autorizado, atividade criminosa potencial e pessoas colocando-se em perigo.

No entanto, o teste não foi isento de falhas. O sistema de IA cometeu erros, como confundir crianças acompanhando seus pais com passageiros sem pagar a tarifa ou não diferenciar entre uma bicicleta dobrável e uma bicicleta não dobrável. Para melhorar a precisão da detecção de armas, policiais participaram do teste exibindo facões e armas de fogo na visão das câmeras do CCTV quando a estação estava fechada.

Embora preocupações com privacidade tenham sido levantadas sobre o uso de vigilância AI em espaços públicos, a TfL afirma que o teste foi realizado com imagens existentes do CCTV e múltiplos modelos de detecção. Os dados coletados estão de acordo com as políticas de dados da TfL e são mantidos por um máximo de 14 dias. Mandy McGregor, chefe de política e segurança da comunidade da TfL, afirma que não houve evidências de viés durante o teste. A TfL está atualmente analisando os resultados e considerando o design e o escopo de uma segunda fase do teste.

💭💻🔍

Q&A: O que os leitores querem saber?

P: Quão precisos são os algoritmos de detecção de objetos usados no teste?

Algoritmos de detecção de objetos, como os usados neste teste, são geralmente imperfeitos e podem ser propensos a erros. O sistema de IA neste teste tinha limitações, como confundir certos objetos ou comportamentos. É difícil capturar as complexidades e nuances do comportamento humano em dados de treinamento. Portanto, é importante abordar o uso de sistemas de aprendizado de máquina para detecção de agressão com cautela, pois eles podem reproduzir vieses sociais.

P: Quais são as implicações de privacidade do uso de sistemas de vigilância AI em espaços públicos?

O uso de sistemas de vigilância AI levanta preocupações sobre privacidade e direitos individuais. Embora este teste não tenha envolvido tecnologia de reconhecimento facial, ele levanta discussões sobre a expansão potencial de sistemas de vigilância para incluir métodos de detecção mais avançados ou software de reconhecimento facial. Questões éticas, legais e sociais surgem ao implantar tais tecnologias sem consulta e supervisão pública. Governança transparente e confiança pública são essenciais ao implementar esses sistemas.

P: A tecnologia de vigilância AI será implementada em outras estações?

O teste da TfL foi uma prova de conceito e nenhuma decisão foi tomada em relação ao uso mais amplo dessa tecnologia. Se a tecnologia for expandida, seria necessário um amplo processo de consulta com as comunidades locais, partes interessadas relevantes e especialistas no campo. O teste teve como objetivo reunir informações para melhorar o pessoal e a segurança dos passageiros. No entanto, qualquer implantação adicional exigiria uma consideração cuidadosa, levando em conta o consentimento e o apoio do público.

💡🔍📑

Visões e Desenvolvimentos Futuros

O uso da tecnologia de vigilância AI em espaços públicos, incluindo sistemas de transporte, está em ascensão. Testes semelhantes foram realizados em cidades como Nova York, onde a AI é usada para rastrear evasão de tarifa. Essas iniciativas são frequentemente vistas dentro do contexto da criação de cidades inteligentes. No entanto, a falta de leis e regulamentos específicos que governem o uso de AI nesses contextos levantou preocupações sobre um vácuo regulatório.

À medida que esses sistemas se tornam mais prevalentes, há potencial para atualizações e expansões que podem causar preocupações adicionais. A capacidade de atualizar e aprimorar continuamente as capacidades desses sistemas levanta questões sobre o alcance e os limites da vigilância. Alcançar o equilíbrio correto entre segurança e privacidade é crucial para evitar a normalização da monitoração abrangente e a erosão das liberdades individuais.

💡🔗 Aqui estão alguns artigos relevantes para leitura adicional:

  1. A Ascensão da Vigilância com Inteligência Artificial em Espaços Públicos
  2. O Vácuo Regulatório do Reino Unido em Vigilância com IA
  3. As Implicações Éticas das Tecnologias de Reconhecimento Facial

🙋‍♀️🙋‍♂️💬

Junte-se à Conversa e Compartilhe suas Opiniões

O que você pensa sobre o uso de vigilância por IA em espaços públicos? Você vê isso como uma ferramenta valiosa para aumentar a segurança ou como uma possível ameaça à privacidade? Compartilhe suas opiniões e nos diga o que você pensa! 🗣💭

✨✨✨

Lembre-se de nos seguir nas redes sociais para mais artigos envolventes sobre as últimas tendências e desenvolvimentos tecnológicos. Compartilhe este artigo e participe da discussão com seus amigos e colegas! Juntos, podemos navegar pelo mundo da tecnologia com conhecimento e humor! 🌐💡😄

📌 Referências: – IA em Espaços Públicos – Relatório de ENBLEPolíticas de Dados da TfLUtilizando Tecnologias de Análise de EmoçõesJulgamentos de Evasão de Tarifa