A IA Fez Isso Desculpas, Alterações e Desinformação

Mantenha-se Informado Sobre o Constante Mundo da IA com Nosso Resumo Semanal de Desenvolvimentos.

Neste artigo, vamos abordar o jogo de culpa da IA, as dicas de IA da Apple e a aceitação da geração Z de que a IA está causando perdas de emprego.

Além de “o cachorro comeu meu dever de casa”, “eu não vi o e-mail” e “foi um descuido honesto”, agora você pode adicionar “a IA fez isso” à lista de desculpas que as pessoas podem usar para evitar assumir a responsabilidade por algo que fizeram ou disseram. 🤷‍♀️

Por exemplo: Uma estação de notícias australiana recentemente se desculpou depois de mostrar uma foto alterada de um membro do parlamento que alegou ter sido editada por uma ferramenta de IA no Adobe Photoshop, de acordo com The Sydney Morning Herald. No entanto, esse pedido de desculpas e a desculpa “a IA fez isso” vieram apenas depois que a política, MP Georgie Purcell, postou a foto original ao lado da foto editada nas redes sociais. 🖼️

O Acidente do Photoshop 😱

A estação de notícias, 9News, chamou isso de “erro gráfico” e culpou a Adobe em vez de um erro humano. O diretor de notícias, Hugh Nailon, afirmou que “a automação pelo Photoshop criou uma imagem que não estava consistente com a nossa original”. A Adobe, por outro lado, refutou essa afirmação e disse que qualquer alteração feita na imagem teria exigido “intervenção e aprovação humana”. Eventualmente, a estação de notícias admitiu que houve realmente “intervenção humana na decisão”.

Embora seja verdade que as ferramentas de IA possam fazer ajustes semelhantes aos filtros de selfie, isso não desculpa a falha da estação de notícias em verificar a imagem em comparação com a original. O professor Rob Nicholls da Universidade de Tecnologia de Sydney explicou que o uso da IA sem controles editoriais rigorosos pode levar a erros significativos, acrescentando que a IA pode replicar preconceitos existentes. E não é coincidência que essas questões tendam a ter um viés de gênero. 🚺

🔍 P&R

P: Como as ferramentas de IA podem replicar preconceitos existentes?

R: As ferramentas de IA aprendem a partir dos dados em que são treinadas e, se esses dados contiverem preconceitos, a IA pode perpetuar e amplificar esses preconceitos. Por exemplo, se um conjunto de dados contiver predominantemente imagens de mulheres em trajes reveladores, uma ferramenta de IA pode aprender a enfatizar características reveladoras ao editar imagens de mulheres. Isso pode levar a preconceitos e representações de gênero equivocadas.

P: Que medidas podem ser tomadas para evitar que a IA perpetue preconceitos?

R: Para evitar que a IA perpetue preconceitos, é essencial garantir que os dados de treinamento sejam diversos, representativos e livres de preconceitos. Além disso, o desenvolvimento de controles editoriais fortes e diretrizes pode ajudar a mitigar o risco de saídas tendenciosas das ferramentas de IA.

Coloque a culpa nos Deepfakes 🎭

Os políticos não são estranhos a culpar os deepfakes de IA por “fotos, vídeos e áudios comprometedores” que podem ter capturado suas palavras ou ações reais, de acordo com o The Washington Post. O ex-presidente Donald Trump até desconsiderou um anúncio na Fox News com vídeos de suas já documentadas gafes públicas, alegando que as imagens foram geradas por IA. No entanto, essas imagens foram testemunhadas na vida real por muitos observadores independentes.

Essa tendência levanta a questão de como podemos separar fato da ficção quando deepfakes e manipulação de IA se tornarem comuns. Hany Farid, um professor da Universidade da Califórnia em Berkeley, descreveu isso como o “dividendo do mentiroso” criado pela IA. Isso fornece uma negação plausível para aqueles que são flagrados dizendo ou fazendo algo indesejável usando a desculpa de que a IA é responsável.

É Real ou É IA? 🤔

Com o aumento do áudio, vídeo e texto gerados por IA, está se tornando cada vez mais difícil distinguir o que é real do que é criado por IA. Embora não haja uma ferramenta mágica que possa identificar instantaneamente o conteúdo gerado por IA, existem algumas considerações essenciais a serem observadas.

Segundo o projeto de alfabetização em notícias não partidário e sem fins lucrativos, a IA “sinaliza uma mudança na natureza das evidências”. Isso significa que não devemos automaticamente confiar em tudo o que vemos e ouvimos nas notícias. Verificar as fontes, verificar informações confiáveis ​​e abordar imagens virais com ceticismo são etapas cruciais para navegar na era da IA e da desinformação.

🔍 P&R

P: Como posso verificar a autenticidade de imagens ou vídeos virais?

R: Ao encontrar imagens ou vídeos virais, é importante verificar a autenticidade deles buscando fontes confiáveis. Faça uma pesquisa reversa de imagem para ver se a imagem já foi usada antes ou se corresponde à fonte original. Tenha cautela ao aceitar conteúdo não verificado e trate-o com ceticismo se você não conseguir encontrar uma confirmação confiável.

P: AI technology pode criar imagens e vídeos falsos completamente convincentes?

R: Embora a tecnologia de IA tenha avançado significativamente na geração de conteúdo visual realista, ainda existem limitações. Algoritmos deepfake podem criar imagens e vídeos altamente convincentes, mas geralmente há pistas visuais sutis ou artefatos que podem ajudar a identificá-los. No entanto, à medida que a tecnologia evolui, está se tornando cada vez mais difícil detectar deepfakes gerados por IA, enfatizando a necessidade de pensamento crítico e verificação.

IA no Trabalho 💼

A IA não é apenas fonte de controvérsias e desinformação; ela também está transformando o local de trabalho. De acordo com uma pesquisa recente do Boston Consulting Group, 85% dos executivos planejam investir mais em IA e tecnologia de IA gerativa em 2024. Esses executivos esperam ganhos de produtividade e economia de custos com a adoção dessas ferramentas. No entanto, ainda existem desafios e preocupações a serem abordados.

Os executivos expressaram insatisfação com o progresso de suas organizações na adoção de IA, destacando a falta de talento, roteiros incertos e ausência de uma estratégia geral para uso responsável como barreiras ao sucesso. Além disso, a pesquisa revelou que 46% da força de trabalho precisará ser requalificada nos próximos três anos devido à IA gerativa. No entanto, apenas 6% das empresas treinaram mais de um quarto de seus funcionários nessas ferramentas.

Implementar princípios de IA responsável e focar na gestão da mudança são aspectos cruciais da adoção bem-sucedida de IA. Embora a IA tenha um enorme potencial, é importante abordar sua implementação de maneira ponderada e ética.

🔍 Perguntas e Respostas

P: Como as empresas podem garantir uma adoção responsável de IA?

R: A adoção responsável de AI envolve várias considerações-chave. As empresas devem priorizar a transparência e responsabilidade nos sistemas de IA, garantindo que sejam explicáveis e estejam sujeitos a diretrizes éticas. Além disso, elas devem investir em programas contínuos de treinamento e desenvolvimento de habilidades para preparar a força de trabalho para a integração da IA. Avaliações e auditorias regulares dos sistemas de IA podem ajudar a identificar e mitigar possíveis viéses ou consequências indesejadas.

P: Quais são alguns exemplos de aplicativos de IA no local de trabalho?

R: A IA está sendo usada de várias maneiras no ambiente de trabalho. Ela pode automatizar tarefas repetitivas, melhorar a tomada de decisões por meio da análise de dados, aprimorar o atendimento ao cliente com chatbots, otimizar cadeias de suprimentos e auxiliar em pesquisas e desenvolvimento. Ferramentas de IA, como o ChatGPT, também estão sendo usadas para apoiar empreendimentos criativos e auxiliar em tarefas como busca de informações e pesquisa.

O Futuro da IA: De Deepfakes ao Uso Responsável 🚀

À medida que a tecnologia de IA continua a evoluir, seu impacto na sociedade e no trabalho certamente aumentará. Abordar preocupações em relação a deepfakes e desinformação será crucial para manter a confiança e a integridade na mídia. Encontrar um equilíbrio entre avanços tecnológicos e uso responsável será essencial para enfrentar os desafios que estão por vir.

A atualização recente da Google para o seu IA de conversação Bard, permitindo que os usuários gerem imagens por meio de prompts de texto, mostra o contínuo desenvolvimento das capacidades de IA. Empresas como a Apple também estão dando indícios de suas empreitadas em IA, prometendo atualizações empolgantes no próximo ano. Enquanto isso, esforços regulatórios, como a proposta da FCC para combater chamadas automáticas geradas por IA, visam proteger os consumidores contra o uso malicioso da tecnologia de IA.

Com pesquisas e colaboração contínuas, a IA pode ser utilizada para fins positivos, como auxiliar a criatividade, melhorar a produtividade e aprimorar a experiência do usuário. O estudo da OpenAI sobre armas biológicas nocivas e seu compromisso com práticas de IA responsável demonstram os esforços da indústria para enfrentar os riscos potenciais associados aos avanços da IA.

Em conclusão, a crescente presença da IA exige que sejamos vigilantes na verificação das informações, responsabilizemos as organizações pelo uso de IA e promovamos uma adoção responsável de IA. Ao fazer isso, podemos aproveitar ao máximo o potencial da IA e nos proteger contra suas armadilhas.

🔎 ReferênciasThe Sydney Morning HeraldTechCrunchThe New York TimesThe Washington PostBusiness InsiderForrester ResearchENBLE (relatório de Lisa Lacy) – Proposta FCCCNNYouMailEstudo da OpenAIRelatório Boston Consulting GroupENBLE (relatório de Lisa Lacy) – Postagem no Blog da AmazonThe New York TimesEstudo EduBirdie