IA e Você Big Tech vai a Washington, Google enfrenta anúncios políticos sintéticos

AI e Big Tech vão a Washington, Google enfrenta anúncios políticos sintéticos

O senador Chuck Schumer convidou os líderes das grandes empresas de tecnologia para um Fórum de Inteligência Artificial em Washington, DC, à medida que os Estados Unidos buscam descobrir como regular a inteligência artificial. Reuniões fechadas marcadas para 13 de setembro se concentrarão nos riscos e oportunidades futuras à medida que o público continua a adotar ferramentas como o ChatGPT da Open AI e o Bard do Google.

Os executivos esperados para comparecer são os principais líderes masculinos da tecnologia. Os CEOs incluem Sam Altman da OpenAI, Mark Zuckerberg da Meta, Sayta Nadella da Microsoft, Sundar Pichai da Alphabet/Google, Elon Musk da Tesla e Jensen Huang da Nvidia, de acordo com a Reuters. Schumer disse que o fórum será o primeiro de uma série de discussões bipartidárias a serem realizadas neste outono e que as conversas serão “poderosas, diversas, mas acima de tudo, equilibradas”.

“Legislar sobre IA certamente não será fácil”, disse Schumer em comentários de 6 de setembro publicados no site dos Democratas do Senado. “Na verdade, será uma das coisas mais difíceis que já empreendemos, mas não podemos nos comportar como avestruzes enfiando a cabeça na areia quando se trata de IA”.

“Nossos Fóruns de Inteligência Artificial”, disse Schumer, “reunirão algumas das principais vozes da América em IA, de diferentes áreas de atuação e muitos pontos de vista diferentes. Executivos e líderes dos direitos civis. Pesquisadores, defensores, vozes do trabalho, da defesa, dos negócios e das artes”.

Enquanto o Reino Unido e a União Europeia avançam com esforços para regular a tecnologia de IA, a Casa Branca ofereceu no ano passado um plano para uma Carta de Direitos de IA, que vale a pena ler se você ainda não viu. Foi criado pelo Escritório de Ciência e Tecnologia da Casa Branca e tem cinco princípios principais. Os americanos, segundo ele:

  • Devem ser protegidos de sistemas inseguros ou ineficazes.

  • Não devem sofrer discriminação por algoritmos, e os sistemas devem ser usados e projetados de forma equitativa.

  • Devem ser protegidos de práticas abusivas de dados por meio de proteções integradas e devem ter controle sobre como os dados sobre eles são usados.

  • Devem saber quando um sistema automatizado está sendo usado e entender como e por que ele contribui para resultados que os afetam.

  • Devem ter a opção de sair, quando apropriado, e ter acesso a uma pessoa que possa considerar e resolver rapidamente os problemas que encontrarem.

Aqui estão algumas outras atividades em IA que valem a sua atenção.

O Google deseja que o ‘conteúdo sintético’ seja rotulado em anúncios políticos

Com ferramentas fáceis de usar de IA gerando um aumento em anúncios políticos enganosos, como relatado por Oscar Gonzalez da ENBLE, o Google atualizou esta semana sua política de conteúdo político para exigir que os anunciantes eleitorais “divulguem de forma proeminente quando seus anúncios contiverem conteúdo sintético que retrata de forma inautêntica pessoas ou eventos reais ou com aparência realista”.

O Google já proíbe “deepfakes”, ou imagens manipuladas por IA que substituem a semelhança de uma pessoa pela de outra pessoa na tentativa de enganar ou induzir o espectador ao erro. Mas essa política atualizada se aplica ao uso de IA para manipular ou criar imagens, vídeos e áudio de maneiras menores. Ela menciona várias técnicas de edição, incluindo “redimensionamento de imagem, recorte, correção de cor ou brilho, correção de defeitos (por exemplo, remoção de “olhos vermelhos”) ou edições de plano de fundo que não criam representações realistas de eventos reais”. A nova política está explicada aqui.

O que tudo isso realmente significa? Dado o quão fácil é usar ferramentas como o ChatGPT da OpenAI e o Dall-E 2 para criar conteúdo realista, a esperança aqui é que, ao obrigar os criadores de conteúdo a declarar claramente que seu anúncio contém imagens, texto ou áudio falsos, eles possam ser mais cuidadosos em até onde levam suas manipulações. Especialmente se quiserem compartilhá-los em sites populares do Google, incluindo o YouTube, que alcança mais de 2,5 bilhões de pessoas por mês.

Ter um rótulo proeminente em um anúncio manipulado por IA – o rótulo precisa ser claro e visível em um local onde “provavelmente será notado pelos usuários”, disse o Google – pode nos ajudar a verificar a veracidade das mensagens que estamos vendo. (Embora o fato de que algumas pessoas ainda acreditem que a eleição de 2020 foi roubada, mesmo que isso seja falso, sugere que os seres humanos querem acreditar no que desejam, independentemente dos fatos.)

“A atualização da política ocorre no momento em que a temporada de campanha para a eleição presidencial dos EUA de 2024 se intensifica e quando vários países ao redor do mundo se preparam para suas próprias eleições importantes no mesmo ano”, informou a CNN sobre a atualização da política do Google. “Especialistas em integridade de informações digitais têm levantado alarmes de que essas novas ferramentas de IA podem levar a uma onda de desinformação eleitoral para a qual as plataformas de mídia social e os reguladores podem estar despreparados”.

O Google diz que está indo atrás de duas coisas: Primeiro, está tentando impedir anúncios políticos que façam parecer “como se uma pessoa estivesse dizendo ou fazendo algo que ela não disse ou fez”, e segundo, está visando evitar qualquer anúncio “que altere imagens de um evento real ou gere uma representação realista de um evento para retratar cenas que na verdade não ocorreram.” Acredito que qualquer pessoa razoável concordaria que essas não são boas características de um anúncio político.

Críticos podem dizer que isso é apenas um pequeno passo no combate à desinformação, mas pelo menos é um passo adiante.

Como a IA vai mudar o futuro do emprego

Já houve muitos relatórios destacando como a IA geral pode levar ao fim de certos empregos, reescrever outros empregos e criar categorias inteiramente novas de empregos, como eu mencionei ao recapitular vários relatórios sobre o assunto.

Bem, aqui está uma avaliação de 16 de julho da McKinsey and Co. que analisa “IA generativa e a figura do trabalho na América” até 2030, incluindo quais empregos estarão em demanda e quais desaparecerão. O relatório de 76 páginas identifica “ocupações resilientes e em crescimento”, bem como ocupações das quais os trabalhadores já se afastaram (como atendimento ao cliente, vendas e serviços de alimentação).

Dois pontos principais: 30% das horas trabalhadas hoje poderiam ser automatizadas até 2030, o que significa que as descrições de cargos precisarão ser modificadas para destacar como os trabalhadores podem usar seu tempo de forma diferente. E os novos conjuntos de habilidades necessários em um mundo orientado para a IA, em um momento em que a força de trabalho geral nos EUA está diminuindo, significam que “os empregadores precisarão contratar com base em habilidades e competências, em vez de credenciais, recrutar de populações negligenciadas (como trabalhadores rurais e pessoas com deficiências) e fornecer treinamento que acompanhe suas necessidades em evolução”, disse a McKinsey.

Contrapondo artistas contra a IA

Sem dúvida, você já leu histórias sobre como uma IA pode substituir um trabalho ou fazê-lo de maneira diferente de um humano, especialmente quando se trata de escrever ou criar imagens. Em agosto, o The New York Times examinou como a IA está se saindo contra comediantes. Resumo: Os comediantes ainda não precisam se preocupar, já que a maioria das IAs são imitadoras em vez de criadoras e a comédia “depende de novidade e surpresa.”

Isso é o que a Katie Collins da ENBLE também descobriu depois de participar do maior festival de artes do mundo. Cerca de 20% dos 40 shows que ela assistiu no festival de Edimburgo, na Escócia, eram “sobre IA, incluíam referências a ela ou eram de alguma forma co-criados por ela.”

“Eu fui ao festival de Edimburgo este ano me perguntando se shows sobre IA poderiam usar a tecnologia de maneiras novas que me impressionassem ou me dessem uma perspectiva diferente sobre a tecnologia”, escreveu Collins.

“A resposta curta: a IA tem um longo caminho a percorrer antes de conseguir acompanhar artistas humanos em deleitar e divertir as audiências… Como nós, meros mortais, satirizamos a IA, examinamos-a, admiramos-a e rimos dela também continuará a evoluir — e isso é importante. Pois como a IA poderia ser esperada para aprender o que achamos verdadeiramente engraçado, a menos que façamos?”

Pela diversão (com o trocadilho), perguntei ao ChatGPT qual era a piada mais engraçada que ele já ouviu. Aqui está o que obtive:

Como modelo de linguagem de IA, não tenho experiências pessoais ou opiniões, então não tenho uma piada “mais engraçada” que já ouvi. No entanto, posso gerar uma piada aleatória para você:

Por que os cientistas não confiam nos átomos?

Porque eles compõem tudo!

Ei ChatGPT, os átomos não são os únicos que inventam coisas.

A OpenAI está faturando bilhões, a Apple está gastando bilhões em IA

A popularidade do ChatGPT da OpenAI está levando a empresa a atingir US$ 1 bilhão em vendas anuais — mesmo com o declínio do número de visitantes ao chatbot pelo terceiro mês consecutivo em agosto.

A startup, que conta com o apoio da Microsoft, Khosla Ventures, A16z, Sequoia Ventures, os investidores Reid Hoffman e outros, está recebendo cerca de US$ 80 milhões de receita por mês após ter ganho US$ 28 milhões durante todo o ano de 2022 e perdido US$ 540 milhões desenvolvendo o GPT-4 e o ChatGPT, de acordo com o The Information. O site de notícias informou que a OpenAI se recusou a comentar.

De onde vem esse dinheiro? A OpenAI ganha dinheiro licenciando sua tecnologia de IA para empresas e oferecendo assinaturas do ChatGPT para indivíduos, que pagam US$ 20 por mês por uma versão “Plus” que, segundo a empresa, é mais rápida e segura do que a oferta gratuita. O The Information relatou que, até março, a OpenAI tinha entre 1 milhão e 2 milhões de assinantes individuais.

Mas a popularidade do ChatGPT não necessariamente significa grandes lucros para a OpenAI, observou a Fortune. “Mesmo que ela comece a obter lucro, a OpenAI não poderá aproveitar totalmente o seu sucesso por algum tempo”, disse a Fortune. “Os termos do acordo feito no início deste ano com a Microsoft dão à empresa por trás do Windows o direito a 75% dos lucros da OpenAI até que ela recupere os 13 bilhões de dólares que investiu até o momento”.

Enquanto isso, a Apple está “expandindo seu orçamento de computação para construção de inteligência artificial para milhões de dólares por dia”, informou o The Information, acrescentando que a Apple vem trabalhando no desenvolvimento de um modelo de linguagem genAI de grande porte nos últimos quatro anos.

“Um de seus objetivos é desenvolver recursos como o que permite aos clientes do iPhone usar comandos de voz simples para automatizar tarefas envolvendo múltiplas etapas, de acordo com pessoas familiarizadas com o esforço”, disse o The Information. “A tecnologia, por exemplo, poderia permitir que alguém diga ao assistente de voz Siri em seu telefone para criar um GIF usando as últimas cinco fotos que tiraram e enviá-lo para um amigo. Hoje, um usuário de iPhone precisa programar manualmente as ações individuais”.

Neste momento, ficaria feliz se a Siri entendesse o que estou dizendo na primeira vez.

O Ghostwriter de Heart on My Sleeve quer um contrato de gravação

Em abril, a indústria da música – e os compositores – estavam preocupados com uma faixa chamada Heart on My Sleeve criada por um criador desconhecido chamado Ghostwriter usando versões falsas das vozes de Drake e The Weeknd. Considerada uma jogada de marketing brilhante, a música acumulou milhões de reproduções antes de ser retirada das plataformas de streaming. A questão não era a qualidade musical da música (meh), mas as implicações de direitos autorais e legais sobre quem receberia royalties por esse tipo de cópia gerada por IA, que analistas da época disseram ser um dos “últimos e mais altos exemplos de um gênero cinzento em expansão: usar IA generativa para capitalizar sons que podem ser apresentados como autênticos”.

Agora surge a notícia de que Ghostwriter e sua equipe têm se reunido com “gravadoras, líderes de tecnologia, plataformas musicais e artistas para discutir como aproveitar melhor os poderes da IA, incluindo uma mesa-redonda virtual neste verão organizada pela Recording Academy, a organização por trás do Grammy Awards”, relatou o The New York Times esta semana.

Ghostwriter lançou uma nova faixa chamada Whiplash, que usa filtros vocais de IA para imitar as vozes dos rappers Travis Scott e 21 Savage. Você pode ouvi-la no Twitter (agora conhecido como o serviço chamado X) e ver uma pessoa envolta em um lençol branco sentada em uma cadeira atrás da mensagem: “Eu usei IA para criar uma música do Travis Scott com participação de 21 Savage… o futuro da música está aqui. Quem quer ser o próximo?”

“Eu soube imediatamente, assim que ouvi aquela música, que seria algo com o qual teríamos que lidar do ponto de vista da Academia, mas também do ponto de vista da comunidade musical e da indústria”, disse Harvey Mason Jr., líder da Recording Academy, ao Times. “Quando você começa a ver a IA envolvida em algo tão criativo, legal, relevante e atual, você imediatamente começa a pensar: ‘OK, para onde isso está indo? Como isso vai afetar a criatividade? Quais são as implicações de negócios para monetização?'”

Um porta-voz de Ghostwriter disse ao Times que Whiplash, assim como Heart on My Sleeve, “era uma composição original escrita e gravada por humanos. Ghostwriter tentou combinar o conteúdo, a entrega, o tom e a fraseologia das estrelas estabelecidas antes de usar componentes de IA”.

TL;DR: Esse gênero cinzento pode se tornar lucrativo se as gravadoras, e os artistas que foram usurpados, aceitarem o convite da equipe Ghostwriter para lançar oficialmente essas músicas e negociar um acordo de licenciamento.

Quem é quem nas pessoas impulsionando o movimento de IA

A revista Time divulgou esta semana sua primeira lista das 100 pessoas mais influentes que trabalham com IA. É uma mistura de empresários, tecnólogos, influenciadores e acadêmicos. Mas o lembrete da Time sobre os seres humanos envolvidos no processo é o maior destaque.

A Time afirma: “Por trás de cada avanço em aprendizado de máquina e modelos de linguagem de grande porte estão, na verdade, pessoas – tanto o trabalho humano muitas vezes obscurecido que torna os grandes modelos de linguagem mais seguros de usar, quanto os indivíduos que tomam decisões críticas sobre quando e como usar melhor essa tecnologia”.

Frase de IA da semana: ética em IA

Com questões sobre quem possui o quê quando se trata de conteúdo gerado por IA, como a IA deve ser usada de forma responsável e como determinar as diretrizes em torno da tecnologia para evitar danos aos seres humanos, é importante entender todo o debate em torno da ética em IA. A explicação desta semana vem cortesia da IBM, que também possui um centro de recursos útil sobre o assunto.

“Ética em IA: A ética é um conjunto de princípios morais que nos ajudam a discernir entre o certo e o errado. A ética em IA é um campo multidisciplinar que estuda como otimizar o impacto benéfico da IA ao mesmo tempo em que reduz riscos e resultados adversos. Exemplos de questões éticas em IA incluem responsabilidade e privacidade de dados, imparcialidade, explicabilidade, robustez, transparência, sustentabilidade ambiental, inclusão, agência moral, alinhamento de valores, responsabilidade, confiança e uso indevido de tecnologia.”

Nota dos editores: A ENBLE está usando um motor de IA para ajudar a criar algumas histórias. Para mais informações, consulte este post.