OpenAI promete ferramentas contra desinformação eleitoral
A ferramenta conversacional ChatGPT alimentou uma revolução na Inteligência Artificial (IA), mas também suscitou advertências de especialistas
A empresa americana OpenAI, criadora do robô virtual ChatGPT, anunciou que lançará ferramentas contra a desinformação este ano, quando são realizadas dezenas de eleições em países que reúnem metade da população mundial.
A ferramenta conversacional ChatGPT alimentou uma revolução na Inteligência Artificial (IA), mas também suscitou advertências de especialistas de que esses programas poderiam inundar a Internet de desinformação e influenciar as decisões dos eleitores.
Com inúmeras eleições acontecendo este ano em países como Estados Unidos, Índia e Grã-Bretanha, ou em outros menores como o Uruguai, a OpenAI declarou na segunda-feira (15/1) que não permitirá que sua tecnologia – incluindo o ChatGPT e o gerador de imagens DALL-E 3 – seja usada em campanhas políticas.
“Queremos garantir que a nossa tecnologia não seja usada para minar” os processos democráticos, afirmou a OpenAI em um blog.
“Ainda estamos trabalhando para compreender a eficácia das nossas ferramentas de persuasão personalizada. Até sabermos mais, não permitimos a construção de aplicativos para campanhas políticas e grupos de pressão”, acrescentou a empresa.
Desinformação: um risco
A desinformação, incluindo a gerada pela IA, é um dos maiores riscos mundiais no curto prazo e pode causar danos aos governos recém-eleitos nas principais potências econômicas, alertou o Fórum Econômico Mundial na semana passada.
Segundo especialistas, o medo da desinformação eleitoral começou há anos, mas o acesso fácil a potentes geradores de texto e a imagens baseadas em IA aumentou a ameaça, especialmente se os usuários não conseguirem distinguir facilmente se o conteúdo é falso, ou se foi manipulado.
Ontem, a OpenAI informou que está preparando ferramentas que tornem mais confiáveis os textos gerados pelo ChatGPT, além de oferecer aos usuários a possibilidade de detectar se uma imagem foi criada com o DALL-E 3.
“No início deste ano, implementaremos as credenciais digitais da Coalition for Content Provenance and Authenticity (Coalizão para Autenticidade e Prevenção de Conteúdos), uma abordagem que codifica os detalhes sobre a procedência do conteúdo usando criptografia”, declarou a empresa.
Também conhecida como C2PA, essa coalizão pretende melhorar a identificação e o rastreio de conteúdos digitais. Seus membros incluem grandes empresas como Microsoft, Sony, Adobe e as japonesas especializadas em imagem Nikon e Canon.
De acordo com a OpenAI, o ChatGPT direcionará os usuários para sites autorizados quando forem feitas perguntas de procedimentos sobre as eleições americanas: por exemplo, onde votar.
“As conclusões deste trabalho servirão de base para nossa abordagem em outros países e regiões”, afirmou a empresa, acrescentando que o DALL-E 3 conta com “cercas” para evitar a geração de imagens de pessoas reais, incluindo candidatos.
O anúncio da OpenAI foi feito na esteira de medidas tomadas por gigantes da tecnologia como o Google e a rede social Facebook para limitar a interferência eleitoral, especialmente por meio do uso de IA.
Em seu trabalho, a AFP já desmentiu material falso como o do presidente dos Estados Unidos anunciando o recrutamento de soldados, ou o curta-metragem da democrata Hillary Clinton, proclamando seu apoio à candidatura presidencial do governador do estado da Flórida, o republicano Ron DeSantis.
Este tipo de material audiovisual circulou nas redes sociais durante a campanha, por exemplo, para as eleições de Taiwan realizadas este mês, segundo estudos realizados pela equipe de Verificação de Fatos da AFP.
Com informações do Correio Braziliense
Quer ficar por dentro do que acontece em Taguatinga, Ceilândia e região? Siga o perfil do TaguaCei no Instagram, no Facebook, no Youtube, no Twitter, e no Tik Tok.
Faça uma denúncia ou sugira uma reportagem sobre Ceilândia, Taguatinga, Sol Nascente/Pôr do Sol e região por meio dos nossos números de WhatsApp: (61) 9 9916-4008 / (61) 9 9825-6604.