News

OpenAI diz que malfeitores estão usando sua plataforma para atrapalhar eleições, mas com pouco ‘envolvimento viral’

Jaap Arriens | NurPhoto via Getty Images

A OpenAI está a tornar-se cada vez mais uma plataforma de eleição para os intervenientes cibernéticos que procuram influenciar eleições democráticas em todo o mundo.

Em um Relatório de 54 páginas publicado na quarta-feira, o criador do ChatGPT disse que interrompeu “mais de 20 operações e redes enganosas de todo o mundo que tentaram usar nossos modelos”. As ameaças variavam de artigos de sites gerados por IA a postagens em mídias sociais feitas por contas falsas.

A empresa disse que sua atualização sobre “influência e operações cibernéticas” pretendia fornecer um “instantâneo” do que está vendo e identificar “um conjunto inicial de tendências que acreditamos poder informar o debate sobre como a IA se encaixa no cenário mais amplo de ameaças”.

O relatório da OpenAI chega menos de um mês antes do Eleição presidencial dos EUA. Para além dos EUA, é um ano significativo para eleições em todo o mundo, com a realização de concursos que afectam mais de 4 mil milhões de pessoas em mais de 40 países. A ascensão do conteúdo gerado pela IA levou a sérias preocupações relacionadas com a desinformação eleitoral, com o número de deepfakes criados a aumentar 900% ano após ano, de acordo com dados da Clarity, uma empresa de aprendizagem automática.

A desinformação nas eleições não é um fenómeno novo. Tem sido um grande problema desde a campanha presidencial dos EUA em 2016, quando Atores russos encontrou maneiras fáceis e baratas de espalhar conteúdo falso em plataformas sociais. Em 2020, as redes sociais foram inundadas com desinformação sobre vacinas Covid e fraude eleitoral.

As preocupações dos legisladores hoje estão mais focadas no aumento da IA ​​generativa, que decolou no final de 2022 com o lançamento do ChatGPT e agora está sendo adotada por empresas de todos os tamanhos.

A OpenAI escreveu em seu relatório que os usos de IA relacionados às eleições “variam em complexidade, desde simples solicitações de geração de conteúdo até esforços complexos e em vários estágios para analisar e responder a postagens nas redes sociais”. O conteúdo das redes sociais dizia respeito principalmente às eleições nos EUA e no Ruanda e, em menor grau, às eleições na Índia e na UE, disse a OpenAI.

No final de agosto, uma operação iraniana usou produtos da OpenAI para gerar “artigos longos” e comentários nas redes sociais sobre as eleições nos EUA, bem como outros tópicos, mas a empresa disse que a maioria das postagens identificadas recebeu poucos ou nenhum like, compartilhamentos e comentários. Em julho, a empresa proibiu contas ChatGPT em Ruanda que postavam comentários relacionados às eleições no X. E em maio, uma empresa israelense usou o ChatGPT para gerar comentários nas redes sociais sobre as eleições na Índia. A OpenAI escreveu que conseguiu resolver o caso em menos de 24 horas.

Em junho, a OpenAI abordou uma operação secreta que utilizou os seus produtos para gerar comentários sobre as eleições para o Parlamento Europeu em França e a política nos EUA, Alemanha, Itália e Polónia. A empresa disse que, embora a maioria das postagens nas redes sociais identificadas tenha recebido poucas curtidas ou compartilhamentos, algumas pessoas reais responderam às postagens geradas pela IA.

Nenhuma das operações relacionadas às eleições foi capaz de atrair “engajamento viral” ou construir “públicos sustentados” por meio do uso do ChatGPT e de outras ferramentas da OpenAI, escreveu a empresa.

ASSISTIR: Perspectiva eleitoral pode ser positiva ou muito negativa para a China

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button