UAU! Fala humana já pode ser replicada por robôs; risco de fraudes preocupa

A tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador. O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário — e perigoso. De acordo com dados do instituto de pesquisa MarketsandMarkets, o setor movimentou 8,3 bilhões de dólares em 2021 e deverá alcançar 22 bilhões de dólares até 2026. É uma área que inclui assistentes virtuais como Siri e Alexa, sistemas de atendimento virtual de bancos e até celebridades que emprestam a voz para aplicativos.

 

O perigo reside na possibilidade de replicar vozes reais para, por exemplo, fins políticos, fraudes ou ataques a reputações. O documentário Roadrunner, sobre o chef Anthony Bourdain, suscitou debates sobre o tema. Nele, o diretor Morgan Neville usou inteligência artificial para transformar frases que Bourdain escreveu, mas nunca falou, em narrações em off. Sem especificar o que era original e o que era fake, Neville foi acusado de enganar o público. Embora tenha dito que a família deu a autorização necessária, a polêmica persiste.

 

No vale-tudo da arena política, as vozes sintéticas podem causar enormes estragos. O cineasta Jordan Peele, do aclamado Corra!, criou um vídeo do ex-presidente americano Barack Obama usando a tecnologia deepfake, que mescla imagens reais com falas falsas, para alertar sobre os riscos. “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”, disse a voz fake de Obama.

 

Nesse contexto, plataformas como WhatsApp e Telegram, nas quais mensagens de áudio são amplamente usadas, representam um perigo adicional. No Brasil, nunca é demais lembrar, há uma eleição presidencial no horizonte e provavelmente o artifício das vozes fake será usado por políticos mal-intencionados. Com informações blog Jair Sampaio e Veja.

Compartilhar agora