YouTube expande ferramenta de deteção de deepfakes para políticos e jornalistas, permitindo identificar vídeos gerados por IA que imitam o rosto de pessoas reais.
O YouTube está a expandir a sua ferramenta de deteção de deepfakes baseada em inteligência artificial para incluir jornalistas, políticos e outros líderes cívicos. A funcionalidade permite identificar vídeos gerados por IA que utilizam o rosto de uma pessoa real e, posteriormente, solicitar a sua remoção da plataforma. A novidade chega inicialmente como um programa piloto para um grupo selecionado de utilizadores.
Ferramenta analisa vídeos à procura de rostos gerados por IA
A funcionalidade chama-se “likeness detection” e funciona de forma semelhante ao sistema Content ID do YouTube. No entanto, em vez de procurar material protegido por direitos de autor, esta tecnologia procura correspondências faciais em vídeos enviados para a plataforma.
Assim, quando o sistema encontra um vídeo que parece utilizar o rosto de uma pessoa registada no programa, essa pessoa pode analisar o conteúdo e pedir ao YouTube que o remova.
Ainda assim, nem todos os pedidos serão automaticamente aceites. O YouTube afirma que as decisões de remoção seguem as suas políticas de privacidade e regras da comunidade. Por exemplo, conteúdos classificados como paródia, sátira ou crítica política podem permanecer online.
Programa piloto inclui jornalistas e líderes políticos
Até agora, a ferramenta estava disponível para milhões de criadores de conteúdos. No entanto, a plataforma decidiu alargar o acesso a jornalistas, candidatos políticos e responsáveis governamentais.
Segundo o YouTube, estas pessoas podem ser alvos frequentes de vídeos manipulados com inteligência artificial. Por esse motivo, a empresa pretende dar-lhes mais controlo sobre conteúdos que utilizem a sua imagem sem autorização.
Apesar disso, a empresa não revelou quais os participantes que fazem parte do programa piloto.
Como funciona o registo na deteção de deepfakes
Para participar, os utilizadores precisam de fornecer um vídeo de si próprios e um documento de identificação oficial. Esses dados servem apenas para treinar o sistema de deteção facial.
Além disso, o YouTube afirma que essa informação pode ser removida do sistema a pedido do utilizador.
Curiosamente, durante a fase inicial da ferramenta, poucos criadores pediram a remoção de conteúdos detetados. Segundo a empresa, muitos desses vídeos eram considerados benignos ou não problemáticos.
Plataforma tenta responder ao aumento de deepfakes
A expansão desta tecnologia surge num momento em que vídeos criados com inteligência artificial se tornam cada vez mais realistas. Como resultado, plataformas digitais enfrentam uma pressão crescente para limitar o uso abusivo destas ferramentas.
Assim, ao oferecer mecanismos de deteção e pedido de remoção, o YouTube tenta reduzir o impacto de vídeos falsos que imitam pessoas reais.
No entanto, por agora, a empresa não planeia disponibilizar esta funcionalidade ao público em geral. A prioridade continua a ser proteger figuras públicas mais expostas a este tipo de manipulação digital.
Resumo rápido
- O YouTube está a expandir a deteção de deepfakes para políticos e jornalistas
- A ferramenta chama-se “likeness detection” e analisa rostos em vídeos
- Utilizadores podem pedir a remoção de conteúdos que imitem a sua imagem
- Nem todos os pedidos serão aceites, dependendo das regras da plataforma
- A funcionalidade começa como programa piloto para um grupo selecionado
Gostaste deste artigo?
Recebe o resumo tech da semana com as principais novidades.


COMMENTS