
En molt poc temps, els deepfakes han passat de ser una curiositat a un maldecap per a plataformes, mitjans i responsables polítics. Els vídeos creats amb IA són capaços de clonar cares i veus amb un realisme tal que, a simple vista, resulta gairebé impossible distingir-los d'un enregistrament autèntic.
En aquest context, YouTube ha decidit fer un pas més amb l'expansió del sistema de detecció de semblança generada per IA, una eina dissenyada per localitzar i gestionar continguts on s'utilitza la imatge d'una persona sense el seu consentiment. El moviment es produeix en un moment especialment delicat, amb eleccions a la vista a diversos països i una pressió creixent, també des d'Europa, per aturar els riscos de la desinformació audiovisual.
De Content ID a la detecció de semblança generada per IA
La nova tecnologia de YouTube, coneguda internament com likeness detection, s'inspira clarament en Content ID, el sistema de referència de la plataforma per a drets d'autor. Mentre Content ID compara pistes d'àudio i fragments de vídeo amb un catàleg d'obres protegides, l'eina contra deepfakes se centra en la identitat: cares, trets i, progressivament, també veu i altres elements biomètrics.
A la pràctica, les persones incloses al programa carreguen material de referència (per exemple, un vídeo propi i un document identificatiu) que permet al sistema entrenar un perfil de semblança. A partir d?aquí, la plataforma analitza els nous vídeos pujats per detectar si la imatge d?aquest individu apareix generada o modificada mitjançant IA en continguts on no ha participat.
Quan el sistema troba una coincidència, llança una alerta a la persona protegida perquè revisi el material. Si considera que el vídeo vulnera la seva privadesa o la política de la plataforma —per exemple, perquè simula declaracions o gestos que mai no ha realitzat— pot iniciar un procediment formal de retirada.
Això sí, YouTube insisteix que la detecció no implica l'eliminació automàtica del contingut. Cada cas passa per una revisió humana a la llum de les normes de privadesa, desinformació i continguts cívics de la plataforma, intentant evitar que l'eina es converteixi en una via ràpida per silenciar crítiques legítimes.

Dels creadors a polítics, funcionaris i periodistes
Quan YouTube va llançar aquesta tecnologia el 2024, ho va fer de forma limitada per creadors integrats al YouTube Partner Program, el programa de socis que agrupa els canals amb més volum d'audiència i monetització. La idea inicial era protegir els que ja patien suplantacions freqüents, des de youtubers de gran abast fins a esportistes, actors o divulgadors coneguts.
Després d'aquesta primera fase, la companyia ha decidit ampliar l'abast a un nou grup pilot format per responsables governamentals, candidats polítics i periodistes. Es tracta de perfils especialment exposats a campanyes de manipulació, on un vídeo fabricat pot tenir efectes directes a l'opinió pública, el resultat d'unes eleccions o la credibilitat d'un mitjà.
Segons ha explicat la plataforma, el sistema permet a aquestes persones supervisar de forma proactiva com es fa servir la seva imatge generada amb IA a YouTube i, en cas de detectar-ne un ús indegut, sol·licitar que es revisi i, si escau, es retiri el contingut. L'objectiu declarat és reduir la capacitat dels deepfakes per distorsionar el debat polític sense necessitat d'esperar que el mal reputacional ja estigui fet.
La companyia no ha detallat quants perfils formen part d'aquesta fase inicial ni ha donat noms concrets, però sí que ha deixat clar que la intenció és anar incorporant progressivament més figures públiques d'alt risc si el pilot demostra ser efectiu. Paral·lelament, milions de creadors que ja eren dins del programa de socis mantenen l'accés a aquestes mateixes eines.
Procés de verificació i requisits daccés
Per poder utilitzar l'eina de detecció de deepfakes, els participants han de passar per un procés previ de verificació didentitat. Aquest pas inclou facilitar un vídeo propi i un document oficial, de forma similar a com ho fan alguns serveis financers o plataformes de verificació en línia.
YouTube subratlla que les dades recopilades es destinen únicament a confirmar la identitat i crear el perfil de protecció, i que no es faran servir per entrenar els models d'intel·ligència artificial de Google. Aquest aclariment no és casual: l'ús de dades biomètriques per alimentar sistemes d'IA és un dels punts més sensibles al debat regulador actual, especialment a la Unió Europea, on el futur marc de la IA posa el focus precisament en aquests riscos.
Un cop verificat el perfil, l'usuari pot accedir a un tauler on revisar coincidències detectades i gestionar les sol·licituds de retirada. Aquesta dinàmica recorda el funcionament de Content ID, on els titulars de drets trien entre bloquejar, monetitzar o simplement monitoritzar els vídeos que utilitzen el contingut protegit.
En el cas de l'eina de semblança, de moment l'opció clau és la petició d'eliminació per motius de privadesa o suplantació, encara que la companyia ha lliscat la possibilitat d'incorporar en el futur altres respostes, com ara restringir la visibilitat o etiquetar de manera més prominent que el contingut és sintètic.

Equilibri entre protecció de la identitat i llibertat dexpressió
Un dels punts en què YouTube més insisteix és al equilibri entre la protecció davant de suplantacions i la defensa de la llibertat d'expressió. La companyia recorda que a la plataforma hi tenen cabuda gèneres com la paròdia, la sàtira política o l'humor, que sovint juguen precisament amb exagerar o deformar la imatge de personatges públics.
Per això, fins i tot si el sistema detecta un deepfake d'un dirigent polític o una figura mediàtica, no està garantit que el vídeo desaparegui. Si queda clar que el contingut és una broma, una crítica evident o una peça de comentari polític que forma part del debat públic, la plataforma pot optar per mantenir-lo accessible, encara que estigui generat o manipulat amb IA.
Aquest enfocament també cerca evitar l'anomenat efecte descoratjament, és a dir, que la simple possibilitat d'una reclamació porti els creadors a autocensurar-se per por de perdre visibilitat o patir sancions. Des de l'empresa sostenen que, entre celebritats i grans creadors que ja fan servir l'eina, el volum de sol·licituds d'eliminació ha estat relativament baix fins ara, i bona part dels vídeos detectats es consideraven inofensius o fins i tot beneficiosos per a la popularitat del subjecte.
No obstant això, en el terreny polític i periodístic la sensibilitat és més gran. Un vídeo creïble que mostra un candidat pronunciant frases que mai va dir o un periodista recolzant teories falses pot tenir un impacte immediat en processos electorals o en la confiança als mitjans, cosa que obliga la plataforma a filar més fi a l'hora d'avaluar els casos.
Pressió regulatòria i context internacional
L'ampliació d'aquesta eina no s'entén sense el context regulador i polític que envolta la IA generativa i el seu paper en la desinformació. Als Estats Units, YouTube ha expressat el seu suport a la proposta coneguda com a NO FAKES Act, que aspira a crear un marc federal per protegir la veu i la imatge de les persones davant de recreacions no autoritzades amb intel·ligència artificial.
Tot i que aquesta iniciativa legislativa s'està debatent a l'altra banda de l'Atlàntic, el seu esperit encaixa amb els esforços de la Unió Europea per establir normes clares sobre transparència, traçabilitat i ús responsable de continguts sintètics. El futur reglament europeu d'IA i altres normes en matèria de serveis digitals estan empenyent les grans plataformes a incorporar mecanismes de detecció, etiquetatge i control de vídeos generats artificialment.
A Europa, el focus no està només en la protecció de personatges coneguts. Les autoritats comunitàries també es preocupen per l'efecte acumulatiu dels continguts falsos a la qualitat del debat democràtic, especialment en períodes electorals. En aquest escenari, la decisió de prioritzar figures d'alt risc com a polítics o periodistes encaixa amb la lògica de reduir primer el potencial de dany més greu sobre institucions i processos democràtics.
Per YouTube, moure's en aquesta direcció no només respon a la pressió política, sinó també a la necessitat de mantenir la confiança d'usuaris, anunciants i creadors a la plataforma. La proliferació de vídeos falsos, enganyosos o de baixa qualitat generats massivament per IA ja ha obligat la companyia a endurir les seves polítiques contra el correu brossa i els continguts automatitzats poc transparents.

Un problema sistèmic per a plataformes i debat públic
Els avenços recents en models generatius han convertit els deepfakes en una amenaça sistèmica que afecta tant particulars com institucions, empreses o mitjans. En el cas de figures públiques europees —des d'eurodiputats fins a responsables autonòmics o nacionals—, els vídeos manipulats es poden utilitzar per sembrar desconfiança, polaritzar debats o propagar informació enganyosa a gran velocitat.
Davant d'aquest panorama, l'estratègia de Youtube encaixa en una tendència més àmplia que també segueixen altres grans tecnològiques. Plataformes com Meta, TikTok o xarxes professionals estan experimentant amb mecanismes automàtics de detecció i etiquetatge continguts sintètics, així com amb avisos específics en temes cívics o electorals.
En paral·lel, la indústria tecnològica està començant a considerar la detecció d'IA i la verificació d'identitat digital com a nova capa d'infraestructura. Tant per a empreses de mitjans europees com per a administracions públiques, la capacitat de comprovar l'origen i l'autenticitat d'un vídeo es perfila com un requisit cada cop més important en les polítiques de comunicació.
La pròpia YouTube ha deixat caure que el seu full de ruta contempla no només seguir perfeccionant la detecció de rostres, sinó també ampliar la tecnologia a veus clonades, gestos característics i altres elements d'identitat. Si es consolida, aquesta evolució obligarà també legisladors i organismes de protecció de dades a actualitzar criteris i garanties, especialment dins de la UE, on l'ús de dades biomètriques està fortament regulat.
Tot plegat, l'ampliació de l'eina de detecció de deepfakes de YouTube mostra fins a quin punt les plataformes estan reconfigurant els seus sistemes per conviure amb la IA generativa: alhora que impulsen eines creatives per als seus usuaris, es veuen obligades a desplegar escuts cada cop més sofisticats contra les suplantacions digitals i la manipulació informativa, amb especial atenció als que sostenen el debat públic, com a responsables polítics i periodistes.