YouTube anunció la ampliación de su herramienta gratuita de detección de ‘deepfakes’, inicialmente dirigida a funcionarios, candidatos políticos y periodistas, para incluir ahora a celebridades y artistas de la industria del entretenimiento.
Protección de la identidad
La plataforma de videos propiedad de Google lanzó el mes pasado este sistema de protección de imagen, que ayuda a identificar contenidos en los que un rostro aparece modificado o generado con tecnologías de inteligencia artificial (IA) para imitar a una persona real.
Con la nueva actualización, actores y músicos podrán acceder a la herramienta a través de sus agencias de talentos o representantes, incluso sin disponer de un canal en YouTube.
La función permite buscar contenidos generados por IA que reproduzcan la apariencia de una persona inscrita y otorga la facultad de localizarlos y solicitar su eliminación.
Un punto de inflexión
“Que YouTube abra sus capacidades de detección de deepfakes a las personalidades públicas marca un punto de inflexión en la manera en que las plataformas abordan la protección de la identidad en la era de la IA generativa”, declaró a la AFP Alon Yamin, director ejecutivo y cofundador de la plataforma Copyleaks.
El experto advirtió que la tecnología para reproducir rostro, voz y gestos de una persona avanza más rápido que las salvaguardas, lo que genera una brecha que actores malintencionados ya están explotando.
Desafíos crecientes
La iniciativa llega en un momento en que se multiplican los vídeos hiperrealistas de celebridades fallecidas, creados con aplicaciones de uso general como Sora, de OpenAI, o Seedance 2.0, de ByteDance.
Ejemplos recientes incluyen clips que muestran a Michael Jackson o Elvis Presley, así como recreaciones ficticias de enfrentamientos entre actores como Brad Pitt y Tom Cruise, que han generado inquietud en Hollywood.
Ante esta situación, la Motion Picture Association (MPA) instó a ByteDance a cesar sus actividades de falsificación, acusándola de vulnerar derechos de autor.
Respuesta de YouTube
La plataforma aseguró que trabaja con las principales agencias de talentos para mejorar la detección de imágenes problemáticas y proteger mejor a los artistas.
“Su patrimonio es su rostro, su cuerpo, quiénes son, lo que hacen, su forma de expresarse”, señaló Jason Newman, de la empresa de representación Untitled Entertainment, destacando la importancia de que estas herramientas sean gratuitas para los talentos.
Riesgos y necesidad de precisión
Los especialistas advierten que los riesgos son elevados, ya que los ‘deepfakes’ pueden utilizarse para difundir desinformación, manipular mercados, dañar reputaciones o generar apoyos engañosos.
Por ello, los sistemas de detección deben ser extremadamente precisos, actualizarse continuamente y contar con normas claras y procedimientos de retirada rápidos para ser eficaces.
Aunque estas medidas no eliminarán por completo los contenidos manipulados, sí pueden reducir considerablemente su alcance e impacto, dificultando la circulación de videos falsos sin ser detectados o cuestionados.
Proyección
La decisión de YouTube refuerza la tendencia de las grandes plataformas digitales a implementar mecanismos de protección frente a los riesgos de la IA generativa, en un contexto donde la identidad y la reputación de figuras públicas se han convertido en un patrimonio vulnerable.




