La plataforma YouTube introdujo una nueva herramienta que permite a los creadores de contenido utilizar la inteligencia artificial (IA) para detectar “deepfakes” o “vídeos falsos” con su rostro.
La inteligencia artificial es una tecnología que cada vez tiene más usos en la vida diaria. En este sentido, los desarrolladores han creado herramientas que pueden ser muy útiles, pero que también pueden usarse para perjudicar a otras personas.
En este caso, hay quienes están utilizando la inteligencia artificial para crear vídeos, imágenes o audios con el objetivo de suplantar la identidad de una persona. Es decir, crean contenido audiovisual con la voz o imagen de una persona de modo que parezcan originales, auténticos y reales.
¿Cómo funciona la nueva herramienta de Youtube para detectar deepfakes con IA?
Se trata de una nueva función que le permite a los creadores de contenido utilizar la inteligencia artificial para encontrar y denunciar vídeos en los que han utilizado su imagen sin su autorización.
La nueva función está dirigida a los creadores del Programa de Partners de YouTube y entró en vigencia a partir del 21 de octubre de este año. Con esta herramienta, la plataforma tiene la intención de frenar el aumento de los deepfakes.
En los últimos meses han aumentado las denuncias sobre la creación de vídeos falsos, donde los ciberdelincuentes utilizan la voz o la imagen de una persona sin su consentimiento.
Generalmente, este tipo de contenido puede afectar la reputación de la persona perjudicada y causar un daño en mayor o menor medida. Al respecto, los daños pueden ser emocionales y hasta económicos.
Por ejemplo, en este tipo de situaciones son muy frecuentes los casos de estafa, ya que los ciberdelincuentes usurpan la identidad de un creador y pueden pedir dinero. Como la IA lo hace parecer real, las personas que están viendo el vídeo suelen caer fácilmente.
En este sentido, la nueva herramienta utilizará el reconocimiento facial y el aprendizaje automático para buscar los vídeos que pudieron ser creados con IA. De esta forma, el creador de contenido podrá tener un mayor control sobre su identidad digital.
Ante esto, Youtube decidió lanzar esta herramienta para ponerle un freno a este tipo de delitos digitales. Una vez que un creador de contenido ha verificado su identidad, puede revisar videos sospechosos en la sección «Detección de Contenido» dentro de YouTube Studio.
Si un video listado parece ser contenido no autorizado generado por inteligencia artificial (IA), los creadores podrán presentar una solicitud directa para que dicho material sea retirado de la plataforma.
Lanzamiento progresivo
Aunque la funcionalidad entró en funcionamiento recientemente, YouTube había anunciado esa herramienta el año pasado. Al respecto, comenzó el periodo de prueba en diciembre con un programa piloto con artistas.
El 21 de octubre YouTube eligió a un grupo de creadores para que comiencen a probar esta función. Sin embargo, en los próximos meses la herramienta llegará a más creadores de contenido.
Con esta nueva herramienta, los creadores de contenido podrán utilizar la IA a su favor para detectar deepfakes y evitar que su imagen sea utilizada en vídeos falsos y manipulados en YouTube.
Información de The Verge / redacción Noti AI
No dejes de leer: Método gtAge: El “reloj biológico” con IA que mide la edad interna de una persona
