La clonación mediante IA de voces de celebridades supera la ley, advierten expertos | Inteligencia artificial (IA)

Es la nueva insignia del estatus de celebridad que nadie quiere. Los estafadores han clonado las voces de Jennifer Aniston, Oprah Winfrey y Kylie Jenner. Los blaggers en línea utilizaron inteligencia artificial para falsificar el tono Tiggerish de Martin Lewis, el asesor financiero de la televisión. Y este fin de semana, David Attenborough se describió a sí mismo como “profundamente perturbado” por haber descubierto que su voz clonada había sido utilizada para entregar boletines de noticias partidistas estadounidenses.

La voz de David Attenborough generada por IA se utilizó para informar sobre Donald Trump – vídeo

Ahora los expertos han advertido que la clonación de voz está superando a la ley a medida que los tecnólogos perfeccionan generadores de voz que antes eran torpes y los convierten en modelos capaces de emular las pausas y respiraciones más sutiles de la entonación humana.

El Dr. Dominic Lees, un experto en IA en cine y televisión que asesora a un comité parlamentario del Reino Unido, dijo a The Guardian el lunes: «Nuestras leyes de privacidad y derechos de autor no están actualizadas con lo que presenta esta nueva tecnología, por lo que hay muy poco que David Attenborough puede hacerlo”.

Lees asesora al comité selecto de cultura, medios y deportes de la Cámara de los Comunes en una investigación que analizará el uso ético de la IA en la realización de películas. También convoca la Red de Investigación de Medios Sintéticos, entre cuyos miembros se incluye la firma que está haciendo una versión con inteligencia artificial del fallecido entrevistador del programa de chat Michael Parkinson, que dará como resultado una serie sin guión de ocho capítulos, Virtually Parkinson, con nuevos invitados. Ese proyecto de clonación de voces se está realizando con el consentimiento de la familia y el patrimonio de Parkinson.

“El gobierno definitivamente necesita considerar [voice cloning]porque es un problema importante para el fraude”, dijo Lee. “Necesita el palo de la regulación gubernamental para disuadir [misuse] … no podemos permitir que esto sea una batalla campal”.

Las estafas de clonación de voz mediante IA aumentaron un 30% en el Reino Unido el año pasado, según una investigación realizada por el banco NatWest este mes. Otro prestamista, el banco Starling, descubrió que el 28% de las personas habían sido objeto de una estafa de clonación de voz mediante IA al menos una vez durante el último año.

Se informa que los estafadores también utilizan la clonación de voz para perpetrar una versión de la estafa de texto «hola mamá», en la que los estafadores se hacen pasar por niños que necesitan que sus padres envíen fondos con urgencia. En líneas telefónicas que ya son confusas, puede resultar difícil detectar que un niño suplicante es el clon de un estafador. Se recomienda a los consumidores que lo comprueben colgando y volviendo a llamar a un número de confianza.

Las personas cuyas voces son clonadas sin su consentimiento lo consideran más que una molestia. Attenborough le dijo a la BBC el domingo: “Después de haber pasado toda mi vida tratando de decir lo que creo que es la verdad, estoy profundamente perturbado al descubrir que estos días otros están robando mi identidad y me opongo en gran medida a que la usen para decir lo que desear.»

Cuando una nueva opción de voz en el último modelo de inteligencia artificial de OpenAI, ChatGPT-4o, presentó tonos muy cercanos a los de la actriz Scarlett Johansson, ella dijo que se sorprendió y enojó porque la voz «sonaba tan inquietantemente similar a la mía que mis amigos más cercanos y los medios de comunicación no pudieron notar la diferencia”.

omitir la promoción pasada del boletín

El asistente de voz OpenAI, Sky, suena como Scarlett Johansson – vídeo

El auge de las voces clonadas plantea la cuestión de qué se pierden de los tonos humanos reales. Lees dijo: «El gran problema es que la IA no comprende las emociones y cómo eso cambia cómo una palabra o frase puede tener un impacto emocional, y cómo se varía la voz para representar eso».

La industria de locución, que proporciona voces para anuncios, animaciones y formación instructiva, tiene que responder rápidamente a los avances tecnológicos. Joe Lewis, jefe de audio de la Voiceover Gallery de Londres, que ha proporcionado voces humanas reales para anuncios de Specsavers y National Express, dijo que ya había clonado las voces de algunos de sus artistas.

Dijo que la IA parecía funcionar mejor con voces masculinas en inglés, tal vez porque eso reflejaba el sesgo en el tipo de grabaciones que se habían utilizado para entrenar el algoritmo, pero advirtió que en general «hay algo en la forma en que se genera que te hace sentir mejor». menos atento”.

“Cuando la IA [voice] respira, es una respiración muy repetitiva”, dijo. “Las respiraciones están en el lugar correcto, pero no se sienten naturales… [But] ¿Puede llegar al punto en que sea realmente perfecto? No veo por qué no, pero llegar al espectro emocional completo está muy lejos”.

Fonte


Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *