InicioTecnologíaAI fusiona la voz de un cantante de K-pop con el habla...

AI fusiona la voz de un cantante de K-pop con el habla de hablantes nativos

-


El sello musical más grande del K-pop, HYBE, es utilizando inteligencia artificial (IA) para transformar digitalmente la voz del cantante a diferentes idiomas.

Un micrófono en un estudio de grabación - foto ilustrativa.  El cantante de K-pop MIDNATT es el primero en lanzar canciones donde su voz se combina con las mismas canciones leídas por hablantes nativos. Un micrófono en un estudio de grabación - foto ilustrativa.  El cantante de K-pop MIDNATT es el primero en lanzar canciones donde su voz se combina con las mismas canciones leídas por hablantes nativos.

Un micrófono en un estudio de grabación – foto ilustrativa. El cantante de K-pop MIDNATT es el primero en lanzar canciones donde su voz se combina con las mismas canciones leídas por hablantes nativos. Crédito de la imagen: Lucas Alexander a través de Unsplash, licencia gratuita

Los productores de HYBE están utilizando tecnología de inteligencia artificial para fusionar la voz de la cantante surcoreana MIDNATT con las voces de hablantes nativos en otros cinco idiomas, lo que da como resultado una pista lanzada en seis idiomas, todo hecho en un solo lanzamiento.

Si bien algunos cantantes de K-pop han lanzado canciones en inglés y japonés anteriormente, este lanzamiento simultáneo en seis idiomas es una primicia mundial y tiene mucho potencial para allanar el camino para enfoques similares.

La tecnología de música AI interna de HYBE combina a la perfección las voces de MIDNATT con las voces de hablantes nativos grabadas cuando leen las letras.

La tecnología analiza componentes como la pronunciación, el timbre, el tono y el volumen para lograr un sonido más natural. La tecnología de IA, impulsada por el marco Neural Analysis and Synthesis (NANSY) desarrollado por Supertone, mejora la calidad de la música en comparación con el software que no es de IA.

HYBE tiene la intención de poner algunos aspectos de su tecnología de inteligencia artificial a disposición de los creadores y el público.

Según los expertos, se espera que este uso innovador de la IA en la producción musical beneficie tanto a los músicos profesionales como a la población en general, lo que podría reducir la barrera para la creación musical, y no solo para el K-pop.

Si bien el proceso de corrección de pronunciación de IA actual lleva semanas o meses, a medida que se vuelve más rápido, podría servir para varios propósitos más allá de la música, como la interpretación en tiempo real en videoconferencias.

Escrito por Alius Noreika

!function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n;
n.push=n;n.loaded=!0;n.version=’2.0′;n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window,
document,’script’,’https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘1254095111342376’);
fbq(‘track’, ‘PageView’);



Source link

Deja un comentario

- Publicidad -spot_img

Selección