El proyecto “sintetiza voces humanas con inteligencia artificial”, y tiene entre sus diferenciales el uso de “modelos que pueden correr en cualquier computadora” sin necesidad de contar con un equipo demasiado potente, explicó uno de sus creadores.
Dos jóvenes ingenieros del Instituto Balseiro, en San Carlos de Bariloche, desarrollaron un sistema con inteligencia artificial (IA) capaz de “segmentar los componentes del habla” como el mensaje, la emoción, el acento o la identidad, y elaboraron una plataforma que permite a los usuarios, en cuestión de “milisegundos”, modificar sus voces, en parte o por completo.
El proyecto “sintetiza voces humanas con inteligencia artificial”, y tiene entre sus diferenciales el uso de “modelos que pueden correr en cualquier computadora” sin necesidad de contar con un equipo demasiado potente, destacó en diálogo con Télam Julián Neñer, uno de los fundadores de Neuralwave.
El proceso desarrollado es rápido, “en el milisegundo en que vos hablás, sale el audio” modificado, aclaró el joven de 28 años, que desarrolló el sistema junto con su excompañero de carrera Raúl Ian Sosa quien, desde Bariloche, y Sosa, desde Luxemburgo -donde lleva adelante su doctorado- desarrollan esta aplicación con la que apuntan a crecer en el segmento de los videojuegos y el entretenimiento.
El sistema también posibilita editar sólo el componente de emoción o el acento, sin cambiar la voz; así, en una películas o serie, por ejemplo, podría modificarse una voz para que hable en otro idioma, pero sin dejar de ser esa voz
La semana pasada, el desarrollo de estos dos ingenieros obtuvo el primer puesto del Concurso IB50K 2023, organizado por el propio Instituto Balseiro, que reparte 50 mil dólares en premios.
Neñer sostuvo que su sistema -denominado Neuralwave- es una solución para, por ejemplo, “las grandes productoras de videojuegos, TV y películas, que tienen el problema de que gastan entre el 5% y el 15% de sus presupuestos en contratar a equipos numerosos de actores de voz”, además de permitirles acortar las semanas o incluso meses que puede demorar la contratación de los actores de voz.
En el caso del “gaming”, donde es común que haya productores “indies” o pequeños, con este sistema “básicamente un solo usuario puede hacer todas las voces distintas y reducir tiempos y costos en la producción del juego”, ejemplificó.
El sistema también posibilita editar solo el componente de emoción o el acento, sin cambiar la voz; así, en una películas o serie, por ejemplo, podría modificarse una voz para que hable en otro idioma, pero sin dejar de ser esa voz.
Pero el aporte de este tipo de desarrollos al ahorro de tiempo y dinero, para realizadores y productores, tiene una contraparte en cuanto a la “pérdida de profesionalidad de la voz” y de puestos de trabajo, cuestionan desde el sector de la locución y los profesionales del doblaje.
El uso de estos programas “va a tender a suplantar la voz del locutor”, dado que “le ponés cualquier voz, en cualquier idioma, y no contempla la propiedad intelectual ni el usuario, que son cuestiones que están reguladas por la actividad profesional”, señaló en tal sentido y dijo que desde el sector están luchando para regular el uso de la Inteligencia Artificial (IA) en el sector.
No obstante, en lo que respecta a los derechos y permisos de los dueños de las voces, Neñer aseguró:“somos éticos, estamos de acuerdo con la ética de la IA, y no liberamos al público la tecnología de clonación”.
Y aclaró que en caso de ser una necesidad de un cliente, pueden “obtener la voz de una persona en particular, consiguiendo los permisos necesarios o pagando incluso regalías, si es algún actor de voz conocido o algún actor de voz que se busque en particular”.
La idea de realizar esta plataforma, relató el joven ingeniero, surgió de estar en contacto con pequeños desarrolladores de videojuegos: “Nos comentaron que tenían este problema y a nosotros se nos ocurrió: ‘Bueno, ¿qué tal si le pudiéramos dar cualquier voz a cualquier persona?’”, recordó Neñer.
“Entonces, estuvimos mirando que no existían buenas soluciones con inteligencia artificial de voz, de audio en general”, contó, y diferenció el proceso que emplea su sistema con el de otras de uso relativamente más expandido.
En muchos casos las tecnologías que generan voces suelen ser “de texto a voz”, que son parecidas pero distintas de “lo que es voz a voz. Anunciar texto a voz, por ejemplo, permite poner un texto y obtener una voz”, pero tienen la dificultad de que “la manera en que sale narrado ese texto no se puede controlar de manera perfecta”.
En cambio, el “voz a voz” permite un mayor control y por eso mismo este emprendimiento apunta al tipo de productoras que requieren “voces altamente emocionales, por ejemplo, llorar o reír… Se habla al micrófono y lo que se traduce en la salida es exactamente lo que dijiste, la forma en que lo dijiste, pero con otra voz”, ejemplificó.