Según los investigadores de Google, MusicLM es capaz de generar música a partir de descripciones que son largas o un poco confusas o bien basarse en conceptos o momentos, como “hora de correr” y “hora de meditar”.
También se le puede ingresar una historia o narrativa melódica para adecuarse a la banda sonora de una película o incluso generar una interpretación musical de un cuadro. En el sitio web, Google describió la obra Danza, de Henri Matisse, y la tecnología dio como resultado una melodía basada en percusiones y ritmos simples.
Si bien se trata de una tecnología sorprendente, todavía tiene algunas fallas, como el hecho de que las muestras tienen una calidad distorsionada, algo que ha sido descrito como “un efecto secundario en el proceso de entrenamiento”.
Con relación a la generación de voces, las “letras” que genera son todas en inglés y en la mayoría de ocasiones generan resultados de fusiones incomprensibles, algo que en México puede describirse con el término “washawashear”.
Cabe mencionar que esta no es la única tecnología capaz de generar música a partir de una Inteligencia Artificial. También existen otras plataformas como Riffusion, Dance Diffusion o Jukebox, desarrollada por OpenAI; no obstante, todas padecen de no poder producir composiciones complejas o de alta fidelidad.
Por otra parte, los desarrolladores de Google admitieron que a pesar de ser un desarrollo que entusiasme, plantea problemas éticos, como incorporar material protegido por derechos de autor en la información de entrenamiento, es decir, que este recurso cometa plagio.
Durante sus pruebas, Google descubrió que alrededor del 1% de la música creada por el sistema se basaba completamente de las canciones con las que había sido entrenado. “Reconocemos el riesgo de posible apropiación indebida de contenido creativo asociado con el caso de uso”.
Hasta el momento, la empresa fue clara respecto a que no tienen planes de lanzar modelos públicos de la tecnología, debido a dichas problemáticas, pero resaltó que seguirán con la investigación para la construcción de un sistema de IA más confiable.
Esta postura también la han asumido con otro tipo de productos. Por ejemplo, un buscador basado en IA, al estilo de ChatGPT, para optimizar los resultados que obtienen los usuarios. En ese caso, la compañía ha decidido no utilizarlo por los problemas de desinformación y sesgos que representa.