Si pudieras elegir un concierto del pasado al que ir ¿cuál sería?

Me he hecho esa pregunta un millón de veces. Y, cada vez que encuentro una respuesta (¡Ah, sí! El de Queen en Wembley) me vienen a la cabeza un millón de conciertos más a los que me habría gustado ir (incluso actuales, claro, porque las barreras físicas existen, aunque no exista las temporales).

Cuando el cine empezó a rodar para tener los materiales disponibles por si la peli se hacía en 3D más adelante, le pregunté a un amigo director de cine si creía que alguna vez tendríamos la oportunidad de ver en 3D conciertos antiguos que se hubiesen filmado en su momento. “No” me dijo “si no están grabados para 3D, no pueden pasarse a 3D”. Era la primera década del siglo XXI y todavía no os hacíamos una idea de todo lo que estaba por llegar.

En los 80/90 en España se emitían unos dibujos que se llamaban “Jem y los Hologramas“. Jem era una chica que tenía doble vida (persona anónima y cantante famosa, como Hannah Montana) y los músicos de su banda eran hologramas.

Hatsune Miku es una librería de voz que tiene representación en forma de holograma y en la actualidad es un auténtico fenómeno de masas:

El fenómeno fan que hay alrededor de ella es real. Como destaca wikipedia,  Hatsune Miku realizó su primer recital “en vivo” durante el concierto Animelo Summer Live en vivo en el Saitama Super Arena el 22 de agosto de 2009. Pero no hay que perder de vista que Hatsune Miku es una librería de voz para el programa VOCALOID2, VOCALOID3 y VOCALOID4, es decir es una aplicación software de síntesis de voz, capaz de cantar, desarrollado por Yamaha Corporation, con la idea original de Music Technology Group de la Universidad Pompeu Fabra. Para el fenómeno fan la tecnología es invisible aunque les permite crear canciones ‘cantadas’ por Hatsune.

El caso de Gorillaz en el que una banda humana “anónima” se esconde detrás de dibujos 2D y, para sus actuaciones en directo, se apoya en hologramas.

Pero parece que esta idea de los hologramas sobre el escenario está permitiendo resucitar a algunos músicos y ponerlos de nuevo sobre el escenario desde 2012. Y, a medida que la tecnología avanza, las posibilidades avanzan, también.

Aunque inicialmente poner un holograma sobre el escenario no es algo novedoso y ya se hacían cosas semejantes en el siglo XIX, lo que se plantea ahora es lo siguiente:

  • Se puede hacer un concierto en directo sobreponiendo un holograma de una actuación real del artista muerto o muerta (corrigiendo algunos aspectos técnicos relacionados con la luz que permitan ver al holograma lo más parecido a la realidad posible).
  • Se puede crear un espectáculo superponiendo la imagen del artista fallecido sobre un actor y/o bailarín. De nuevo, aunque el espectáculo sea en vivo (no debería usar esa palabra en este contexto) la parte del holograma es grabada, así que no se podría interactuar con el público y todos los shows serían idénticos unos de otros.
  • Se podría hacer esto mismo pero en tiempo real. Las IA se han alimentado de cientos de imágenes del artista fallecido; se usa un actor/doble que haría los gestos o los bailes y la tecnología mostraría en holograma la gesticulación y el acting del doble pero la “cara” del artista fallecido. Esto permite la interacción con el público y va convirtiendo los conciertos en la experiencia en vivo que son.
  • Con lo que se está viendo actualmente de los deepfake ¿cuánto queda para que podamos ver a The Beatles cantando canciones nuevas?

Ya ha habido varias giras basadas en hologramas, como esta de Roy Orbison:

 

O esta de Frank Zappa:

O la que está planificando el padre de Amy Winehouse (porque ni muerta deja a la chiquilla). Y esto abre la puerta a muchos dilemas morales. ¿Es ético? ¿El artista fallecido lo aprobaría? ¿Quién debe autorizarlo? ¿Solo para música que existió y con grabaciones de vídeo que ya existieron o podemos generar contenido nuevo utilizando la imagen y la voz de una persona fallecida?

En este vídeo podemos ver hasta dónde se ha llegado -de momento- con los hologramas sobre el escenario pero la velocidad con la que esta tecnología puede crecer gracias a los avances que están consiguiendo las IA me hace sospechar que dentro de nada esto será lo más habitual. Y en un par de años diremos “oh, esto es TAAAAN 2019”

También hace tiempo que se está trabajando en algo parecido al teletransporte, pero en versión holográfica. Ahora la tecnología actual lo hace posible en unos niveles de calidad más que aceptables. Hace unos meses Vodafone presentó lo que la tecnología 5G era capaz de hacer en este sentido:

Otra posibilidad es es crear humanos digitales, como ha hecho Doug Roble y presentado en una TED Talk:

 

Leí también hace unas semanas en linkedin que el CSIC está trabajando en una línea de videoconferencias con avatares en realidad aumentada (y 3D) pero no encuentro el enlace. (actualizaré el post tan pronto como lo tenga).

 

Si sumamos todas estas posibilidades que da la ciencia y la tecnología actualmente (y cerrando un poco los ojos hacia la ética), podría ser que los conciertos con hologramas (o humanos digitales, o avatares 3D en realidad aumentada) no tuvieran lugar en espacios comunes sino en el salón de casa (un Sofar Sound virtual). Que además, mezclando las capacidades de Hatsune Miku, los deep fake y las inteligencias artificiales creadoras de contenidos (como esta IA “creando” canciones de The Beatles) ¿podríamos tener nuestro propio concierto en casa cada fin de semana donde The Beatles o Johnny Cash canten cosas que suenan parecidas a sus temas pero creadas de forma ficticia?

En cualquier caso, y por si los dilemas éticos ganan esta partida, es mejor que disfrutemos de la música en directo mientras los artistas están vivos. No hay nada mejor.

 

Más información:

Holograms: The future of concerts

https://www.abc.net.au/news/2018-12-29/hologram-technology-letting-dead-musicians-tour-again/10600996

https://www.billboard.com/articles/columns/pop/7717042/musical-holograms-history-dead