La inteligencia artificial revoluciona el cine (y nuestra mirada)

La presentación del nuevo dispositivo de Apple anuncia un cambio de era. La producción audiovisual se personalizará y cambiará la experiencia cultural de ver una película o una serie en compañía

El lanzamiento de las gafas Apple Vision Pro ha estado lleno de etiquetas sexis y de detalles elocuentes. La compañía norteamericana las ha situado en el contexto de la “computación espacial”, porque contienen el primer “sistema operativo espacial”, en el que se navega con los ojos, se selecciona con los dedos y se escribe con la voz. Ha explicado que incluye una cámara tridimensional. Y que genera entornos inmersivos. Tan inmersivos como un cine con una pantalla de 30 metros situada en la superficie de la Luna.

El vídeo promocional hace énfasis en lo agradable que es conversar, con las gafas ergonómicas puestas, con otras personas a través de FaceTime, en tamaño real si lo deseas. Y explica que en realidad ellas no te ven a ti, como ocurriría si fueras captado por una cámara, sino que una inteligencia artificial de aprendizaje profundo te representa en forma de avatar realista. Al mismo tiempo, las películas se proyectan a una superdefinición que te permite hacer un zoom en cualquier momento. La impresionante experiencia cinemática es uno de los argumentos de venta para que te gastes 3.500 dólares a principios del año próximo.

La historia de esa nueva línea de productos de realidad mixta con diseño Apple tal vez comenzó en 2015, cuando adquirió el estudio alemán de realidad virtual Metaio. O tal vez lo hiciera hace medio siglo, cuando Gene Youngblood publicó su libro Expanded Cinema. Desde entonces y a través del Imax, las cúpulas de proyección 360º o las instalaciones multipantalla de los museos de arte contemporáneo, el cine se ha expandido sobre todo hacia los exteriores, los espacios públicos, los ámbitos de exhibición.

En los últimos años, en cambio, el sentido ha cambiado: el cine se ha ido recluyendo en los interiores. Lo que empezó como home cinema avanza hacia una especie de cine mental. De momento no hemos llegado a la videolentilla o el neuroimplante, pero sí a unas gafas que encapsulan la experiencia cinematográfica a pocos centímetros de tus ojos, aunque parezca que la abren a tu alrededor, doméstico, o hasta los cráteres lunares.

El dispositivo Vision Pro de Apple se exponen en la Conferencia Mundial de Desarrolladores de Apple (Foto: REUTERS/Loren Elliott)

El dispositivo Vision Pro de Apple se exponen en la Conferencia Mundial de Desarrolladores de Apple (Foto: REUTERS/Loren Elliott)

Desde finales de la década pasada, no sólo la proyección, sino también el propio proceso de la realización de una película puede estar atravesado por la inteligencia artificial. Más allá del campo de la toma de decisiones respecto a qué géneros o tramas producir, como hacen los directivos de Netflix o de Amazon Prime Video siguiendo las indicaciones de sus algoritmos.

También la dimensión técnica de todo el proceso de gestación, desarrollo y producción se apoya en la IA: desde la preproducción –con programas que planifican rodajes, buscan las localizaciones ideales en internet o evalúan con Big Data todas las opciones de casting (como hacen los equipos de fútbol americano con sus jugadores, pero con Largo.ai)– hasta la promoción –con redes neuronales como Merlin, de 20th Century Fox, que optimiza los tráileres para que despierten las reacciones deseadas–, pasando por la edición, los efectos visuales o las partituras musicales. En 2017 se lanzó Papercup, que realiza doblajes; y durante la década pasada también se perfeccionaron las tecnologías que permiten generar personajes no humanos que parecen tan reales como tú o como yo.

La tercera década del siglo XXI está siendo la de las falsificaciones profundas. Y ésa ha sido la aspiración del cine desde su origen, desde el tren de los hermanos Lumière o ese gran fake que es Nanuk, el esquimal, de Robert J. Flaherty: suplantar lo real a través de formas sofisticadas de magia tecnológica. Hasta ahora esa suplantación ha avanzado más rápidamente en términos visuales que textuales. Pero Deepmind de Google lanzó el año pasado Dramatron, que tiene nombre de megarrobot capaz de aniquilar a todos los guionistas. Es capaz de diseñar personajes, escribir diálogos y describir escenas. Y el GPT-4 tiene innumerables aplicaciones en la escritura dramática y el diseño narrativo.

Muestra del Apple's Vision Pro en la conferencia anual de Apple, en Cupertino (Foto: REUTERS/Loren Elliott)

Muestra del Apple’s Vision Pro en la conferencia anual de Apple, en Cupertino (Foto: REUTERS/Loren Elliott)

Si entramos en el campo de los futuros inminentes, adivino que el desarrollo de esas redes neuronales de aprendizaje profundo va a llevar hacia la escritura de guiones completos que, además, estarán sincronizados con los guiones técnicos y de producción. También imagino un gran salto en los storyboards: a partir de un guion textual, las inteligencias artificiales podrán crear simulaciones del contenido audiovisual. Maquetas detalladas, películas aproximadas en las que ya estarán todas las imágenes y todos los sonidos de la obra futura.

Pero es en la dimensión del cine expandido para consumo doméstico, modelado por los videojuegos, donde veo más uso de las inteligencias artificiales generativas de texto. Si puedes hacer un zoom con el dedo índice y el pulgar en la pantalla virtual que las gafas imaginan frente a ti, podrás penetrar en zonas del mundo imaginario que no están necesariamente en el guion original. La generación de espacio pixelado podrá ir acompañada de la generación de diálogos, lecturas, escenas, personajes, reacciones. Mientras en la dimensión técnica, burocrática de la película o la serie los algoritmos crearán automáticamente metadatos que permitan indexarla o posicionarla; en la dimensión narrativa, producirán precisamente eso: narración. El interior profundo de la obra.

La nueva temporada de Black Mirror comienza con una sátira de los contenidos automatizados. En clave metaserial y salvaje, Charlie Brooker imagina en “Joan is Awful” una compañía muy parecida a Netflix pero con acceso a la computación cuántica y que es capaz de producir una serie sin intervención humana. Al parecer, la prueba piloto la protagoniza Joan, quien a través de su teléfono móvil y su huella digital nutre a una inteligencia artificial que la convierte en un personaje interpretado por una falsificación profunda de Salma Hayek, de quien posee los derechos de imagen.

El plan de Streamberry es emitir 800 millones de series basadas en sus 800 millones de suscriptores, que han firmado sin saberlo el contrato que cede sus datos y su identidad a la corporación mediática. Los personajes del capítulo ven la tele en pantallas convencionales, en las paredes de sus domicilios. Pero todo apunta a que ese tipo de relatos hiperpersonalizados los veremos en pantallas interiores, en circuitos cerrados de televisión íntima, en el escenario de nuestros cráneos.

"Joan is awful" es el capítulo 1 de la sexta temporada de "Black Mirror"

«Joan is awful» es el capítulo 1 de la sexta temporada de «Black Mirror»

Se trata de una inflexión histórica del sentido profundo del cine, ese ritual colectivo, y de la televisión, que durante tanto tiempo fue sobre todo familiar. La producción audiovisual se personaliza, se interioriza. De ese modo, la experiencia cultural de ver películas o series –como ya ocurre con la de consumir vídeos en YouTube o TikTok– cada vez va a ser más difícil de compartir, de interpretar o discutir colectivamente.

Por eso la semana pasada disfruté en la Universidad Pompeu Fabra de Barcelona del éxito de la primera edición del+Rain Film Fest, el primer festival europeo de cine e inteligencia artificial. Porque las obras –entre el videoarte, la animación, el fotorrelato– se proyectaron en una gran pantalla. Y las charlas y mesas redondas de los protagonistas del nuevo fenómeno, como Cristóbal ValenzuelaBill CusikJorge Caballero o Anna Giralt, fueron presenciales, corporales: cien por cien humanas.

Fuente: Infobae