«Y entonces el Califa le dijo a Scherezada: "Cuéntame una película que me ayude a pasar la noche"».

Entradas etiquetadas como ‘Walter Murch’

EL ACORAZADO POTEMKIN PERSISTE EN LAS ESCALINATAS DEL TIEMPO

Es naturalmente, el arte más internacional. La primera mitad del siglo, sin embargo, no ha utilizado de él más que unas migajas… Asistiremos al sorprendente éxito de dos extremos: el actor taumaturgo, encargado de transmitir al espectador la materia de sus pensamientos, irá de la mano del cineasta-mago de la televisión que, haciendo malabarismos con los objetivos y las profundidades de campo, impondrá directa e ins­tan­táneamente su interpretación estética en una fracción de segundo. Ante el cine se abre un mundo inmenso y complejo.

                                                  Sergei Mijailovich Eisenstein

Charles Chaplin dijo que era «la mejor película que se había hecho». Douglas Fairbanks afirmó entusiasmado que verla había sido «la experiencia más profunda de su vida». El acorazado Potemkin (Bronenosez Potiomkyn, 1925) rara vez no encabeza las listas de las mejores películas de la historia. Las técnicas narrativas introducidas en este filme cambiarán definitivamente el carácter visual de un arte internacional. Todos los aspirantes a cineastas estudian la obra escrita y fílmica de Sergei Mijailovich Eisenstein (Riga/Letonia, 1898-Moscú, 1948) que construyó los basamentos de la sintaxis cinematográfica. A él se acercan con admiración has­ta los más duchos cineastas con la misma devoción con la que un escritor se acerca a clásicos como Homero o Virgilio.

Los hiperbólicos halagos han construido una aureola mítica alrededor de esta cinta. No es para menos. El realismo que frisa un estilo documental, el vertiginoso ritmo de las acciones, la precisión, complejidad y expresividad del montaje, el efectivo mane­jo de una multitud de extras, hacen de ésta una epopeya inusual para un arte que solo tenía treinta años de creado. «Es un huracán sabiamente organizado», como bien lo ha señalado el crítico español Ángel Zuñiga, huracán narrativo que nace del estudio que hiciera Eisenstein de dos clásicos, Charles Dickens en la literatura y D. W. Griffith en el cine mudo.

 «La suma de dos tomas es diferente al sentido de cada una de ellas»

Un ritmo en crescendo dispara las escenas, una tras otra, de manera fulminante. Éstas parecen agolparse en la pantalla con la misma furia de los acontecimientos relatados. Y son imágenes que lucen tan actuales, tan frescas, por su dinamia en el montaje, por aquello que el cineasta ruso llamaba montaje de atracciones que no es más que un elemental principio en el que un fotograma atrae dramáticamente al siguiente o, si se quiere, se puede ver el término atracción en el sentido que nos dice la Física: «La que ejercen to­das las moléculas (fotogramas) de los cuerpos mientras están unidas o en contacto (a través del montaje)». O en el decir de Eisenstein es «someter al espectador a una acción sensorial o sicológica calculada matemáticamente para producir en el espectador determinados shocks emocionales que, una vez reunidos, condicionan de por sí la posibilidad de percibir el aspecto ideológico del espectáculo mostrado». La teoría del montaje de atracciones se resume en un principio básico: «La suma de dos tomas es diferente a la suma del sentido de cada una de ellas». Este precepto influyó en coterráneos como Pudovkin, para quien «el sentido de una imagen es una proposición que continúa con el sentido de la anterior». Nadie como el director de Potemkin dejó tan claro los fundamentos de la edición: «El plano es la célula del montaje», escribió Eisenstein, para quien el proceso creativo cinematográfico tenía su mejor expresión durante la fase de postproducción. En efecto, el plano o conjunto de fotogramas obtenidos ininterrumpidamente en una to­ma constituye la unidad narrativa elemental del sistema cinematográfico. En este sentido, el principio de colisión no significa más que lo siguiente: el significado de un plano se completa, enriquece o transforma con el de los planos que le anteceden y suceden. Cualquier editor puede sumar dos planos cualesquiera, pero la significación de los mismos existirá de acuerdo al contexto en que sean insertados y dependerá de los planos anteriores y posteriores.

¿Cómo lograr la continuidad según la teoría del director de Potemkin? Hay que seleccionar los planos que expresan una misma acción, lo que se manifiesta a través de la presencia de rasgos comunes, complementarios o correspondientes: los elementos visuales (escenografía, perspectiva, iluminación, etc.); las direcciones del movimiento (de la cámara o de un cuerpo moviéndose captado por ella), de la mirada, del gesto; la angulación, etc. Eisenstein fue el primero en percibir, en teoría y en praxis, todas estas nociones sobre el plano y la riqueza expresiva que se puede crear combinando todos los elementos nombrados.

Esta teoría del montaje podría asociarse con el cubismo, tendencia artística que introdujo en 1912 la idea del collage y los papiers collés, es decir, la idea de cortar y pegar en una suerte de conjunto donde primaba lo fragmentario, sin ambages ni ocultamientos de ningún tipo. Este dinamismo o movilidad de los frag­mentos ensamblados en una pintura es tomada por el montaje cinematográfico. Después de todo movies viene de move y motion pictures significa imágenes en movimiento.

Definiendo el montaje

El galicismo raccord (relación, unión) designa el perfecto ajuste de movimientos y detalles que afectan a la continuidad entre distintos planos, y en consecuencia, raccordar significa unir dos planos de modo que no se produzca una falta de coordinación o continuidad entre ambos, compaginarlos de modo que el corte no sea percibido. La ausencia de raccord equivale a un desconocimiento del lenguaje cinemático, es una falencia en la gramática del cine que atenta contra la concordancia, de tal forma que un salto de eje o falta de continuidad logra desconcertar o enajenar al espectador, de la misma manera que sucede cuando una persona comete un error al construir mal una frase u oración.

El raccord es un concepto clave en la edición que puede ser definida como el acto de unir, pegar o enlazar los fotogramas. La edición viene a ser la sintaxis del relato cinematográfico. «Si el montaje puede ser comparado con algo», nos dice Eisenstein, «en­tonces unas piezas de montaje, de planos, deberían ser comparadas con la serie de explosiones de una máquina de combustión interna, que hace avanzar a un tractor o automóvil; de modo semejante, la dinámica del montaje sirve como impulso para hacer avanzar el filme en su conjunto». Walter Murch (The godfather, The english patient, The unbearable lightness of the being) define al montaje «no solo como un medio para articular un espacio tridimensional, sino como una prolongación del pensamiento y de las emociones, igual que hacemos en nuestras ensoñaciones diurnas, en las que combinamos ideas y sentimientos en yuxtaposiciones más personales, más significativas y misteriosas de lo habitual». Murch men­ciona la yuxtaposición y la articulación. Estos dos conceptos solo pueden darse, nos dice Eisenstein, si el cineasta no se contenta con presentar los acontecimientos, sino que los selecciona de manera tendenciosa, según el tema y el objetivo ideológico de conjunto.

¿Cómo trabajan los editores?

El montaje se consolidó como una profesión estable ocho años antes de exhibirse El acorazado Potemkin. Sorprendentemen­te los editores de entonces trabajaban a mano, luego vino la moviola, el tomavistas y posteriormente el sistema de edición computarizada. En la actualidad un editor no tiene el grado artesanal que tenía en 1917, es considerado un artista que trabaja al servicio del director, del estilo de la historia y que le da forma a miles de metros de material en bruto. Es por eso que cuando vemos la edición de una película podemos percibir un yo que está hablando, una entidad inteligente que está ordenando la forma en que percibimos la historia.

El montador o editor se fue convirtiendo en una figura importante en la medida en que el cine se iba alejando de su máximo precedente, el teatro. Walter Murch define de manera precisa su labor: «He obtenido de este plano todo lo que puede ofrecer y estoy en el punto de cortar a otra imagen: ¿cómo puedo elegir mejor el plano siguiente, un plano que intensifique y desarrolle la emoción, que ayude a contar la historia correctamente y que entre rítmicamente en el momento oportuno, igual que en una pieza musical?». La respuesta a esta larga pregunta es aparentemente sencilla. El metraje rodado de cualquier película contiene una gran cantidad de repeticiones. El director puede rodar una escena en plano general con gran angular y repetirla tres o cuatro veces hasta conseguir las interpretaciones que desea. Es usual disponer de más de veinte y cinco tomas completas de la escena desde siete u ocho puntos de vista diferentes. Murch termina de responder la pregunta: «Si he empezado con este plano y el actor menciona a otra persona en la escena talvez pueda cortar a esa persona en el momento oportuno. Y de las tres tomas disponibles de ese segundo plano, intentas ele­gir la que parece mejor iluminada, mejor interpretada, la que conjuga mejor el movimiento del actor con el de la escena».

Murch, como todos los editores en la actualidad, hacen su trabajo en un ordenador. Pero no siempre esto fue así. Primero se editaba con un par de tijeras y pegamento, luego vino la mo­vio­la. A nivel de forma ya sabemos cómo se compagina en estos días; pero a nivel de fondo, ¿cuáles son los parámetros que se deben tomar en cuenta? Siguiendo la correcta metáfora de Jim Clark (The mission, The killing fields), «el barro ha sido moldeado por mucha gente. La tarea del montador es tomar el barro y crear la mejor vasija posible». Ese barro Clark lo segmenta en beats (término tomado del teatro que significa «compases»): «Cuando se empieza a montar una escena, la organizo dividiéndola en fragmentos o beats; beat uno, beat dos, beat tres. De eso se compone un momento: de compases dramáticos. Si es una escena larga, con seis fragmentos, la divido y trabajo cada sección, montándola en continuidad. Por ejemplo, si tienes una escena con tres personas hablando, te fijas en el tema de la conversación; el primer fragmento trata de una cosa y luego la conversación cambia y pasa al siguiente tema o fragmento, luego vuelve a cambiar, y así sucesivamente). En esencia, lo que hago es dividir la escena de modo que pueda memorizarla con mayor facilidad y que esté relacionada con el drama».

Pietro Scalia (Hannibal, Good Will Hunting, JFK, Gladiator) es más específico contando cómo es el modus operandi de un editor: «Una vez que se ha iniciado el rodaje, cada noche se envía al laboratorio la película filmada (el negativo). Allí se procesa y vuelve a la sala de montaje al día siguiente, donde mis ayudantes la preparan para proyectarla por la noche en los dailies (tomas diarias), para que la vea el director. Sincronizan el sonido con la imagen, registran y numeran la película y preparan los cuadernos de proyección que yo utilizo para tomar notas durante la exhibición de los dailies, donde apunto lo que veo y cualquier comentario que me haga el director. Es emocionante asistir a los dailies. En la pantalla donde se los pasa busco cosas que me afecten, que me digan algo. ¿Por qué se reacciona de manera distinta a una toma y otra? ¿Qué tiene de especial ese movimiento de cámara o aquella interpretación de un actor? Memorizo visualmente el material y luego tomo algunas notas. En los dailies intentas seleccionar esos fragmentos de autenticidad de una película. Después de las proyecciones, mis ayudantes organizan el material, transfieren la película a cinta de vídeo y la digitalizan en mi ordenador. Entonces empiezo a montar».

La famosa escena de las escaleras

Concluido este paréntesis técnico, analicemos la secuencia más célebre de El acorazado: la matanza en las escalinatas de Odessa. Una mujer es asesinada mientras el coche, donde está su hijo, empieza a rodar por las gradas sin mano alguna que pueda salvarla. El suspenso aumenta debido al fragor de las armas de fuego y a la violencia que reprime el amotinamiento. La superposición de planos rápidos para crear un efecto totalmente visceral o intelectual, mostrar de forma repetida la misma escena desde varios ángulos, alargar y destacar rápidamente una escena medular, constituyen la marca registrada de Eisenstein, incorporada a la gra­mática del cine actual y la estética del vídeo clip. Esta escena con innumerables imitaciones en la historia del cine nunca ha logrado ser igualada. La imitación más conocida es la de Brian de Palma en The untouchables (1987), en la que Kevin Costner y Andy García tienen que enfrentar a los chicos malos de Al Capone en una estación ferroviaria

¿Un filme de encargo?

Este filme era uno de los encargos que el gobierno le había hecho al director de teatro Sergei Mijailovich Eisenstein —hijo de un arquitecto alemán de origen judío, estudiante de Ingeniería Ci­vil y Arquitectura, dibujante, decorador y escenógrafo— para celebrar el vigésimo aniversario de la revolución de 1905. El partido comunista había seleccionado ocho guiones para la celebración de la revolución; sólo dos fueron finalmente aceptados. El acorazado Potemkin era uno de ellos. El tema elegido fue el de un acorazado anclado en Odessa, para simbolizar la totalidad de la revolución. Los marineros se amotinan debido a un reparto de carne llena de gusanos. El motín es reprimido por tropas imperiales. El navío hu­ye hacia el puerto de Odessa. Los oficiales son arrojados al mar hacia un puerto rumano. La población de la ciudad apoya a los marineros maltratados pero los soldados imperiales matan a los ciudadanos en la escalinata del puerto. Mientras tanto, la Armada Imperial se acerca por mar para reprimir el amotinamiento que ya no es únicamente del barco de guerra Potemkin sino de toda una ciudad. En la película, los hombres del Potemkin deciden enfrentarse a la flota; la tripulación de los barcos amenazantes retira sus cañones negándose a disparar contra sus hermanos marinos mientras los amotinados se van navegando. En la realidad, los amotinados lucharon y finalmente se rindieron; algunos escaparon y otros fueron ejecutados.

La película fue realizada en Odessa con la participación de actores profesionales y de los pobladores de ese puerto. La mayoría de ellos había vivido los acontecimientos revolucionarios, en ese entonces no tan lejanos, y recordaban los detalles de la matanza.

Un filme clandestino

Eisenstein, gran teórico del lenguaje cinematográfico (escribió libros como Teoría del cine o su póstumo Teoría del cine en colores), tenía la experiencia de haber sido uno de los reporteros fílmicos de la Guerra Civil Rusa. Esto le dio un carácter más realista y documental a su obra más perfectible, El acorazado Potem­kin, que originalmente fue prohibida en numerosos países capitalistas, en particular en Francia hasta 1952. Para verla era necesario asistir a las sesiones clandestinas que organizaban los grupos de extrema izquierda.

En los años del cine parlante, este artista ruso desarrollaría una concepción cinematográfica basada en los avances expresivos del color, siempre transmitiendo un epos lleno de lirismo que se une con la problemática de fondo, lo cual lo distingue como uno de los primeros auteurs. Durante los años treinta estuvo en Hollywood­landia pero sus proyectos fueron rechazados por los ignorantes di­rectivos de la Paramount. Decide entonces marcharse al país vecino para filmar Viva Méjico, su incomprendida e inacabada visión de la revolución mexicana que tuvo diversos montajes y cuyas imágenes sirvieron para otras películas. En la Unión Soviética tam­bién le destruyeron su inconclusa El prado de Bezhin, pero logró una genial metáfora sobre el peligro nazi en vísperas de la Segunda Guerra Mundial con su memorable Alexander Nevski. En 1945 realizó su última obra, Iván el Terrible, en colores, una evocación del zar unificador de todas las Rusias a modo de parábola de la dictadura estalinista.

El disidente cosmopolita

Al final, este creador fue obligado a retractarse de su obra, acusado de esteticista y demasiado individualista, y de no servir al partido. Las acusaciones fueron injustas puesto que Eisenstein pa­reció siempre navegar entre la ideología marxista y su sentido pro­fundo del alma y de la tierra rusa; sin embargo, a causa de su cosmopolitismo y el contacto que tuvo con Occidente (especialmente durante su estancia en Méjico y Estados Unidos), su pensamiento materialista evolucionó hacia la fe. Recién en 1958, ya muertos el cineasta y el dictador, el XX congreso socialista lo reivindica con la proyección de la segunda parte de Iván el Terrible, que contiene secuencias de inigualable colorido para la época en que fue filmada. Quedó en la gaveta el proyecto de una tercera parte que nunca llegó a concretarse en parte por la represión política y en parte por la enfermedad cardiaca que acabó con el Einstein del cine.

Clásico de clásicos

Nos quedamos con las siguientes imágenes de Bronenosetz Potiomkyn: el plano detalle de la carne de res putrefacta, llena de gusanos, que provoca el amotinamiento. La de los marinos colgados del palo mayor del barco de guerra. Los leones de piedra que parecen estar irguiéndose para responder a la masacre de la gente de Odessa. El rostro desesperado de la madre que ve morir a su hijo en las escalinatas. El monje de cabellera blanca hirsuta que em­puña una cruz y aparece entre los marinos como si fuera más que una alucinación, una voz de la conciencia colectiva. El ojo y el cristal de los lentes perforados en una mujer que también es víctima de la masacre. La boca de los cañones del acorazado que parecen apuntar al espectador. Nunca antes hubo tal clarividencia al ver al cine como un arte eminentemente visual que logra producir schocks en el espectador. Nunca después se dio una comunión tan perfecta entre política y arte, sobre todo teniendo en cuenta que en ningún momento la obra llega a la apología. Aunque el mensaje socialista es subyacente lo que le interesa al director es la serie de acciones que está narrando, los encuadres, la fuerza visual y poética de cada imagen que colisiona en la retina del espectador. En ningún momento su cine se vuelve panfletario, pues la artística y vigorosa narración no se deja prostituir por la anécdota que recrea.

Battleship Potemkin (tal es el título norteamericano de distribución), con fotografía de Edouard Tissé, y música posterior­mente añadida de Edmund Meisel, tiene un encanto tan poderoso que se resiste al paso del tiempo. Las nuevas generaciones redescubren admiradas esta obra que va camino a su centenario luciendo cada vez más fresca y contemporánea.

Anuncios

EL MATRIMONIO ENTRE SONIDO E IMAGEN U OBSERVAR UN FILME CON LOS OÍDOS

¿Sabía usted que los sonidos que escuchamos en el cine son añadidos en la postproducción, o que cada ruido es creado a propósito para el filme? Un personaje no camina sobre la nieve, sino sobre harina de maíz. Una ventana que se rompe no está hecha de vidrio sino de azúcar cristalizado. La piedra esférica que persigue a Indiana Jones en Raiders of the lost ark no está hecha de piedra sino de espuma plástica. Una cabeza aplastada es casi siempre un melón o una sandía que se tritura.

Después de estos ejemplos, solo cabe una afirmación: acaso el sonido sea la técnica más difícil de estudiar en el mundo de las imágenes cinemáticas. Estamos mal acostumbrados a vivir en un entorno sonoro al cual no le ponemos mucho asunto. No solemos leer la realidad con nuestros oídos. Walter Murch (The godfather, The english patient, Apocalypse now) asegura que desde el instante en que nacemos, «la audición parece retroceder al fondo de nuestra conciencia y funciona más como un acompañamiento de lo que vemos», y se hace una pregunta capital: «¿Por qué el primero de los sentidos en ser activado no permanece dominante sobre los otros a lo largo de nuestra vida?». Intentaremos ensayar una respuesta: a diferencia de los ciegos, que tienen más desarrollado el sentido de la escucha, nosotros vivimos como «ciegos auditivos». La contaminación sonora hace que seamos incapaces de leer nuestra sonósfera. Póngase como ejemplo la degeneración urbana, perdón, la regeneración urbana que hace que la «suave música» de taladros, palas, picos y tractores afecte nuestros tímpanos. Solemos, por tanto, ser espectadores de un filme, pero no atentos oyen­tes del mismo. Tendemos a considerar que el sonido es un simple acompañante de la realidad que nos presenta o nos inventa una película, pero no sabemos que la forma en que el cine nos «engaña», o nos permite entrar en la historia, es a través del sonido.

Además, no podemos parar la película y congelar un instante sonoro, pero sí podemos hacerlo en cambio, con una imagen, con una escena. Lo ideal, pero al mismo tiempo imposible, sería estudiar el audio de un filme en una consola, en una cabina en la que podamos analizar los diversos niveles de realidad sonora que el diseñador de sonido y el editor de sonido (a veces son la misma persona) han logrado crear. Es una apabullante realidad: el poder del sonido a veces es tan avasallador que puede ser omitido por nuestra atención. La idea de este texto es crear una conciencia sonora en los cinéfilos y hacerles notar que no se ve y se escucha un filme (suena a dos actividades separadas). Lo oímos/vemos (es una operación simultánea).

Un marco histórico

Antes de la invención del fonógrafo por parte de Thomas Alva Edison, en 1877, era imposible imaginar la captura del sonido y su posterior reproducción. El cine mudo procedió a reconocer la necesaria existencia del sonido, al utilizar música como acompañamiento de orquesta, órgano o piano en cada exhibición. De no existir música, no habría existido forma de llenar un insoportable silencio. La música, por ende, ayudaba a percibir mejor el fenómeno de las movies o moving images (imágenes móviles). ¿Se imaginan una película muda, sin ningún tipo de acompañamiento musical? Se oiría con claridad el mascar de las palomitas de maíz o los besos de los enamorados en el público presente.

Quien logró significativamente que se le dé importancia al sonido fue el cineasta ruso Sergei M. Eisenstein con una propuesta teórica que él denominó «sincronización de los sentidos», que constituye la unificación de imagen y sonido a través de un ritmo sonoro único y homogéneo.

En 1926, en la primera época del cine norteamericano, después de la comercialización de las películas sonoras, todo tenía que ser grabado simultáneamente: música, diálogos y efectos de sonido. A través de los discos de acetato Vitaphone todo debía estar correctamente registrado, de lo contrario había que regrabar.

La esencia del sonido cinematográfico solo fue develada en 1929 con el perfeccionamiento del sonido óptico de 35 mm. perforado. Entre los años 1929 y 1930 este invento fue más lejos. La invención del sistema de regrabación implicaba que varios tracks (canales) de sonido podían ser controlados por separado y luego recombinados. La alquimia sonora había nacido, pero esto no significaba perfección. De hecho, las películas de ese entonces apenas añadían en la postproducción diecisiete efectos sonoros.

Las dos películas señeras en la historia de este aspecto técnico son Steamboat Willie (1928) de Walt Disney y King Kong (1933). La película de Disney supuso un gran descubrimiento: las figuras bidimensionales de dibujos animados solo se mueven, no pueden hablar, por lo que la añadidura del sonido era casi como la obtención de la piedra filosofal. De allí que dos aportes trascendentales hayan surgido a partir de estas dos películas: la voz en falsete agudo de Mickey Mouse (llamado originalmente Mortimer) y el rugido memorable que Murray Sivak le dio a King Kong.

El aporte de Walter Murch

Fue con la llegada de Francis Ford Coppola y Georges Lucas que se dio la profesionalización del sonidista y el mezclador, o si se quiere, del diseño de sonido. Coppola y Lucas crearon a fines de los sesenta, junto con Walter Murch, American Zoetrope. La idea de esta empresa era conciliar las funciones de los sonidistas y de los mezcladores. Zoetrope llegó a la conclusión de que los sonoristas no debían antagonizar con los mezcladores. Esto quería decir que una sola persona podía encargarse de ambas funciones: sonorizar y mezclar. Antes de Zoetrope, un técnico conseguía los sonidos (los creaba o los extraía de una sonoteca personal) y luego se los pasaba a otro profesional que se entregaba a la tarea de la compaginación sonora.

Películas como The godfather, The conversation y American Graffitti revolucionaron la historia del cine, precisamente por el audaz diseño de sonido a manos de Murch. Luego vinieron Jaws y Star wars. Esta última estrenó el formato de 70 mm. con sonido Dolby encodificado. Finalmente, la que terminó de abrir el camino fue Apocalypse now que marcó el inicio del uso del formato standard: tres canales de sonido detrás de la pantalla, surrounds a cada lado, y un canal de realce de baja frecuencia. De esta forma se pasa del formato análogo al digital.

Este nivel de complejidad técnica en la creación del sonido es de carácter histórico y data de la invención del cine sonoro. La complejidad ha ido en aumento desde los años setenta en que apareció el Dolby Stereo, continuando con la automatización de las consolas de mezcla en los ochenta y los diversos formatos digitales en los noventa. En los años treinta y cuarenta, por ejemplo, era habitual que para todo un largometraje se necesitara sólo quince o veinte efectos sonoros. Hoy ese número podría ser multiplicado por mil.  Esto implica que la mezcla final de la mayoría de películas contemporáneas constituye un caos ordenado que abarca diálogos, música y efectos sonoros. Hasta los más experimentados directores y mezcladores encuentran difícil enfrentarse a la gran cantidad de opciones que supone el diseño de sonido en la actualidad.

Fundamentos del sonido cinematográfico

El volumen, el tono y el timbre son los tres fundamentos del sonido cinematográfico. Es importante que el cinéfilo pueda distinguir las fronteras que separan a cada uno de estos conceptos. El volumen o nivel tiene que ver con la intensidad (alta o baja), el tono se mide por la amplitud (la agudeza o la gravedad), y el timbre es el modo propio o característico de un sonido. Pasemos a explicar uno a uno estos fundamentos.

Primer fundamento: El volumen

Para hablar del sonido cinematográfico y sus fundamentos (volumen, tono y timbre) tomaremos algunos ejemplos de Blow out (1981) de Brian de Palma. John Travolta interpreta a Jack Terry, un editor de sonido que trabaja para filmes baratos. La premisa dramática del filme es la búsqueda del grito de horror perfecto para una película clase B en la que está trabajando. Para ello tiene que hacer audición a varias mujeres que él va descartando a medida que van gritando.

Buscar una voz desgarradora es una cuestión de nivel o volumen. ¿Cómo definir este fundamento? Según el DRAE, «el volumen es la intensidad de la voz o de otros sonidos». Otra acepción que también puede ayudarnos: «Corpulencia o bulto de una cosa». Pensar en el volumen como una cosa que se abulta es pertinente para los propósitos didácticos de este texto. En tal caso, el sonido cinematográfico manipula constantemente el volumen sonoro. Ca­da vez que el personaje de Travolta rechaza un grito femenino es por un problema que pertenece a este primer fundamento, el volumen, también llamado nivel.

Otro ejemplo para dejar este subtema más claro. El plano general de una calle ajetreada en Blow out va acompañado de estrepitosos ruidos de tráfico. Cuando dos personajes se encuentran y comienzan a hablar, el nivel del barullo de la calle desciende para dar preponderancia al nivel del sonido de la conversación. En ésta y otras películas veremos como se dan contrapuntos entre un personaje de voz suave y otro de voz de trueno. He aquí una diferencia de nivel o volumen. El diálogo de la pareja se produce en un primer término acústico, mientras que el ruido del tráfico se debilita al fondo.

Con este filme (como sucede con todos los del género) aprendemos que el espectador se asusta por la forma en que se manipula el volumen o nivel del sonido. De hecho, cada vez que nos asustamos en un filme tipo Friday the 13th, The grudge o The ring es por una razón estrictamente sonora. Ese acorde estridente que surge de la nada es lo que nos obliga a cerrar los ojos. El miedo, por ende, tiene un antifaz sonoro.

Sigamos con el filme de De Palma. Blow out parafrasea una escena de Psycho en la que una mujer es asesinada en una ducha. La eficacia en la manipulación del sentido del oído en el espectador se da por los bruscos y extremados cambios de volumen no solo en la música sino también a través del nivel del sonido del cuchillo rasgando la carne o la cortina, o el caer del cuerpo en los azulejos. Claro está que hay un elemento visual que ayuda sobremanera. Estamos hablando de la sangre mezclada con el agua de la ducha. A estos cambios bruscos los expertos los denominan cambios de dinámica.

Segundo fundamento: el tono

Vamos ahora a la segunda cuestión básica del sonido cinematográfico. Se trata del tono, el cual tiene que ver con las vibraciones sonoras, o dicho de manera más simple: la altura o la bajeza percibidas en el sonido. En música coral, por ejemplo, el tono determina si un cantante es soprano, bajo, mezzosoprano o contralto. Dejemos que sea el DRAE el que acuda una vez más en nuestra ayuda: «Cualidad de los sonidos, dependiente de su frecuencia, que permite ordenarlos de graves a agudos. Inflexión de la voz y modo particular de decir una cosa, según la intención y el estado de ánimo del hablante. Energía, vigor, fuerza». Cuando un niño intenta hablar con voz de hombre y no lo consigue estamos ante una cuestión de tono. Cuando Marlene Dietrich habla con su voz andrógina estamos ante la misma cuestión. Pero no dejemos atrás a Blow out de Brian de Palma. Nancy Allen que interpreta a Sally, la protagonista del filme, posee un tono bajo. El personaje de Manny Karp, el fotógrafo extorsionador interpretado por Dennis Franz, tiene un tono alto.

El tercer fundamento: el timbre

Llegamos ahora al timbre, el tercer fundamento, definido por el DRAE como «modo propio y característico de sonar un instrumento musical o la voz de una persona». El timbre es un parámetro acústico básico como la amplitud o la frecuencia, y es indispensable para describir la textura o tacto de un sonido. Cuando decimos que la voz de alguien es nasal o que una pieza musical determinada es dulce, estamos enfrentando este tema. De hecho, cuando decimos «No me gusta tu tono de voz» (o sea, si es alto o bajo) deberíamos decir realmente: «No me gusta tu tono y tu timbre de voz» (es decir, el modo en que se está diciendo algo).

Un ejemplo más puntual: al preparar la banda sonora de Witness (1984) con Harrison Ford, los montadores de sonido usaron audio grabado veinte años atrás, para que el timbre de las grabaciones, menos moderno, contribuyera a definir el rústico retiro de la comunidad amish.

Tres tipos de sonido

El sonido en el cine (si queremos clasificarlos de manera sencilla) es de tres tipos: diálogos, música y efectos sonoros. Vamos revisándolos de la mano del personaje de John Travolta en Blow out. Él, como todo editor de sonido, maneja los tres. Hay una enseñanza fundamental de este filme tan poco apreciado por la crítica, pero que maneja una gran didáctica de lo que es la audiovisión cinematográfica: la creación de una banda de sonido (track) se parece al montaje de las imágenes. Del mismo modo en que el cineasta puede elegir la mejor imagen de entre varios planos, el editor de sonido también puede elegir el fragmento sonoro más útil. Un momento revelador del filme es ver al protagonista trabajando en su sonoteca: una gama de los más variados sonidos están a su alcance. Desde el abrirse de una puerta hasta el disparo de un arma de fuego.

La verdad es que la mayoría de sonidos que aparecen en un filme son postsincronizados, o sea, se los añade en la postproducción. La llamada grabación limpia, grabación in situ o grabación sincronizada se manipula luego electrónicamente para lograr los efectos deseados.

Otra muestra de la capacidad de manipulación electrónica de un sonido: del mismo modo en que se puede refilmar un plano en la positivadora óptica, teñir su color o introducirlo en una imagen compuesta, también se puede procesar un fragmento de sonido para cambiar sus cualidades acústicas.

Jack Terry nos enseña cuán capital es la figura del mezclador que puede regular con precisión el volumen, la duración y la cualidad tonal de cada sonido. En el cine moderno, se pueden llegar a mezclar una docena o más de bandas diferentes o tracks. La mixtura también puede ser bastante densa, como sucede en una escena de un aeropuerto que combina el murmullo de varias voces diferentes, sonidos de pasos, carretillas de equipajes y los motores de los aviones. Pero la mezcla también puede ser muy poco densa, con un sonido ocasional emergiendo ante un fondo de silencio absoluto.

¿Cómo trabaja el personaje de John Travolta?

Jack Terry tiene en su laboratorio una serie de tiras que penden de un cordel. Cada tira tiene una etiqueta con los nombres del sonido que contiene: pasos, trueno, disparo, cuerpo que cae, etc. Para cada sonido habrá una pista o banda (track). Para cada banda habrá un botón en la consola. Durante la segunda escena se ve un control room donde cada botón permite aumentar o disminuir el protagonismo de cada sonido en la película. Cuando Sally (Nancy Allen) le pregunta a Jack Terry la naturaleza de su trabajo, éste contesta: «Yo grabo los sonidos para que luego tú veas la película». Lo que omite el personaje es toda la complejidad de su labor. Quizá el momento que mejor ilustra el grado de dificultad del sonidista es aquél en el que juega a ser detective. La noche del accidente de tránsito del gobernador, Terry estaba grabando sonidos que podían enriquecer su fonoteca y que de seguro usaría en la película para la cual estaba trabajando. Por casualidad, grabó el audio de todo el accidente. Cuando escuchó lo que grabó en su laboratorio se dio cuenta de que un disparo de arma de fuego precedía al estallido (blow out) de un neumático. Esto lo lleva a manejar durante toda la trama la tesis de un asesinato. Cuando aparece en la prensa una secuencia fotográfica del accidente, Terry decide usar ese material para ponerle los sonidos que había grabado. Cada fotografía publicada cumple el rol de un fotograma. De esta forma logra crear una película rudimentaria del asesinato y pone en peligro su vida. Gracias a esta ingeniosa premisa, De Palma logra convertir al sonidista en un detective. En el fondo, eso es lo que debe hacer la persona encargada de este oficio: debe investigar en la realidad cuál sonido puede empatar con las imágenes cinematográficas. Y aquel sonido inexistente en el mundo exterior, debe crearlo.

Las preguntas que debe hacerse un montador de sonido

Para Walter Murch, el único de su gremio en ganar el mismo año un Oscar a la mejor mezcla de sonido y al mejor montaje de imágenes por The english patient (1996), las preguntas que debe hacerse un mezclador de sonido son las siguientes: ¿Qué hacer con los momentos de aparente caos en los que cientos de sonidos se agolpan: el diálogo, la música, los efectos sonoros? ¿Cómo es que esos momentos aparecen y cómo lidiar con ellos cuando esto sucede? ¿Cómo elegir qué sonidos deben predominar cuando no pueden estar todos ellos incluidos en la mezcla simultáneamente? ¿Qué sonidos deberían jugar el rol de soporte, sostén y sirvientes de los más importantes? ¿Y qué sonidos, si hay alguno, debería ser eliminado en la mezcla?

El trabajo del diseñador y editor de sonido consiste en recopilar todo el material que forma parte de una banda de sonido (con excepción de la música), organizarlo, montarlo y prepararlo para la mezcla donde combinará todo. El montador trabaja con el ingeniero de sonido que ha grabado los diálogos durante la filmación. Esta grabación se da a través de la jirafa, ese micrófono que todos hemos visto en alguna ocasión en la parte superior de la pantalla por un descuido del proyeccionista que ha encuadrado mal la imagen. Micrófonos como la jirafa suelen ser direccionados hacia la boca de los actores, de tal forma que eliminan todos los sonidos ambientales.

Los otros sonidos que se montarán son los siguientes: los efectos sala (foley), los efectos sonoros, el diálogo postsincronizado (ADR), pistas de sonido ambiental y grabaciones de sonidos especiales. Mientras tanto, el departamento de música trabaja de manera independiente con el compositor, grabando la música y reuniendo las canciones que se van a necesitar. Cada tipo de sonido cuenta con su montador especializado que a su vez tiene un buen número de ayudantes. Nada más habría que revisar los créditos finales de un filme para constatar esto.

El montador de diálogo

Detengámonos en la función del montador de diálogo, por ejemplo, que tiene la labor de asegurar que las pistas de diálogos fluyan de manera normal sin desentonar para luego mezclarlas. Un parlamento no sirve, por ejemplo, si está mal pronunciado por un actor o acompañado de un ruido que impida su total audición. Skip Lievsay, sonidista de Scorsese y Spike Lee, ha tenido la misión casi imposible de utilizar este procedimiento de postproducción con actores como Robert de Niro y Paul Newman que han debido regrabar sus parlamentos. No todos los actores están en la capacidad de ser cien por ciento efectivos durante el doblaje postsincronizado. Lievsay recuerda el caso de Pacino como algo excepcional, ya que es un actor con la habilidad de memorizar su interpretación, y no se le dificulta llevar a la cabina de sonido el recuerdo de lo que fue su interpretación. «También es el único actor con el que he trabajado», dice Lievsay, «que parte de una interpretación y puede acabar con otra distinta. Es capaz de cambiar su interpretación en el doblaje para mejorar la película».

Sound F/X

Vamos ahora a la clasificación de los efectos sonoros. Primero están los sonidos de ambiente como fondo (viento, tormentas, grillos, etc.) que sirven para darle al filme una atmósfera realista. Segundo, los efectos fuertes (una puerta que se cierra, un auto que pasa, explosiones, etc.) que están para darle al filme un ambiente dramático. En tercer lugar, los efectos de cabina o sala (foley) que son todos aquellos sonidos que hacen los personajes como mover un tenedor en un plato, los pasos que suenan al caminar, el quitarse un abrigo y sentarse, etc. La intención de este último tipo de sonidos es crear aquello que no se puede grabar en el momento de rodaje. La gran prioridad para los sonidistas es captar la voz de los actores. El resto tiene que crearse en cabina. Si los sonidos co­tidianos se grabaran in situ saldrían deformados, irreales, contaminados por los otros ruidos del entorno.

Un ejemplo de foley es el que nos brinda Crouching tiger, hidden dragon, para el que se creó un diseño sonoro diferente para los gritos de combate, para los impactos de espada y golpes de puño e incluso para el sonido del ropaje cuando un actor se mueve. Lo que se perseguía era que este filme de artes marciales sonara lo menos hollywoodense posible. De hecho, el director Ang Lee ordenó a su equipo técnico que creara un sonido diferente para cada espada. Por ejemplo, Destino verde —en manos del héroe protagónico— es una espada de sonido cortante y velado que se realizó con una armónica de cristal y un teléfono bajo el agua (vaya el lector a saber cómo se combinaron los sonidos del instrumento musical y el aparato). El resultado, para quien puso atención a este detalle mientras veía el filme, es de una exquisitez absoluta por el efecto musical que tiene.

Clasificación del sonido, según Murch

Para Murch, el sonido se divide en incorporado (música, efectos) y encodificado (los diálogos). A los efectos sonoros el so­nidista de The godfather les llama «centauros sonoros», pues son mitad lenguaje y mitad música. Todo sonido es, por lo tanto, parte de una partitura. «Un efecto sonoro no se declara abiertamente co­mo música, porque no es melódico, pero puede tener un efecto musical en el espectador», asegura Murch y nosotros le creemos al acordarnos del ejemplo del sonido de la espada en Crouching tiger. Así como el sonidista es un músico, también puede ser un pintor. Desarrollemos la metáfora pictórica. Del espectro de sonidos, extraerá los más adecuados para cada escena, haciendo que unos resalten y otros no; sin embargo, algunos se superpondrán de manera eficaz y clara, pero otros se destruirán o competirán por la supremacía creando una mezcla inaudible. Los sonidos deben ser armónicos para poder yuxtaponerlos. La selección de los sonidos de armonía precisa puede crear un sonido unificado.

Superposición armónica

Murch da un ejemplo de superposición armónica. Para Apocalypse now debía crear un sonido que abarcara centenares de grillos. Llevó unas cuantas de estas criaturas a su estudio y empezó a grabarlos uno por uno en una máquina multitrack (multipistas). Dice el filósofo del sonido: «Luego fuimos agregando track a track, recombinando estos tracks y luego volviendo a grabar aún más tracks hasta que finalmente tuvimos muchos cientos de cantos de grillos superpuestos». El resultado final fue un convincente campo de grillos desde el punto de vista sonoro.

Superposición no-armónica

Para dar un ejemplo de superposición no-armónica Murch usa la metáfora del sánduche Dagwood que tiene varias capas y que lleva de todo. En el caso de un filme puede abarcar una capa de diálogo, dos capas de tráfico, una de bocinas de autos, otra de gaviotas, otra de un barullo de multitudes, otra de pasos, olas golpeando la playa, sapos, motores fuera de borda, truenos distantes, fuegos artificiales, y así puede tener más capas. Todas sonando juntas simultáneamente. El sonidista de The english patient aclara que el concepto de capa implica una serie de sonidos conceptualmente unificados con una continuidad específica. En Apocalypse now la llegada de los helicópteros con música de Wagner es un ejemplo de superposición no-armónica. Este sánduche estaba conformado originalmente por 175 tracks de sonido. La solución que se le ocurrió a Murch para ordenar su sánduche fue crear 6 subgrupos de 30 tracks. A cada subgrupo le denominó premix o premezcla. A continuación un inventario de los premixes:

1.- Diálogos.

2.- Helicópteros.

3.- Música (La cabalgata de las walkyrias de Richard Wagner).

4.- Sonidos de armas de fuego.

5.- Explosiones de morteros, artillería pesada, granadas.

6.- Pasos y otros sonidos de foley (sonorización en sala).

La lista está hecha de acuerdo al orden de importancia de cada premix. Es como si estuviéramos leyendo la lista de ingredientes que un chef se dispone a mezclar. El sonidista, a la manera de un director de orquesta, ha organizado los grupos de instrumentos musicales. A la manera del pintor, el sonidista realiza una cuadrícula (el premix) donde habrá de trabajar fragmento a fragmento su cuadro. «Lo que murales, mezcla y música tienen en co­mún», dice Murch, «es que en cada uno de ellos, los detalles tienen que ser tan exactamente proporcionales a la inmensa escala del trabajo, o los detalles arrollarán al ojo (o al oído) no dando sentido de la totalidad, o la totalidad estará completa pero sin detalles convincentes».  Dentro de esa totalidad la voz humana debe ser entendida claramente en casi todas las circunstancias, independientemente de que se trate de una ópera o de un diálogo en una película. Por lo tanto, lo primero que se mezcla es el sonido de los parlamentos de cada actor. En segundo lugar, hay que hacerse una pregunta fundamental: ¿Cuál es el siguiente sonido más dominante de la escena? A Murch le pareció acertado que el sonido de los helicópteros era el segundo en importancia. Después de todo, es el mo­mento cumbre en el que el campamento militar recibe a las poderosas naves aéreas. ¿Qué hizo el sonidista? «Mezclé todos los tracks de helicópteros juntos en un rollo separado de 35 mm. magnético perforado, mientras escuchaba los diálogos, para estar seguro de que los helicópteros tapen los diálogos». En esta jerarquización de sonidos, el siguiente fue el de la música de Richard Wag­ner que era reproducido a través de los amplificadores y bocinas de los helicópteros. «Mezclé esto en otro rollo de 35 mm. magnético perforado mientras monitoreaba las otras dos pre-mez­clas de diálogos y helicópteros». El cuarto sonido fue el de las pequeñas armas de fuego, el quinto las explosiones, y el sexto los sonidos de foley. Finalmente, Murch tenía seis pre-mezclas, cada una de seis canales (tres canales detrás de la pantalla: izquierdo, centro y derecho; dos canales surround: el izquierdo y el derecho; y un canal de efectos de muy baja frecuencia). No entraremos en detalles tecnicistas narrando cómo Murch tuvo problemas creativos (que resolvió con pericia) en la mezcla final de esa secuencia apocalíptica. Dejamos consignado lo anterior como una muestra del modus operandi del sonidista.

Dimensiones fundamentales del sonido cinematográfico

Las dimensiones fundamentales del sonido fílmico son el ritmo, la fidelidad y el espacio. El ritmo tiene que ver con términos musicales como el compás y los acentos, la fidelidad es la relación que hay entre un sonido y su fuente, y el espacio es aquella dimensión que permite la construcción de una atmósfera sonora.

Primera dimensión: el ritmo

Vamos con el primer aspecto. Puesto que el sonido tiene una duración, tiene por ende, un ritmo. Éste será lento o rápido. El ritmo implica como mínimo un compás, un tempo y un esquema de acentos, o compases fuertes o débiles (estamos, por lo visto, hablando en términos musicales). El diálogo también tiene un ritmo al igual que la música. El personaje de Dennis Franz (el fotógrafo extorsionador de apellido Karp) en Blow out es identificable por sus señales vocales: por su ritmo acelerado en el hablar y su énfasis silábico. Cada personaje puede ser identificado por la forma en que va ritmando sus palabras. El actor puede controlar el ritmo, pero el editor de sonido puede manipularlo en la postproducción.

Segunda dimensión: la fidelidad

Ahora viene el segundo aspecto. El sonido puede también relacionarse con la fuente percibida con mayor o menor fidelidad. La fuente de sonido del personaje de Travolta es el audio del accidente automovilístico. Esa fuente es de baja fidelidad. Sería de mayor fidelidad si la fuente fuera clara (en otras palabras nos estamos refiriendo a la calidad de la grabación). La alta fidelidad existe solamente si el sonido corresponde a su fuente. Si en la segunda secuencia de Blow out el auto que cae por el puente al río produce un sonido de una motocicleta cayendo a un lodazal, no habría fidelidad. La imagen que acompaña al audio nos habla de un automóvil cayendo a las aguas de un río.

Otro ejemplo: si un actor de gran atractivo físico crea toda una expectativa en el momento en el que irrumpe en escena, y en el momento de hablar su voz suena aflautada o afeminada, estamos ante un caso de infidelidad hacia la fuente. El resultado causa hilaridad ante los espectadores. Es por eso que las voces que se contratan para doblar a los actores, siempre respetan el concepto de fidelidad. El doblaje perfecto implica encontrar una persona que tenga el mismo volumen, tono y timbre que la voz original.

Tercera dimensión: el espacio

Vamos con el tercer aspecto que vincula al sonido con el espacio. Michel Chion postuló una clasificación muy difundida so­bre el sonido en el cine desde el punto de vista espacial. Divide lo audible en una zona visible (oír y ver la causa del sonido) y otra zona llamada acusmática (oír sin ver la causa del sonido). El teórico francés también nos habla de sonido en el aire (de fuente visible aunque remite a otro en su producción, como el de una radio en pantalla transmitiendo un informativo, que nos indica otra fuente aparte de la visible), sonidos internos (el pensamiento de un personaje, latidos del corazón en las víctimas del cine de horror) y sonidos ambientales (de fuente invisible no por estar fuera de campo sino por plantear un territorio de mayor valor sonoro: ruidos selváticos, de lluvia o de vida urbana).

Sonido diegético y extradiegético

En esta vinculación del sonido con el espacio, David Bordwell propone una clasificación dicotómica que es deudora de la narratología. Si la fuente de un sonido es un personaje o un objeto perteneciente al espacio de la historia de la película, le llamaremos sonido diegético. Las voces de los personajes, los sonidos que provienen de los objetos de la historia, o la música interpretada por instrumentos que aparecen en el espacio de la historia, son todos ellos sonidos diegéticos. El sonido diegético en Blow out es la escena del crimen: El puente donde cae el automóvil en el que morirá ahogado el gobernador es el escenario, el espacio, o sea, la fuente del sonido diegético.

Por otro lado, está el sonido extra diegético, que procede de una fuente externa al espacio de la historia. Es fácil encontrar ejemplos conocidos de este tipo de sonido. La música de Pino Donaggio en la película de Di Palma es el típico sonido extradiegético (fuera de la diégesis). Cuando Tom Cruise está subiendo una montaña en la secuencia inicial de Mission: Imposible 2 no es­peramos ver a una orquesta en la cima. Los efectos sonoros también forman parte de lo extradiegético.

Resumiendo: el sonido puede ser diegético (dentro del espacio de la historia) o extra diegético (fuera del espacio de la historia). Si es diegético, puede estar en la pantalla o en off, y puede ser interno (subjetivo) o externo (objetivo).

En busca de la perspectiva sonora

Una característica del sonido diegético es la posibilidad de sugerir la perspectiva sonora. El espectador tiene la sensación de estar inmerso en una distancia espacial y localiza (o cree localizar) los sonidos dentro de la pantalla. Ése es el gran triunfo de los que trabajan con el sonido cinematográfico, crean la ilusión de una perspectiva de sonidos, o para seguir con la metáfora pictórica, lo­gran pintar un paisaje sonoro. No de otra forma se obtiene la suspensión de la incredulidad. Por eso Walter Murch dice que no solo graba un sonido, sino el espacio entre el sonido y el espectador.

Nube de etiquetas