«Y entonces el Califa le dijo a Scherezada: "Cuéntame una película que me ayude a pasar la noche"».

¿Sabía usted que los sonidos que escuchamos en el cine son añadidos en la postproducción, o que cada ruido es creado a propósito para el filme? Un personaje no camina sobre la nieve, sino sobre harina de maíz. Una ventana que se rompe no está hecha de vidrio sino de azúcar cristalizado. La piedra esférica que persigue a Indiana Jones en Raiders of the lost ark no está hecha de piedra sino de espuma plástica. Una cabeza aplastada es casi siempre un melón o una sandía que se tritura.

Después de estos ejemplos, solo cabe una afirmación: acaso el sonido sea la técnica más difícil de estudiar en el mundo de las imágenes cinemáticas. Estamos mal acostumbrados a vivir en un entorno sonoro al cual no le ponemos mucho asunto. No solemos leer la realidad con nuestros oídos. Walter Murch (The godfather, The english patient, Apocalypse now) asegura que desde el instante en que nacemos, «la audición parece retroceder al fondo de nuestra conciencia y funciona más como un acompañamiento de lo que vemos», y se hace una pregunta capital: «¿Por qué el primero de los sentidos en ser activado no permanece dominante sobre los otros a lo largo de nuestra vida?». Intentaremos ensayar una respuesta: a diferencia de los ciegos, que tienen más desarrollado el sentido de la escucha, nosotros vivimos como «ciegos auditivos». La contaminación sonora hace que seamos incapaces de leer nuestra sonósfera. Póngase como ejemplo la degeneración urbana, perdón, la regeneración urbana que hace que la «suave música» de taladros, palas, picos y tractores afecte nuestros tímpanos. Solemos, por tanto, ser espectadores de un filme, pero no atentos oyen­tes del mismo. Tendemos a considerar que el sonido es un simple acompañante de la realidad que nos presenta o nos inventa una película, pero no sabemos que la forma en que el cine nos «engaña», o nos permite entrar en la historia, es a través del sonido.

Además, no podemos parar la película y congelar un instante sonoro, pero sí podemos hacerlo en cambio, con una imagen, con una escena. Lo ideal, pero al mismo tiempo imposible, sería estudiar el audio de un filme en una consola, en una cabina en la que podamos analizar los diversos niveles de realidad sonora que el diseñador de sonido y el editor de sonido (a veces son la misma persona) han logrado crear. Es una apabullante realidad: el poder del sonido a veces es tan avasallador que puede ser omitido por nuestra atención. La idea de este texto es crear una conciencia sonora en los cinéfilos y hacerles notar que no se ve y se escucha un filme (suena a dos actividades separadas). Lo oímos/vemos (es una operación simultánea).

Un marco histórico

Antes de la invención del fonógrafo por parte de Thomas Alva Edison, en 1877, era imposible imaginar la captura del sonido y su posterior reproducción. El cine mudo procedió a reconocer la necesaria existencia del sonido, al utilizar música como acompañamiento de orquesta, órgano o piano en cada exhibición. De no existir música, no habría existido forma de llenar un insoportable silencio. La música, por ende, ayudaba a percibir mejor el fenómeno de las movies o moving images (imágenes móviles). ¿Se imaginan una película muda, sin ningún tipo de acompañamiento musical? Se oiría con claridad el mascar de las palomitas de maíz o los besos de los enamorados en el público presente.

Quien logró significativamente que se le dé importancia al sonido fue el cineasta ruso Sergei M. Eisenstein con una propuesta teórica que él denominó «sincronización de los sentidos», que constituye la unificación de imagen y sonido a través de un ritmo sonoro único y homogéneo.

En 1926, en la primera época del cine norteamericano, después de la comercialización de las películas sonoras, todo tenía que ser grabado simultáneamente: música, diálogos y efectos de sonido. A través de los discos de acetato Vitaphone todo debía estar correctamente registrado, de lo contrario había que regrabar.

La esencia del sonido cinematográfico solo fue develada en 1929 con el perfeccionamiento del sonido óptico de 35 mm. perforado. Entre los años 1929 y 1930 este invento fue más lejos. La invención del sistema de regrabación implicaba que varios tracks (canales) de sonido podían ser controlados por separado y luego recombinados. La alquimia sonora había nacido, pero esto no significaba perfección. De hecho, las películas de ese entonces apenas añadían en la postproducción diecisiete efectos sonoros.

Las dos películas señeras en la historia de este aspecto técnico son Steamboat Willie (1928) de Walt Disney y King Kong (1933). La película de Disney supuso un gran descubrimiento: las figuras bidimensionales de dibujos animados solo se mueven, no pueden hablar, por lo que la añadidura del sonido era casi como la obtención de la piedra filosofal. De allí que dos aportes trascendentales hayan surgido a partir de estas dos películas: la voz en falsete agudo de Mickey Mouse (llamado originalmente Mortimer) y el rugido memorable que Murray Sivak le dio a King Kong.

El aporte de Walter Murch

Fue con la llegada de Francis Ford Coppola y Georges Lucas que se dio la profesionalización del sonidista y el mezclador, o si se quiere, del diseño de sonido. Coppola y Lucas crearon a fines de los sesenta, junto con Walter Murch, American Zoetrope. La idea de esta empresa era conciliar las funciones de los sonidistas y de los mezcladores. Zoetrope llegó a la conclusión de que los sonoristas no debían antagonizar con los mezcladores. Esto quería decir que una sola persona podía encargarse de ambas funciones: sonorizar y mezclar. Antes de Zoetrope, un técnico conseguía los sonidos (los creaba o los extraía de una sonoteca personal) y luego se los pasaba a otro profesional que se entregaba a la tarea de la compaginación sonora.

Películas como The godfather, The conversation y American Graffitti revolucionaron la historia del cine, precisamente por el audaz diseño de sonido a manos de Murch. Luego vinieron Jaws y Star wars. Esta última estrenó el formato de 70 mm. con sonido Dolby encodificado. Finalmente, la que terminó de abrir el camino fue Apocalypse now que marcó el inicio del uso del formato standard: tres canales de sonido detrás de la pantalla, surrounds a cada lado, y un canal de realce de baja frecuencia. De esta forma se pasa del formato análogo al digital.

Este nivel de complejidad técnica en la creación del sonido es de carácter histórico y data de la invención del cine sonoro. La complejidad ha ido en aumento desde los años setenta en que apareció el Dolby Stereo, continuando con la automatización de las consolas de mezcla en los ochenta y los diversos formatos digitales en los noventa. En los años treinta y cuarenta, por ejemplo, era habitual que para todo un largometraje se necesitara sólo quince o veinte efectos sonoros. Hoy ese número podría ser multiplicado por mil.  Esto implica que la mezcla final de la mayoría de películas contemporáneas constituye un caos ordenado que abarca diálogos, música y efectos sonoros. Hasta los más experimentados directores y mezcladores encuentran difícil enfrentarse a la gran cantidad de opciones que supone el diseño de sonido en la actualidad.

Fundamentos del sonido cinematográfico

El volumen, el tono y el timbre son los tres fundamentos del sonido cinematográfico. Es importante que el cinéfilo pueda distinguir las fronteras que separan a cada uno de estos conceptos. El volumen o nivel tiene que ver con la intensidad (alta o baja), el tono se mide por la amplitud (la agudeza o la gravedad), y el timbre es el modo propio o característico de un sonido. Pasemos a explicar uno a uno estos fundamentos.

Primer fundamento: El volumen

Para hablar del sonido cinematográfico y sus fundamentos (volumen, tono y timbre) tomaremos algunos ejemplos de Blow out (1981) de Brian de Palma. John Travolta interpreta a Jack Terry, un editor de sonido que trabaja para filmes baratos. La premisa dramática del filme es la búsqueda del grito de horror perfecto para una película clase B en la que está trabajando. Para ello tiene que hacer audición a varias mujeres que él va descartando a medida que van gritando.

Buscar una voz desgarradora es una cuestión de nivel o volumen. ¿Cómo definir este fundamento? Según el DRAE, «el volumen es la intensidad de la voz o de otros sonidos». Otra acepción que también puede ayudarnos: «Corpulencia o bulto de una cosa». Pensar en el volumen como una cosa que se abulta es pertinente para los propósitos didácticos de este texto. En tal caso, el sonido cinematográfico manipula constantemente el volumen sonoro. Ca­da vez que el personaje de Travolta rechaza un grito femenino es por un problema que pertenece a este primer fundamento, el volumen, también llamado nivel.

Otro ejemplo para dejar este subtema más claro. El plano general de una calle ajetreada en Blow out va acompañado de estrepitosos ruidos de tráfico. Cuando dos personajes se encuentran y comienzan a hablar, el nivel del barullo de la calle desciende para dar preponderancia al nivel del sonido de la conversación. En ésta y otras películas veremos como se dan contrapuntos entre un personaje de voz suave y otro de voz de trueno. He aquí una diferencia de nivel o volumen. El diálogo de la pareja se produce en un primer término acústico, mientras que el ruido del tráfico se debilita al fondo.

Con este filme (como sucede con todos los del género) aprendemos que el espectador se asusta por la forma en que se manipula el volumen o nivel del sonido. De hecho, cada vez que nos asustamos en un filme tipo Friday the 13th, The grudge o The ring es por una razón estrictamente sonora. Ese acorde estridente que surge de la nada es lo que nos obliga a cerrar los ojos. El miedo, por ende, tiene un antifaz sonoro.

Sigamos con el filme de De Palma. Blow out parafrasea una escena de Psycho en la que una mujer es asesinada en una ducha. La eficacia en la manipulación del sentido del oído en el espectador se da por los bruscos y extremados cambios de volumen no solo en la música sino también a través del nivel del sonido del cuchillo rasgando la carne o la cortina, o el caer del cuerpo en los azulejos. Claro está que hay un elemento visual que ayuda sobremanera. Estamos hablando de la sangre mezclada con el agua de la ducha. A estos cambios bruscos los expertos los denominan cambios de dinámica.

Segundo fundamento: el tono

Vamos ahora a la segunda cuestión básica del sonido cinematográfico. Se trata del tono, el cual tiene que ver con las vibraciones sonoras, o dicho de manera más simple: la altura o la bajeza percibidas en el sonido. En música coral, por ejemplo, el tono determina si un cantante es soprano, bajo, mezzosoprano o contralto. Dejemos que sea el DRAE el que acuda una vez más en nuestra ayuda: «Cualidad de los sonidos, dependiente de su frecuencia, que permite ordenarlos de graves a agudos. Inflexión de la voz y modo particular de decir una cosa, según la intención y el estado de ánimo del hablante. Energía, vigor, fuerza». Cuando un niño intenta hablar con voz de hombre y no lo consigue estamos ante una cuestión de tono. Cuando Marlene Dietrich habla con su voz andrógina estamos ante la misma cuestión. Pero no dejemos atrás a Blow out de Brian de Palma. Nancy Allen que interpreta a Sally, la protagonista del filme, posee un tono bajo. El personaje de Manny Karp, el fotógrafo extorsionador interpretado por Dennis Franz, tiene un tono alto.

El tercer fundamento: el timbre

Llegamos ahora al timbre, el tercer fundamento, definido por el DRAE como «modo propio y característico de sonar un instrumento musical o la voz de una persona». El timbre es un parámetro acústico básico como la amplitud o la frecuencia, y es indispensable para describir la textura o tacto de un sonido. Cuando decimos que la voz de alguien es nasal o que una pieza musical determinada es dulce, estamos enfrentando este tema. De hecho, cuando decimos «No me gusta tu tono de voz» (o sea, si es alto o bajo) deberíamos decir realmente: «No me gusta tu tono y tu timbre de voz» (es decir, el modo en que se está diciendo algo).

Un ejemplo más puntual: al preparar la banda sonora de Witness (1984) con Harrison Ford, los montadores de sonido usaron audio grabado veinte años atrás, para que el timbre de las grabaciones, menos moderno, contribuyera a definir el rústico retiro de la comunidad amish.

Tres tipos de sonido

El sonido en el cine (si queremos clasificarlos de manera sencilla) es de tres tipos: diálogos, música y efectos sonoros. Vamos revisándolos de la mano del personaje de John Travolta en Blow out. Él, como todo editor de sonido, maneja los tres. Hay una enseñanza fundamental de este filme tan poco apreciado por la crítica, pero que maneja una gran didáctica de lo que es la audiovisión cinematográfica: la creación de una banda de sonido (track) se parece al montaje de las imágenes. Del mismo modo en que el cineasta puede elegir la mejor imagen de entre varios planos, el editor de sonido también puede elegir el fragmento sonoro más útil. Un momento revelador del filme es ver al protagonista trabajando en su sonoteca: una gama de los más variados sonidos están a su alcance. Desde el abrirse de una puerta hasta el disparo de un arma de fuego.

La verdad es que la mayoría de sonidos que aparecen en un filme son postsincronizados, o sea, se los añade en la postproducción. La llamada grabación limpia, grabación in situ o grabación sincronizada se manipula luego electrónicamente para lograr los efectos deseados.

Otra muestra de la capacidad de manipulación electrónica de un sonido: del mismo modo en que se puede refilmar un plano en la positivadora óptica, teñir su color o introducirlo en una imagen compuesta, también se puede procesar un fragmento de sonido para cambiar sus cualidades acústicas.

Jack Terry nos enseña cuán capital es la figura del mezclador que puede regular con precisión el volumen, la duración y la cualidad tonal de cada sonido. En el cine moderno, se pueden llegar a mezclar una docena o más de bandas diferentes o tracks. La mixtura también puede ser bastante densa, como sucede en una escena de un aeropuerto que combina el murmullo de varias voces diferentes, sonidos de pasos, carretillas de equipajes y los motores de los aviones. Pero la mezcla también puede ser muy poco densa, con un sonido ocasional emergiendo ante un fondo de silencio absoluto.

¿Cómo trabaja el personaje de John Travolta?

Jack Terry tiene en su laboratorio una serie de tiras que penden de un cordel. Cada tira tiene una etiqueta con los nombres del sonido que contiene: pasos, trueno, disparo, cuerpo que cae, etc. Para cada sonido habrá una pista o banda (track). Para cada banda habrá un botón en la consola. Durante la segunda escena se ve un control room donde cada botón permite aumentar o disminuir el protagonismo de cada sonido en la película. Cuando Sally (Nancy Allen) le pregunta a Jack Terry la naturaleza de su trabajo, éste contesta: «Yo grabo los sonidos para que luego tú veas la película». Lo que omite el personaje es toda la complejidad de su labor. Quizá el momento que mejor ilustra el grado de dificultad del sonidista es aquél en el que juega a ser detective. La noche del accidente de tránsito del gobernador, Terry estaba grabando sonidos que podían enriquecer su fonoteca y que de seguro usaría en la película para la cual estaba trabajando. Por casualidad, grabó el audio de todo el accidente. Cuando escuchó lo que grabó en su laboratorio se dio cuenta de que un disparo de arma de fuego precedía al estallido (blow out) de un neumático. Esto lo lleva a manejar durante toda la trama la tesis de un asesinato. Cuando aparece en la prensa una secuencia fotográfica del accidente, Terry decide usar ese material para ponerle los sonidos que había grabado. Cada fotografía publicada cumple el rol de un fotograma. De esta forma logra crear una película rudimentaria del asesinato y pone en peligro su vida. Gracias a esta ingeniosa premisa, De Palma logra convertir al sonidista en un detective. En el fondo, eso es lo que debe hacer la persona encargada de este oficio: debe investigar en la realidad cuál sonido puede empatar con las imágenes cinematográficas. Y aquel sonido inexistente en el mundo exterior, debe crearlo.

Las preguntas que debe hacerse un montador de sonido

Para Walter Murch, el único de su gremio en ganar el mismo año un Oscar a la mejor mezcla de sonido y al mejor montaje de imágenes por The english patient (1996), las preguntas que debe hacerse un mezclador de sonido son las siguientes: ¿Qué hacer con los momentos de aparente caos en los que cientos de sonidos se agolpan: el diálogo, la música, los efectos sonoros? ¿Cómo es que esos momentos aparecen y cómo lidiar con ellos cuando esto sucede? ¿Cómo elegir qué sonidos deben predominar cuando no pueden estar todos ellos incluidos en la mezcla simultáneamente? ¿Qué sonidos deberían jugar el rol de soporte, sostén y sirvientes de los más importantes? ¿Y qué sonidos, si hay alguno, debería ser eliminado en la mezcla?

El trabajo del diseñador y editor de sonido consiste en recopilar todo el material que forma parte de una banda de sonido (con excepción de la música), organizarlo, montarlo y prepararlo para la mezcla donde combinará todo. El montador trabaja con el ingeniero de sonido que ha grabado los diálogos durante la filmación. Esta grabación se da a través de la jirafa, ese micrófono que todos hemos visto en alguna ocasión en la parte superior de la pantalla por un descuido del proyeccionista que ha encuadrado mal la imagen. Micrófonos como la jirafa suelen ser direccionados hacia la boca de los actores, de tal forma que eliminan todos los sonidos ambientales.

Los otros sonidos que se montarán son los siguientes: los efectos sala (foley), los efectos sonoros, el diálogo postsincronizado (ADR), pistas de sonido ambiental y grabaciones de sonidos especiales. Mientras tanto, el departamento de música trabaja de manera independiente con el compositor, grabando la música y reuniendo las canciones que se van a necesitar. Cada tipo de sonido cuenta con su montador especializado que a su vez tiene un buen número de ayudantes. Nada más habría que revisar los créditos finales de un filme para constatar esto.

El montador de diálogo

Detengámonos en la función del montador de diálogo, por ejemplo, que tiene la labor de asegurar que las pistas de diálogos fluyan de manera normal sin desentonar para luego mezclarlas. Un parlamento no sirve, por ejemplo, si está mal pronunciado por un actor o acompañado de un ruido que impida su total audición. Skip Lievsay, sonidista de Scorsese y Spike Lee, ha tenido la misión casi imposible de utilizar este procedimiento de postproducción con actores como Robert de Niro y Paul Newman que han debido regrabar sus parlamentos. No todos los actores están en la capacidad de ser cien por ciento efectivos durante el doblaje postsincronizado. Lievsay recuerda el caso de Pacino como algo excepcional, ya que es un actor con la habilidad de memorizar su interpretación, y no se le dificulta llevar a la cabina de sonido el recuerdo de lo que fue su interpretación. «También es el único actor con el que he trabajado», dice Lievsay, «que parte de una interpretación y puede acabar con otra distinta. Es capaz de cambiar su interpretación en el doblaje para mejorar la película».

Sound F/X

Vamos ahora a la clasificación de los efectos sonoros. Primero están los sonidos de ambiente como fondo (viento, tormentas, grillos, etc.) que sirven para darle al filme una atmósfera realista. Segundo, los efectos fuertes (una puerta que se cierra, un auto que pasa, explosiones, etc.) que están para darle al filme un ambiente dramático. En tercer lugar, los efectos de cabina o sala (foley) que son todos aquellos sonidos que hacen los personajes como mover un tenedor en un plato, los pasos que suenan al caminar, el quitarse un abrigo y sentarse, etc. La intención de este último tipo de sonidos es crear aquello que no se puede grabar en el momento de rodaje. La gran prioridad para los sonidistas es captar la voz de los actores. El resto tiene que crearse en cabina. Si los sonidos co­tidianos se grabaran in situ saldrían deformados, irreales, contaminados por los otros ruidos del entorno.

Un ejemplo de foley es el que nos brinda Crouching tiger, hidden dragon, para el que se creó un diseño sonoro diferente para los gritos de combate, para los impactos de espada y golpes de puño e incluso para el sonido del ropaje cuando un actor se mueve. Lo que se perseguía era que este filme de artes marciales sonara lo menos hollywoodense posible. De hecho, el director Ang Lee ordenó a su equipo técnico que creara un sonido diferente para cada espada. Por ejemplo, Destino verde —en manos del héroe protagónico— es una espada de sonido cortante y velado que se realizó con una armónica de cristal y un teléfono bajo el agua (vaya el lector a saber cómo se combinaron los sonidos del instrumento musical y el aparato). El resultado, para quien puso atención a este detalle mientras veía el filme, es de una exquisitez absoluta por el efecto musical que tiene.

Clasificación del sonido, según Murch

Para Murch, el sonido se divide en incorporado (música, efectos) y encodificado (los diálogos). A los efectos sonoros el so­nidista de The godfather les llama «centauros sonoros», pues son mitad lenguaje y mitad música. Todo sonido es, por lo tanto, parte de una partitura. «Un efecto sonoro no se declara abiertamente co­mo música, porque no es melódico, pero puede tener un efecto musical en el espectador», asegura Murch y nosotros le creemos al acordarnos del ejemplo del sonido de la espada en Crouching tiger. Así como el sonidista es un músico, también puede ser un pintor. Desarrollemos la metáfora pictórica. Del espectro de sonidos, extraerá los más adecuados para cada escena, haciendo que unos resalten y otros no; sin embargo, algunos se superpondrán de manera eficaz y clara, pero otros se destruirán o competirán por la supremacía creando una mezcla inaudible. Los sonidos deben ser armónicos para poder yuxtaponerlos. La selección de los sonidos de armonía precisa puede crear un sonido unificado.

Superposición armónica

Murch da un ejemplo de superposición armónica. Para Apocalypse now debía crear un sonido que abarcara centenares de grillos. Llevó unas cuantas de estas criaturas a su estudio y empezó a grabarlos uno por uno en una máquina multitrack (multipistas). Dice el filósofo del sonido: «Luego fuimos agregando track a track, recombinando estos tracks y luego volviendo a grabar aún más tracks hasta que finalmente tuvimos muchos cientos de cantos de grillos superpuestos». El resultado final fue un convincente campo de grillos desde el punto de vista sonoro.

Superposición no-armónica

Para dar un ejemplo de superposición no-armónica Murch usa la metáfora del sánduche Dagwood que tiene varias capas y que lleva de todo. En el caso de un filme puede abarcar una capa de diálogo, dos capas de tráfico, una de bocinas de autos, otra de gaviotas, otra de un barullo de multitudes, otra de pasos, olas golpeando la playa, sapos, motores fuera de borda, truenos distantes, fuegos artificiales, y así puede tener más capas. Todas sonando juntas simultáneamente. El sonidista de The english patient aclara que el concepto de capa implica una serie de sonidos conceptualmente unificados con una continuidad específica. En Apocalypse now la llegada de los helicópteros con música de Wagner es un ejemplo de superposición no-armónica. Este sánduche estaba conformado originalmente por 175 tracks de sonido. La solución que se le ocurrió a Murch para ordenar su sánduche fue crear 6 subgrupos de 30 tracks. A cada subgrupo le denominó premix o premezcla. A continuación un inventario de los premixes:

1.- Diálogos.

2.- Helicópteros.

3.- Música (La cabalgata de las walkyrias de Richard Wagner).

4.- Sonidos de armas de fuego.

5.- Explosiones de morteros, artillería pesada, granadas.

6.- Pasos y otros sonidos de foley (sonorización en sala).

La lista está hecha de acuerdo al orden de importancia de cada premix. Es como si estuviéramos leyendo la lista de ingredientes que un chef se dispone a mezclar. El sonidista, a la manera de un director de orquesta, ha organizado los grupos de instrumentos musicales. A la manera del pintor, el sonidista realiza una cuadrícula (el premix) donde habrá de trabajar fragmento a fragmento su cuadro. «Lo que murales, mezcla y música tienen en co­mún», dice Murch, «es que en cada uno de ellos, los detalles tienen que ser tan exactamente proporcionales a la inmensa escala del trabajo, o los detalles arrollarán al ojo (o al oído) no dando sentido de la totalidad, o la totalidad estará completa pero sin detalles convincentes».  Dentro de esa totalidad la voz humana debe ser entendida claramente en casi todas las circunstancias, independientemente de que se trate de una ópera o de un diálogo en una película. Por lo tanto, lo primero que se mezcla es el sonido de los parlamentos de cada actor. En segundo lugar, hay que hacerse una pregunta fundamental: ¿Cuál es el siguiente sonido más dominante de la escena? A Murch le pareció acertado que el sonido de los helicópteros era el segundo en importancia. Después de todo, es el mo­mento cumbre en el que el campamento militar recibe a las poderosas naves aéreas. ¿Qué hizo el sonidista? «Mezclé todos los tracks de helicópteros juntos en un rollo separado de 35 mm. magnético perforado, mientras escuchaba los diálogos, para estar seguro de que los helicópteros tapen los diálogos». En esta jerarquización de sonidos, el siguiente fue el de la música de Richard Wag­ner que era reproducido a través de los amplificadores y bocinas de los helicópteros. «Mezclé esto en otro rollo de 35 mm. magnético perforado mientras monitoreaba las otras dos pre-mez­clas de diálogos y helicópteros». El cuarto sonido fue el de las pequeñas armas de fuego, el quinto las explosiones, y el sexto los sonidos de foley. Finalmente, Murch tenía seis pre-mezclas, cada una de seis canales (tres canales detrás de la pantalla: izquierdo, centro y derecho; dos canales surround: el izquierdo y el derecho; y un canal de efectos de muy baja frecuencia). No entraremos en detalles tecnicistas narrando cómo Murch tuvo problemas creativos (que resolvió con pericia) en la mezcla final de esa secuencia apocalíptica. Dejamos consignado lo anterior como una muestra del modus operandi del sonidista.

Dimensiones fundamentales del sonido cinematográfico

Las dimensiones fundamentales del sonido fílmico son el ritmo, la fidelidad y el espacio. El ritmo tiene que ver con términos musicales como el compás y los acentos, la fidelidad es la relación que hay entre un sonido y su fuente, y el espacio es aquella dimensión que permite la construcción de una atmósfera sonora.

Primera dimensión: el ritmo

Vamos con el primer aspecto. Puesto que el sonido tiene una duración, tiene por ende, un ritmo. Éste será lento o rápido. El ritmo implica como mínimo un compás, un tempo y un esquema de acentos, o compases fuertes o débiles (estamos, por lo visto, hablando en términos musicales). El diálogo también tiene un ritmo al igual que la música. El personaje de Dennis Franz (el fotógrafo extorsionador de apellido Karp) en Blow out es identificable por sus señales vocales: por su ritmo acelerado en el hablar y su énfasis silábico. Cada personaje puede ser identificado por la forma en que va ritmando sus palabras. El actor puede controlar el ritmo, pero el editor de sonido puede manipularlo en la postproducción.

Segunda dimensión: la fidelidad

Ahora viene el segundo aspecto. El sonido puede también relacionarse con la fuente percibida con mayor o menor fidelidad. La fuente de sonido del personaje de Travolta es el audio del accidente automovilístico. Esa fuente es de baja fidelidad. Sería de mayor fidelidad si la fuente fuera clara (en otras palabras nos estamos refiriendo a la calidad de la grabación). La alta fidelidad existe solamente si el sonido corresponde a su fuente. Si en la segunda secuencia de Blow out el auto que cae por el puente al río produce un sonido de una motocicleta cayendo a un lodazal, no habría fidelidad. La imagen que acompaña al audio nos habla de un automóvil cayendo a las aguas de un río.

Otro ejemplo: si un actor de gran atractivo físico crea toda una expectativa en el momento en el que irrumpe en escena, y en el momento de hablar su voz suena aflautada o afeminada, estamos ante un caso de infidelidad hacia la fuente. El resultado causa hilaridad ante los espectadores. Es por eso que las voces que se contratan para doblar a los actores, siempre respetan el concepto de fidelidad. El doblaje perfecto implica encontrar una persona que tenga el mismo volumen, tono y timbre que la voz original.

Tercera dimensión: el espacio

Vamos con el tercer aspecto que vincula al sonido con el espacio. Michel Chion postuló una clasificación muy difundida so­bre el sonido en el cine desde el punto de vista espacial. Divide lo audible en una zona visible (oír y ver la causa del sonido) y otra zona llamada acusmática (oír sin ver la causa del sonido). El teórico francés también nos habla de sonido en el aire (de fuente visible aunque remite a otro en su producción, como el de una radio en pantalla transmitiendo un informativo, que nos indica otra fuente aparte de la visible), sonidos internos (el pensamiento de un personaje, latidos del corazón en las víctimas del cine de horror) y sonidos ambientales (de fuente invisible no por estar fuera de campo sino por plantear un territorio de mayor valor sonoro: ruidos selváticos, de lluvia o de vida urbana).

Sonido diegético y extradiegético

En esta vinculación del sonido con el espacio, David Bordwell propone una clasificación dicotómica que es deudora de la narratología. Si la fuente de un sonido es un personaje o un objeto perteneciente al espacio de la historia de la película, le llamaremos sonido diegético. Las voces de los personajes, los sonidos que provienen de los objetos de la historia, o la música interpretada por instrumentos que aparecen en el espacio de la historia, son todos ellos sonidos diegéticos. El sonido diegético en Blow out es la escena del crimen: El puente donde cae el automóvil en el que morirá ahogado el gobernador es el escenario, el espacio, o sea, la fuente del sonido diegético.

Por otro lado, está el sonido extra diegético, que procede de una fuente externa al espacio de la historia. Es fácil encontrar ejemplos conocidos de este tipo de sonido. La música de Pino Donaggio en la película de Di Palma es el típico sonido extradiegético (fuera de la diégesis). Cuando Tom Cruise está subiendo una montaña en la secuencia inicial de Mission: Imposible 2 no es­peramos ver a una orquesta en la cima. Los efectos sonoros también forman parte de lo extradiegético.

Resumiendo: el sonido puede ser diegético (dentro del espacio de la historia) o extra diegético (fuera del espacio de la historia). Si es diegético, puede estar en la pantalla o en off, y puede ser interno (subjetivo) o externo (objetivo).

En busca de la perspectiva sonora

Una característica del sonido diegético es la posibilidad de sugerir la perspectiva sonora. El espectador tiene la sensación de estar inmerso en una distancia espacial y localiza (o cree localizar) los sonidos dentro de la pantalla. Ése es el gran triunfo de los que trabajan con el sonido cinematográfico, crean la ilusión de una perspectiva de sonidos, o para seguir con la metáfora pictórica, lo­gran pintar un paisaje sonoro. No de otra forma se obtiene la suspensión de la incredulidad. Por eso Walter Murch dice que no solo graba un sonido, sino el espacio entre el sonido y el espectador.

Nube de etiquetas

A %d blogueros les gusta esto: