top of page

Resonancias

Transversal Sonora

2020

Revista electrónica

Resumen: Canciones de máquina se relacionan a la escucha de música mediatizada con la que se genera un imaginario de sonidos de instrumentos tradicionales, pero también de eventos de pop o folclore. Esta escucha convierte formas tradicionales como el concierto o la serenata, en un bis-a-bis entre el oyente y la música, volviendo la canción una prenda utilitaria. Sin embargo al explorar nuevas músicas además de la interpretación de instrumentos musicales extendidos e interfaces se aporta a la evolución de tecnologías que hacen que el ritual de la experiencia musical sea un evento en vivo. Acá se mostrará que en las canciones de máquina siempre hay aspectos que se escapan al imaginario de un concierto.

Palabras Clave: Nuevas músicas, instrumentos musicales, interfaces musicales, escucha mediatizada, medios digitales, ejecución musical.

Abstract: In this paper “machine songs” are defined as recorded music thereby function of media, duplication, and mass distribution. Characterized by an imaginary of instrumental sounds or by images of concerts and folklore, these songs reveal fractions or segments of what a performance might be. To a great extend machine songs are a commodity and thus part of a system of consumption. By searching new performance rules and novel ways of controlling traditional instruments or interfaces, biased images or prejudice might be avoided. It will be shown that development of technologies surrounding new music are to a great extend function of live performance.

Keywords: New music, musical instruments, music interfaces, mediated listening, digital media, music performance

Introducción

Se habla de canciones de máquina como una analogía a las canciones de cuna, siendo las primeras música que se escucha a través de medios electrónicos que ha sido grabada y reproducida. En contraste con las canciones de cuna o, de hecho las serenatas, estas canciones no son en vivo ni dependen de la voz o de cualquier instrumento. En contexto carecen de viveza y su significado hace referencia a prejuicios culturales. Que la escucha mediatizada sea favorecida en la actualidad impone ciertas restricciones a la tradición musical, pero al tiempo abre opciones de escucha, transmisión y almacenamiento, pudiendo ser reutilizadas.

Los beneficios adquiridos por las canciones de máquina también son sus obstáculos porque aunque la música llegue a mas audiencia, el repertorio y la variedad de creaciones tiende a limitarse por catálogos en empresas dominantes de los medios de difusión y distribución. Aunque determinadas canciones dictan la moda en de un momento socio-cultural, el gusto y las preferencias en una audiencia están dictadas por formulas publicitarias, de rentabilidad y éxito en su consumo. Lo que implica cuestiones desde el punto de vista del compositor, sus herramientas y sobre cuál será el rol del intérprete en las canciones que se avecinan y las que quedarán a las generaciones que vienen. Siguiendo el patrón tecnológico hay esperanza en que el intérprete en vivo sobreviva, siempre y cuando su búsqueda vaya en contra de enlatados de canciones, descubriendo sonoridades y gestualidades con nuevos instrumentos musicales.

Formas de escucha

La escucha de canciones de máquina permite un acceso masivo a diferentes formatos musicales, lo que induce a que ahora mas que nunca hay mas gente oyendo musica que en cualquier otro momento de la historia. La tecnología que se dispone permite ubiquidad en la reproducción, quizá valoración y apreciación en obras que se perciben, factor que es proporcional al deseo de escucha. Se podría decir que esto traza una linea recta en la evolución de esta forma de arte que siempre ha dependido de la memorización. Para memorizar una canción (o de hecho cualquier obra musical), se pasó de lo oral a la notación escrita y de ahí a los medios electrónicos. En relación a los medios, la representación pasa de lo gráfico a lo electrónico, y de lo análogo a lo digital(1).

 

Con lo que la experiencia musical actual está muy ligada al medio, en contraste con la sala de conciertos que cobijaba la musica orquestal del periodo clásico. Consecuencia de esto el ritual de escuchar música gira en favor de lo electrónico y digital. La misma obra que se escuchaba en auditorio ahora se escucha por medio de un dispositivo. La diferencia es que con la reproducción se genera un imaginario de lo que pudo ser la ejecución en vivo(2) . Desde un contexto de flexibilidad e interpretación musical esto significa que un momento se congela sin posibilidad de interacción con una audiencia o escucha, el recinto e inclusive el clima. La perfección de una grabación en estudio o de un concierto se transforma en algo rígido, corriendo el riesgo que su percepción también sea un proceso estático. Además la libertad de escoger entre miles de propuestas musicales grabadas, intimida y restringe la posibilidad de escuchar una obra determinada, sin previa orientación.

Música y medios

Si el medio es el mensaje(3) y, la reproducción electrónica es la herramienta para la percepción, el rol de la orquesta queda relegado al culto de una tradición, por lo que surgen preguntas de artista sobre el por qué de esta institución, para que se va a conciertos, pero también: ¿ y que pasa con el intérprete?, si ahora todo se tiene disponible en un dispositivo de bolsillo. Con ésta evolución, ¿ que papel juegan el compositor con el intérprete, su instrumento y la ejecución en vivo o performance?.

Desde un punto de vista mas afín al compositor y al ejecutante, que la música sea un ritual en vivo es un objetivo inherente a esta forma de arte. La razón tiene que ver con procesos de desenvolvimiento de un gesto, producto de variaciones que ocurren al pasar del tiempo. Un paso a favor en este punto de vista es el surgimiento de manifestaciones en de intérpretes en círculos de “dj’s” que manipulan musica mediatizada alterando velocidad de reproducción, entradas duraciones, dirección, etc. Sin embargo es difícil pensar en este paso como evolución puesto que han sido técnicas apropiadas de metodologías de composición electroacústica de los mil novecientos cuarenta y cincuenta(4) .

 

Avances en tecnologías de computación han suministrado herramientas para que músicos con gran facilidad puedan utilizar formulas para obtener canciones de máquina. Muchos programas ofrecen la posibilidad de imitación tímbrica de instrumentos tradicionales con alta fidelidad. A propósito la generación de patrones rítmicos ya no la hace un baterista, el conguero u otro percusionista. Todo lo hacen programas que disparan un gatillo para generar entradas y duraciones por medio de un algoritmo plantilla conocido como generador de tareas. Los sonidos de tambores y platillos de la batería son fieles reproducciones digitales de los instrumentos reales. Igualmente en conciertos de celebridades del “pop”, la voz, voces e instrumentos, son previamente digitalizados, con lo que el aporte en vivo es tan solo lo visual con el baile y lo coreográfico. Pero desde un ángulo de evolución musical, ¿ es esto lo que se quiere y se persigue en la música y sus tecnologías tangenciales?.

A mediados de los años mil novecientos noventa este autor con un grupo de estudiantes de la Universidad de Los andes, se embarcó en la idea de explorar instrumentos aumentados, nuevos instrumentos y nuevas interfaces musicales, a pesar de que en latinoamerica y Colombia no existía una tradición de formación y educación musical(5) . En esa época la interpretación de instrumentos estaba relegada al folclore y en las ciudades a música orquestal y de banda con repertorios limitados. Con lo que la investigación en informática musical además de otras tecnologías ofrecía opciones prometedoras a nuevas generaciones, tanto al talento intuitivo (mayoría de personas) como a interesados en seguir carrera musical. Esta idea fue acogida por colegas en la Universidad Nacional de Colombia y en las universidades de Caldas y Autónoma de Manizales(6) . Casi veinticinco años después esta idea sigue vigente. En esos días la posibilidad de una interpretación aumentaba se hallaba confinada al protocolo MIDI(7) , aunque en casos también a tratamiento de señales de audio. En la actualidad se dispone de micro-controladores que realizan tareas de grandes máquinas de otras épocas como detección de alturas y reconocimiento de patrones rítmicos y melódicos. Por lo que es fácil seguir pensando en la ejecución en vivo, en el intérprete y en el instrumento como alternativas a la creación y percepción musical por estas latitudes y como se ha hecho en el resto del planeta.

Inquietudes sobre formas de interpretación y escucha

 

Partiendo de la contradicción entre canciones máquina y la ejecución de musica en vivo o en tiempo real, surgen inquietudes sobre nuevas formas de escucha que respondan al desarrollo de nuevos instrumentos e interfaces. En casos repertorio de música ya existente funcionaría pero en la realidad hay que pensar en nuevas composiciones que respondan a esta evolución en la musica. Al reflexionar en expresiones de vanguardia, que no estén encajadas por normas y formulas, típicas en las canciones de máquina, aparecen opciones que quizá todavía no han sido desgastadas. Comenzando con el instrumento de la orquesta, en el cuál la gestualidad esta demarcada por escalas y armonías afines a prejuicios culturales y no tanto estéticos, se imaginan nuevas formas de ejecución donde aparecen nuevas sonoridades. Esta visión aunque no es novedosa fue utilizada por el compositor norteamericano Henry Cowell, al pensar en maneras novedosas de interpretar el piano a comienzos del siglo veinte(8) .

 

Aunque la tradición dicta reglas musicales muy afines a la concepción de “obras afinadas”, éste concepto de afinación es relativo, ofreciendo posibilidades de creatividad. Lo que indica que un instrumento no necesariamente tiene que estar afinado a alturas y tonalidades predeterminadas. Una ventaja con esta condición es la de aprovechamiento del espectro tímbrico y resonancias del instrumento. Punto que implica exploración e ingenio en el manejo y control del instrumento, apareciendo formas de tocar que generan y exigen atención además de curiosidad para una escucha detallada.

 

Lo anterior delinea una definición de instrumento musical que sigue vigente, con con pocas variaciones a la clasificación de tipos y familias que esta sugiere. Si el intérprete como creador se apropia de una definición de música por encima del sonido y las tonalidades, ciertamente logrará un mayor número de grados en libertad de expresión. En instrumentos temperados como el piano, esta cualidad podría ser limitante pero el ingenio en la búsqueda de recursos de varios intérpretes ya ha demostrado lo contrario(9) . Con afinaciones fijas también es posible generar sonoridades si se dispone de curiosidad y, por lo que en el piano existe la posibilidad de que varias notas suenen a la vez al manipular diferencias entre fundamentales y armónicos. Esto se logra con una fuerte actitud de exploración y búsqueda al aproximarse al control del instrumento. En otros instrumentos afinados como el saxofón, desprenderse de tonalidades se logra horizontalmente al manipular sucesiones de notas que evaden el prejuicio melódico y las escalas.

1.png

Figura 1: Radio drum o radio batuta de Mathews y Boie;

interfaz o nuevo instrumento musical basado en la metáfora del tambor. Utiliza dos mallets o baquetas con un transmisor de radio frecuencias en la punta extrema de cada una. En la superficie plana se encuentra un arreglo de antenas que perciben la señal de los transmisores, y la traducen a valores de tripletas (x,y,z) de gestos para tres dimensiones. Por su diseño híbrido, los valores de las tripletas pueden ser utilizados en programas de computador en diferentes maneras. Una de las aplicaciones mas conocidas es como la de la batuta de un director de orquesta para llevar el compás en una ejecución musical

Instrumentos aumentados

Si en una creación musical el control del instrumento esta limitado por su diseño, sus atributos pueden extenderse por medio de prótesis y aditamentos que se interconectan a un programa de computador. Maneras de interacción entre el ejecutante, el instrumento y el programa usualmente responden a las exigencias del intérprete, que a la vez son retos que impone una creación musical a la forma de ejecución. En ocasiones no solo es el sonido lo que se controla sino también la generación y manipulación de un gesto que matiza la ejecución musical. Si un instrumento tradicional no alcanza las expectativas del ejecutante o tampoco cumple con requerimientos técnicos para interconectarse al programa de computador, cabe la posibilidad de diseñar una nueva interfaz.

 

En el diseño de interfaces para controlar procesos de computador se utilizan metáforas de instrumentos tradicionales para que se facilite su manipulación y, por aquello de la intuición al tocar un instrumento. Un ejemplo es el “radio drum” o, tambor con radiofrecuencias de Max Mathews y Bob Boie (10), que en su versión original fue concebido como un sensor en tres dimensiones, pero que Mathews subsecuentemente adaptó para utilizar con parámetros musicales. Este instrumento se toca utilizando la metáfora del tambor por lo que consiste de una superficie además de dos mallets o baquetas. En la punta de cada una las baquetas hay un transmisor de bajas frecuencias y en la superficie del tambor existe un arreglo de antenas que recolectan señales de radio emitidas por los transmisores. Estas señales emiten valores de tripletas (x,y,z) que pueden ser leídas por un programa de computador de varias maneras (ver foto en la Figura No.1). Por ejemplo, valores de “Z” (hacia arriba y abajo), dan el volumen de un sonido. Valores “X” (hacia un lado y el otro), dan alturas o frecuencias de un sonido.

 

Una de la aplicaciones mas conocidas de este tambor es la denominada “radio batuta” en la que se se manipulan duraciones, tempo y rubato, a partir de una lista de notas y alturas previamente almacenadas en un archivo de computador. Los sonidos de este archivo de notas se disparan con un sintetizador o con dispositivos MIDI. El usuario en este caso suele ser o un director de orquesta o, un cantante porque en otro tipo de situación las manos estarían ocupadas. Otro ejemplo utilizando la metáfora del tambor o de instrumento aumentado puede apreciarse en el el “Silent Drum”, o tambor silencioso del compositor peruano Jaime Oliver(11).

Viveza del instrumento musical

 

Sobre los roles del intérprete y el instrumento hay que decir que mucha de la creatividad en una ejecución es función de la interacción entre un agente que escoge que tocar (intérprete) y otro que escoge como sonar (instrumento), viendo este proceso en términos de sistemas y operaciones, si se fuera a mecanizar. Pero como se parte de un supuesto en que la escucha musical es una actividad netamente humana, los matices y claves para que una ejecución no caiga dentro de un imaginario mental postizo son función de la viveza que genera el instrumento musical en vivo (sea acústico, eléctrico o informático). Motivo por lo que la actividad de tocar música debe comenzar y mantenerse en el dominio de lo real. Un instrumento “se toca” con las extremidades en el mundo físico real, de hecho porque el sonido como fenómeno acústico requiere de aire para percibirse en la escucha. Nuevas expresiones, nuevas formas de tocar para los músicos de ahora requieren de nuevos componentes que difícilmente pueden encapsularse en productos para canciones de máquina. Por lo que para una evolución en los medios de la música y tecnología, un gran porcentaje de factores seguirán dependiendo de la interpretación y ejecución en vivo para lograr el “momento musical”

(1) Pope, 1999

(2) Johnson, 1991

(3)McLuhan, 1994

(4) Schrader, 1982

(5)Reyes, 1998

(6)Cuellar, 2000

(7)Wikipedia, 2013

(8)Rich, 1995

(9) Stockhausen, 1970

(10)Mathews, 1991

(11)Oliver and Jenkins, 2008

Referencias

 

Cuellar, L. E. (2000). The development of electroacoustic music in colombia, 1965-1999: An introduction. Leonardo Music Journal, 10:7–12.

 

Johnson, R. (1991). Music and electronic media. Computer Music Journal, 15(2):12–19.

 

Mathews, M. V. (1991). The radio baton and conductor program or pitch, the most expressive part of music. Computer Music Journal, 15(4).

 

McLuhan, M. (1994). Understanding Media. The MIT Press, reprint edition.

 

Oliver, J. and Jenkins, M. (2008). The silent drum controller: A new percussive gestural interface. In Proceedings of 2008 International Computer Music Conference, Belfast, UK. International Computer Music Association, Sonic Arts Research Centre(SARC) - Queen’s University Belfast.

 

Pope, S. T. (1999). Web.la.radia: Social, economic, and political aspects of music and digital media. Computer Music Journal, 23(1):49–56.

 

Reyes, J. (1998). Education with computer music in colombia. In Proceedings of 1998 International Computer Music Conference, pages 424–427, San Francisco, California. International Computer Music Association, University of Michigan.

 

Rich, A. (1995). American Pioneers: Ives to Cage and Beyond, chapter Four: Henry Cowell, pages 109–138. Phaidon Press Limited, London.

 

Schrader, B. (1982). Introduction to Electro-Acoustic Music. Prentice-Hall.

 

Stockhausen, K. (1970). Mantra. http://en.wikipedia.org/wiki/Mantra_(Stockhausen). Visitada en Febrero del 2013.

 

Wikipedia (2013). Midi. http://es.wikipedia.org/wiki/MIDI. Vistada en Septiembre del 2013.

bottom of page