You are on page 1of 84

Sumário

Resumo 8

Abstract                                                                                                   9

Introdução 10

Capítulo 1 -
Estratégias composicionais na interação homem-máquina 12

1.1 Jogo Multidimensional 14

1.2   Processo Composicional versus Gesto Instrumental                       15

1.3   Composição Algorítmica e Interatividade                                       16

1.4    Interação e Construção Perceptual                                                  19

1.5    Protocolo MIDI                                                                               21 

1.6    Exemplos Históricos do desenvolvimento da Música Interativa    22

1.7    Ambiente MAX                                                                               23

1.8    Exercícios Composicionais no Ambiente MAX/MSP                    25

1.8 a) Exercício 1 25

1.8 b) Exercício 2 28

1.8 c) Exercício 3 33
Capítulo 2 -

Relatos de Processos Composicionais 36

2.1 Enquanto eles riem 37

2.2 Pequi 41

2.3 Caminho largo, caminho estreito 45

2.4 Peça para marimba e computador 51

Conclusão 57

Referências Bibliográficas 60

Anexos 61

- Partituras 62

- Arquivos Csound 76
             
        ­ Patchs de MAX/MSP                                                                      82

7
RESUMO

Este trabalho é fruto da pesquisa durante o mestrado em música da UFG, na linha


Composição e Novas tecnologias e compreende um conjunto de composições
acompanhado de um texto e exercícios em desenvolvimento de aplicativos
computacionais voltados pra composição. O texto se divide em duas partes: a primeira é
uma coleção de idéias, úteis ao compositor, organizadas sob a forma de estratégias
composicionais. Onde o compositor interessado em compor música com ênfase na
interação homem-máquina vai encontrar uma visão geral do desenvolvimento desse ramo
e algumas estratégias e exercícios desenvolvidos no ambiente MAX/MSP que podem
auxiliar ou conduzir um processo composicional. Na segunda parte são relatados os
processos de composição de quatro peças, onde são detalhadas técnicas de programação
em Csound, desenvolvimento de material composicional, idiomatismo e escrita
instrumental.

8
ABSTRACT

This work is the result of the research during the music master degree in UFG, in
the field Composition and New technologies, and comprise a conjoint of compositions
with a text and exercises in development of aplications for composition. The text is
divided in two parts: the first is a ideas colection, helpful for composer, organized under
the form of compositional strategies. Where the composer interested in writing music
with emphasis in human-machine interaction will find a global vision on the development
of this field and some strategies and exercises developed in the MAX/MSP environment
that can help and conduct a compositional process. In the second part are related the
composition process of four pieces, where are explicated Csound programing techniques,
compositional material development, idiomatism and instrumental writing.

9
Introdução

A motivação dessa pesquisa vem do desejo de compreender os ambientes


composicionais assistidos por computador e sua interação com o universo sonoro dos
instrumentos tradicionais e dentro dessa perspectiva desenvolver uma consciência
composicional e progredir na busca por uma identidade artística.
Este trabalho é o resultado da pesquisa desenvolvida nos Laboratórios de
Pesquisa Sonora da Escola de Música e Artes Cênicas da UFG, no período de abril de
2003 a março de 2005. O produto final compreende a composição de um conjunto de
obras eletroacústicas, registradas em suporte áudio em CDrom e apresentadas em relato
de processo composicional na presente dissertação.
A pesquisa desenvolvida teve como objetivo geral a ampliação da reflexão e a
aquisição de técnicas composicionais em que o foco fosse a interação homem-máquina e
o uso das novas tecnologias na composição e na performance. E como objetivo específico
a composição de peças que, de uma maneira livre, se refletissem como eco das técnicas
conquistadas.
O presente texto divide-se em dois capítulos: Estratégias composicionais na
interação homem-máquina e Relatos de processos composicionais. No primeiro, buscou-
se traçar as referências teóricas mais relevantes e organizá-las sob a forma de estratégias
e referencial de idéias úteis ao compositor que deseje trabalhar com interação homem-
máquina. E, no segundo, foi exposto o processo composicional de quatro peças com
formações e características diferentes, visando a expôr os aspectos de escrita
instrumental, técnicas de programação e elementos poéticos de construção.
O primeiro capítulo é dividido em oito partes, respectivamente: Jogo
Multidimensional, Processo Composicional versus Gesto instrumental, Composição
Algorítmica e Interatividade, Interação e Construção Perceptual, Protocolo MIDI,
Exemplos históricos do desenvolvimento da música interativa, Ambiente MAX e
Exercícios Composicionais no Ambiente MAX/MSP que é uma parte destinada à

10
apresentação técnica de exercícios desenvolvidos em aula no ambiente Max/MSP, no
intuito de fornecer ferramentas interativas ao compositor.
No segundo capítulo foi relatado o processo de composição das peças Enquanto
eles riem, Pequi, Caminho largo, caminho estreito, Peça para Marimba e Computador.
São expostas as particularidades de escrita musical e uso do idiomatismo do violão, do
clarinete e da marimba e algumas relações com as estruturas eletroacústicas. As técnicas
de composição empregadas nas peças também são discutidas, como procedimentos
seriais, variações harmônicas e colagens. Foram mostrados exemplos de programação em
Csound na construção de Caminho largo, Caminho estreito .
Ao texto estão anexadas as partituras instrumentais das peças, os códigos de
Csound utilizados na construção das composições e os patchs de Max/MSP utlizados
tanto em uma das composições quanto nos exercícios expostos no primeiro capítulo. O
conjunto do trabalho compreende o presente texto e seus anexos e um Cdrom misto
(áudio e dados) em que se encontram as composições em versões mixada e separada para
performance, o presente texto com as partituras, os algoritmos de Csound e os Patchs de
MAX. Neste sentido, este texto se apresenta como uma síntese referencial do processo de
pesquisa.

11
1. Estratégias composicionais na interação homem-máquina

O impulso deste trabalho é o desejo de compor música interativa, onde foi


buscado o foco na interação homem-máquina, materializada no universo dos
instrumentos acústicos versus ambientes de composição ao computador. A música de
câmara, enquanto forma de interpretação, é um bom exemplo de música interativa em
que a interação entre os músicos é um fator estrutural da composição. No caso da
interação de músicos com computadores, uma estratégia possível é o mesmo que o da
música de câmara que, enquanto estilo e proposta composicional, pretende ser um
diálogo, com perguntas e respostas, concordâncias e discordâncias, paralelismo, empatia,
etc…
A busca por um grau de interatividade é uma proposta que pode conduzir um
projeto composicional em vários níveis, ou até mesmo ser um parâmetro de análise de
determinada obra ou situação musical. Podemos classificar o nível de interatividade
presente no fazer musical de determinada obra no âmbito da composição, da performance
e da percepção.
As novas tecnologias, materializadas no advento do computador pessoal acabaram
por transformar todo o fazer musical, desde a composição (meio, materiais e formas de
construção), a performance (uso do computador como instrumento ou como
instrumentista sintético) e a percepção. Uma meta neste trabalho é analisar como as novas
tecnologias enquanto meios conduzem a nossa percepção e propôr alguns elementos de
reflexão sobre o fazer musical com suporte tecnológico e traçar possibilidades e
estratégias composicionais na interação homem-máquina.
Todo trabalho composicional implica numa idéia cujo processo de elaboração e
planejamento toma a maior parte do trabalho. A definição de uma estratégia de trabalho
torna-se essencial quando a idéia original exige esforço para o seu desenvolvimento. Este
capítulo é o relato da busca por estratégias composicionais que auxiliaram a elaborar
estruturas que eram esboços sonoros e algumas idéias sobre instrumentos acústicos
interagindo com processamento ao vivo e sons eletrônicos. São apresentados aqui alguns
aspectos teóricos acerca da música eletroacústica mista de caráter interativo e breves

12
reflexões, úteis para o trabalho composicional, sobre a percepção. Tornou-se relevante
adicionar alguns exercícios desenvolvidos no sentido de mostrar qual foi o nível de
interação no âmbito da performance e da composição. São exercícios que serviram de
experimentos de possibilidades interativas e podem servir de base a futuros projetos
composicionais.
Tendo em vista a alta gama de informações, de sons, de procedimentos
disponíveis ao artista contemporâneo, torna-se necessário um maior nível de reflexão
acerca destes elementos dentro de uma perspectiva de desenvolvimento de estratégia
composicional. Um tipo de pensamento sobre esta busca pela expressão artística no
contexto da sociedade contemporânea, que pode ajudar ao compositor, são algumas
reflexões de György Ligeti, descritas em Toop (1999) e citadas em Correa (2003). Duas
declarações de Ligeti são decisivas na montagem de uma estratégia composicional ou de
um esquema de trabalho:

“ Eu sou inclinado a não ter um conceito alto sobre artistas que desenvolvem um único
procedimento e depois produzem o mesmo tipo de coisa o resto de suas vidas. No meu próprio
trabalho eu prefiro estar constantemente retestando procedimentos, modificando-os, e
eventualmente colocando-os de lado e os substituindo com outros procedimentos.” “ Eu não
tenho uma idéia fixada para onde tudo isso está levando. Eu não tenho uma visão definitiva do
futuro, nem um plano geral; de um trabalho para o próximo, eu vou tateando em várias direções,
como um cego em um labirinto. Assim que um passo à frente tenha acontecido, ele já está no
passado, e depois, há um sem número de concebíveis ramificações para o próximo passo.”

A posição de estar sempre buscando novas maneiras de se expressar, com o


cuidado de deixar o fluxo criativo livre evitando repetir-se, é uma referência importante
neste contexto.
Se considerarmos o fazer artístico um jogo, devemos levar em conta que todo
jogo implica um nível de interatividade entre duas partes ou mais. No caso da música, a
interatividade entre os materiais, o meio, a presença do intérprete e os níveis do fazer
musical são as partes relevantes do jogo.
Ao selecionar e se deparar com as técnicas e os materiais, o compositor entra num
jogo onde interagem sua bagagem musical e sua subjetividade com os materiais e os
mecanismos de construção musical. Aparentemente é comum na música contemporânea a
busca pela neutralidade da personalidade do compositor, onde as decisões
composicionais são relegadas a um algoritmo ou ao acaso. Em relação a isso, o jogo

13
pode estar no fato da composição algorítmica ser um meio de fornecer material e
flexibilizar a automação natural do repertório gestual do compositor.
A performance musical tradicional traz um nível de interação entre performer e
obra que é dado por parâmetros interpretativos. Apesar do fato de nenhuma performance
ser igual, podemos identificar, nas interpretações, muitos maneirismos e idiossincrasias
próprias dos estilos, constituindo modelos pouco variantes. Zampronha (2000) descreve
dois métodos de como trabalhar a escrita de obras que surgem sob a ótica da percepção
ao invés do uso de estereótipos, que são: a escrita como signo incompleto e a escrita
como signo saturado. Estas técnicas acabam exigindo uma maior presença criativa do
performer e um maior nível de interatividade entre performer e obra.
A busca pela interatividade na relação do ouvinte com a obra é mais complexa
que a interatividade obtida do compositor com o meio e os materiais, e da obra com o
intérprete. Depende de outros fatores como o meio pelo qual está sendo transmitida a
obra, a bagagem cultural e o nível de percepção cognitiva do ouvinte. Podemos falar da
interatividade proporcionada pela percepção e/ou reconhecimento participativo ou da
interatividade da obra com os parâmetros perceptuais do ouvinte. No sentido de aumentar
a reflexão ao redor da percepção sonora, procuramos fazer um paralelo entre as idéias
sobre meios quentes e frios de Marshal McLuhan (1964) com a mudança de paradigma
da escrita e da composição musical contemporânea, desenvolvida pelo compositor Edson
Zampronha (2000).

1.1) Jogo multidimensional

Programar e compor utilizam raciocínios similares, pois tem o formato de receita


que quando pronta torna-se um modelo pronto para se copiar, fazer variações ou fazer
parte anexa de outro projeto, em todos níveis. As linguagens de programação deixaram
de ser códigos secundários para tornarem-se obras em si mesmas com a sua poética. O
computador abriu aos compositores o acesso ao nível do timbre, não só na composição,
mas também na performance. É possível controlarmos parâmetros timbrísticos em tempo
real, fato que acabou por exigir comportamento semelhante dos instrumentos tradicionais.

14
Conseqüentemente, veio a exigir uma maior amplitude da variação timbrística nas
técnicas contemporâneas de execução e escrita dos instrumentos acústicos.
Pode-se descrever a interação do compositor com a obra como um jogo dinâmico
com os materiais, em que as regras mudam a cada jogada. Xenakis (1996), aponta o uso
de um espaço multidimensional como auxiliar na representação das características de um
som como um gráfico que auxilie a composição, ordenando cada característica de um
som como altura, amplitude, tempo, densidade, desordem, parâmetros de timbre, etc..;
onde cada característica é uma linha dimensional, e os sons, pontos paralelos em várias
dimensões. Assim o trabalho consiste em distribuir pontos em uma linha, onde podemos
trabalhar com simetria, assimetria, repetição, variação ou surpresa.
Em relação a esta proposta, Xenakis (1996) acrescenta:
"Tradicionalmente a música tem duas dimensões estabelecidas- tempo e altura. Historicamente
outras foram adicionadas como, por exemplo, as dinâmicas, ainda que estas tenham sido um tanto
vagamente representadas na música instrumental. Com o desenvolvimento da música eletrônica e
da música computacional, a multidimensionalidade da representação do som se tornou ao mesmo
tempo natural e prática. Mas a música vai além da multidimensionalidade - ela é ainda mais
complexa."

Com o termo complexidade, ele se refere às correlações entre os níveis de construção de


uma peça musical. Mostra um exemplo rápido de três níveis em que o nível zero abrange
altura, intensidade e timbre. No nível um, frases e acordes e no nível dois a forma. As
interações entre estes níveis transcendem a multidimensionalidade tempo versus espaço.

1.2) Processo composicional versus gesto instrumental

Com o surgimento da música eletroacústica, uma das primeiras idéias foi a


imitação da música instrumental, trazendo o repertório gestual da música instrumental
para as composições eletroacústicas. A composição baseada no trabalho e processo
composicional, que dispensa o papel da performance humana, como por exemplo, alguns
casos da música eletrônica, acaba provocando uma espécie de reversão do interesse
poético que procura emular o gestual da performance humana, como podemos ver com
Caesar (1997):
" No entanto a música espectral só tem disponibilizado a operacionalidade sobre o que é

15
quantificável, tais como o parâmetro de altura e o conteúdo espectral dos sons. Outros parâmetros
- ou critérios de percepção (na acepção schafferiana) - menos quantificáveis, ficarão subtraídos do
processo a menos que sejam colocados em vida acústica por novos dispositivos. [...]o MIDI entrou
em muitos estúdios como forma de recuperação do gesto instrumental, o controle manual
necessário para o ato de compor."

Por outro lado, coloca: "[...]o protocolo MIDI foi também um canal para a reação, no
sentido de que o repertório gestual das interfaces é, e soa, às vezes, por demais
reminiscente do da música instrumental." Ou seja, mesmo que os parâmetros estéticos
estejam deslocados pelos elementos colocados pela música espectral e outras vertentes,
os novos parâmetros se adequam em relação aos antigos. Como, por exemplo, a
influência de elementos da análise espectral na concepção harmônica da composição
instrumental .

1.3) Composição algorítmica e interatividade

Na composição algorítmica, delegamos tarefas ao computador, transformando-o


em nosso assistente composicional. Segundo Roads (1996) :
"Modelos de processos são naturais ao pensamento musical. Enquanto escutamos, parte de nós
bebe na sensual experiência do som , enquanto outra parte está constantemente colocando uma
espera perceptual, e fazendo isso, construindo hipóteses de processos musicais. Compositores
sabem há séculos que qualquer processo musical pode ser formalizado em uma representação
simbólica. Uma composição algoritmica formal é uma máquina de criação musical; neste caso o
computador pode servir como um veículo para idéias musicais."

Com a composição algorítmica o compositor pode ampliar a sua "personalidade


musical", descobrindo sons e estruturas que ainda não conhecia. Segundo Burt (1996):
" ...eu, a qualquer preço, acho muito mais válido usar métodos algorítmicos como meios
de descobrir o que eu não sei, antes de fazer o que eu já sei. Para mim, este tem sido um
método de expansão dos meus gostos, uma ferramenta para o crescimento individual,
antes de um método de expressar o que eu já senti." Esssa colocação sintetiza a estratégia
pessoal do compositor no sentido de se expressar criando um espaço de diálogo com a
subjetividade de seu próprio gosto que é um sentimento não-passivo, que se diferencia da
sensação que é modo como nos relacionamos com os objetos externos, sendo portanto,
receptiva; ao contrário, o gosto não é uma simples faculdade de registro e análise. Ele

16
possui uma verdadeira virtude criadora, portanto ponto fundamental de auto-análise no
trabalho composicional. Neste sentido, a composição por algoritmos pode fornecer
material em diversos níveis como timbres/processamento de sinais, sequências de notas,
dinâmicas, articulações, gestos, estruturas ou até a forma.
Ao pensarmos em composição assistida por computador e ambientes
composicionais interativos, podemos dizer que a pesquisa nesse contexto se torna o
processo em si, antes do produto. O que coloca um novo paradigma para o fazer musical
mais próximo da pesquisa científica. A relação criada através da analogia entre
composição musical e pesquisa tecnológica provoca mal entendidos no senso-comum.
Em relação a isso, Ferraz (1999), acrescenta:
"[...]a pesquisa corre exatamente no rumo em que corre o compositor, ela é ato de criação. Mas o
que ela cria não é a composição musical, se bem que se cruzem. A música não tem por papel criar
funções ou conceitos. Ela cria sensações, ela distorce funções e conceitos. Veja-se por exemplo
todo o trabalho de composição com algoritmos, o que resulta não são números, nem sequer são
relações numéricas, e não é isto que ouvimos. Até as composições por algoritmos desembocam
num jogo de sensações, de perceptos e afectos."

Pode-se ainda acrescentar que a aproximação do fazer musical com a pesquisa


científica permeia toda a vanguarda musical do século XX, resultando esta característica,
de ênfase no processo, ter chegado ao nível de que, muitas vezes pré-conduz à percepção
de uma obra.
Quando propõe-se a desenvolver um processo composicional em determinado
software, deve-se perguntar: o que veio primeiro, a idéia ou a possibilidade? Minhas
idéias são limitadas pelas possibilidades existentes? O compositor Sílvio Ferraz, que no
seu artigo "Criação musical com suporte tecnológico" (1999), trabalha com a idéia de que
o pensamento composicional induz a criação de ambientes de composição ao
computador, expõe:
"É interessante notar que esta passagem da matéria sonora a material composicional, embora
pareça rápida, ela já vem permeada por processos previstos no próprio software. Ou seja, a
passagem não é tão rápida assim, tal qual quando nos defrontamos com composições realizadas
com base em processos composicionais já tradicionais (a tonalidade, as improvisações modais ou
os modelos seriais): a aparente intuição e rapidez com que a matéria sonora se torna material
composicional não se dá senão por ingenuidade, pois os processos todos de transformação já vem
previstos e largamente desenvolvidos no próprio campo de composição."

Para um compositor que não seja um programador e que deseja uma alternativa rápida a
sua força criadora, uma saída é o uso de combinações de softwares e o uso subversivo
dos mesmos, ou seja, usar o software para uma função que ele não foi programado.

17
Em relação à interação que a composição algorítmica propicia ao compositor,
Roads (1996) nos fala:
"Para um compositor que não é um programador, programas de composição totalmente
automatizados exigem pouco em termos de criatividade. A interação com o compositor é limitada
em suprir uma pequena quantidade de dados, como sementes, necessários a execução do
programa[...].Um caminho de passar através da estratégia fixa é modificar a lógica do programa.
Neste caso, um compositor que também é programador retém toda a responsabilidade."

Este parágrafo sintetiza o desafio do compositor contemporâneo, que é o fato de dispôr


de um arsenal sonoro em um computador e ter que aprender a controlar isso de maneira
que sua inventividade composicional não seja guiada por pré-configurações de software.
No sentido de aumentar o nível de interatividade ao nível composicional, através
da automação por algoritmos, podemos acrescentar elementos de performance ao sistema.
Segundo Roads (1996):
"Nós distinguimos dois níveis de interação: (1) interação relativamente leve com um "ambiente
composicional", baseado em experiência de estúdio, onde existe o tempo para editar e retroceder
se necessário; (2) intensa interação em tempo-real baseada em trabalhos com sistemas de
performance de palco, onde a ênfase está no controle de um processo musical em andamento e não
existe tempo para edição."

No primeiro caso, encontram-se os software que procuram imitar a experiência do


estúdio analógico através de metáforas, como “recortar”, “colar”, “mixer”, etc…
Software como Pro Tools e Peak se enquadram nesta categoria, assim como software
concebidos dentro do pensamento permitido pela tecnologia digital como sequenciadores
Midi, e sintetizadores em linguagem de programação. Reason, Csound e Max são alguns
exemplos. O ambiente de programação Max se enquadra na segunda categoria também
por possibilitar interação em tempo real em vários níveis, tanto na manipulação ou
intervenção na performance quanto no nível composicional. Cada software, por suas
características e especificidades, vai conduzir em algum nível, o pensamento
composicional.
Indo radicalmente neste pensamento, podemos citar McLuhan (1964):
"...Voltemos à luz elétrica. Pouca diferença faz que seja usada para uma interevenção cirúrgica no
cérebro ou para uma partida noturna de beisebol. Poderia objetar-se que estas atividades, de certa
maneira, constituem o "conteúdo" da luz elétrica, uma vez que não poderiam existir sem ela. Este
fato apenas serve para destacar o ponto de que "o meio é a mensagem", porque é o meio que
configura e controla a proporção e a forma das ações e associações humanas[...].Os efeitos da
tecnologia não ocorrem aos níveis das opniões e dos conceitos: eles se manifestam nas relações
entre os sentidos e nas estruturas da percepção, num passo firme e sem qualquer resistência. O
artista sério é a única pessoa capaz de enfrentar, impune, a tecnologia, justamente porque ele é um
perito nas mudanças da percepção."

18
Esta colocação nos leva a um nível de reflexão em que colocamos em questão os meios e
métodos que utilizamos para nos expressar. Meios e métodos que sempre nos chegam
pré-configurados e em que a expressão se torna a transcendência do que é colocado.

1.4) Interatividade e construção perceptual

Ao tentar-se entender os processos interativos envolvidos na percepção de uma


obra musical, devemos levar em conta que a música é, fundamentalmente, um meio de
comunicação. Segundo McLuhan:
"Há um princípio básico pelo qual se pode distinguir um meio quente, como o rádio, de um meio
frio, como o telefone, ou um meio quente, como o cinema, de um meio frio, como a televisão. Um
meio quente é aquele que prolonga um único de nossos sentidos e em "alta definição"[...] A fala é
um meio frio de baixa definição, porque muito pouco é fornecido e muita coisa deve ser
preenchida pelo ouvinte. De outro lado, os meios quentes não deixam muita coisa a ser preenchida
ou completada pela audiência."

Nessa citação podemos notar claramente a época em que foi escrito esse texto,
especificamente por causa da classificação dele em relação a Televisão, e na omissão de
um meio tão em voga como a Internet.Após esta ilustração, podemos pensar em músicas
“ mais quentes” ou “mais frias”. O fato da música trabalhar apenas com um de nossos
sentidos dificulta a aplicação deste conceito no universo da música. Esta citação entra
nesse trabalho apenas para fornecer elementos necessários de reflexão sobre o nível
perceptual ao compositor, sem tentar criar situações de classificação estática. Sem
pretender fazer uma interpretação “correta” deste conceito, pode-se fazer algumas
analogias úteis à reflexão composicional. Uma ópera de Verdi é um bom exemplo
“quente”, enquanto que uma fuga de Bach, uma sonata dodecafônica de Schoenberg, as
peças de Cage com elementos de acaso ou o minimalismo de Reich são exemplos “frios”,
por possuírem estruturas que requerem o complemento do ouvinte. Com treinamento,
podemos identificar separadamente cada voz de uma fuga ou a série de uma peça serial,
ou chegar a equações que sintetizem certos padrões do acaso, mas a diferença é clara
entre estruturas que saturam a percepção e estruturas que conduzem à percepção.

Devemos levar em conta também a mudança de paradigma da composição musical

19
ao longo do século XX, que cada vez mais se aproximou da construção sobre o perceber,
muitas vezes, existindo obras concebidas como modelagens perceptuais. Segundo
Zampronha (2000) :
" Ao trabalhar sobre o perceber, ao contrário, a obra não se configura como algo dado, definido e
estável, pronto a ser conhecido. Ela se torna, propriamente dita, um trabalhar sobre o próprio
construir, sobre o próprio modelar da percepção. Através da quebra ou afrouxamento dos
estereótipos eliminam-se ou diluem-se os procedimentos de reconhecimento e instauram-se cada
vez mais procedimentos de construção perceptual, procedimentos mais ligados ao campo das
qualidades sensoriais propriamente dita."

O conceito de estereótipo e sua função na percepção é bem ilustrado por Zampronha :


"A percepção, como já mostramos, é uma construção. O que ocorre, no entanto, é que
gradativamente algumas construções perceptuais passam a se tornar dominantes e gradativamente
passam a se cristalizar. Tornam-se estereótipos. Ao se entrar em contato com uma obra de arte, ao
se reconhecer nela tais e tais estereótipos, tem-se a impressão de que se descobriu o que a obra
quer dizer. Isso, é o que dá a impressão de que algo passa na comunicação[...] a própria obra é
uma comunicação na qual nada passa. A impressão de que algo passa se deve justamente ao
emprego, por parte do ouvinte, de representações estereotipadas que ele aplica sobre uma obra que
se dá a ler de forma estereotipada."

A composição de uma obra sob a ótica da construção perceptual, em que se


procura fugir dos estereótipos, possui um baixo nível de interatividade com o ouvinte em
si mesma. Pois, ao mesmo tempo que amplia e flexibiliza a Escuta, transferindo o foco do
reconhecimento para a percepção, cria uma espécie de ditadura perceptual que impõe
etapas no processo perceptual do ouvinte. O paradigma de Escuta só realmente muda
quando acontecem preparações, que ocorrem sob a forma de reações superficiais de
empatia ou afeto. Uma possibilidade é a busca por uma interatividade perceptual que
traga o foco do ouvinte para a percepção em si da peça, uma percepção mais
participativa que passiva. Uma saída para isso é que a composição deve dar ênfase nas
suas características lúdicas de diálogo com o receptor, ao invés de um monólogo didático.
A bagagem cultural de uma pessoa, as marcas feitas na percepção de um
indivíduo se tornam muito mais relevantes para a percepção do que para a composição.
Não se pode apagar da memória um som escutado, que acaba interagindo com outros
sons, que não são sons e sim nossas memórias sonoras. Portanto, os nossos paradigmas
de Escuta são resultados de impressões de sons e impressões das impressões de outros
sons, ou idéias externas que acabam conduzindo nossos limites de empatia e afeto. Para
compor, podemos dispôr de um algoritmo, por exemplo, para trabalharmos fora do
âmbito da nossa personalidade, ampliar nosso gosto e educar nossa percepção. No caso

20
da percepção do ouvinte, isso é impossível. Não existe ainda como operacionalizar um
"algoritmo de Escuta", em que a máquina faria as devidas associações para cada som.

1.5) Exemplos históricos do desenvolvimento da música

interativa

Uma constante no trabalho composicional de caráter interativo é o desejo de se


agregar maior nível de interatividade tanto no nível da composição quanto no nível da
performance. Segundo Almeida (1997):
"Tornar um sistema interativo significa dar ao compositor diferentes níveis de acesso, seja no
nível timbrístico, no nível de construção de eventos sonoros, ou no nível macro, no planejamento
da estratégia composicional. Sob este ponto de vista, o sistema seria um tipo de assistente musical,
cabendo ao compositor a terefa de formular o melhor possível o problema a ser resolvido, e
escolher o assistente mais adequado. Um ambiente interativo de composição musical se
assemelha a uma caixa de ferramentas. A flexibilidade destas ferramentas permite aos
compositores o domínio dos processos composicionais".

O problema está em como fazer o computador responder aos impulsos que o


músico lhe manda. O histórico de pesquisa em música computacional nos leva à peça
Hornpipe de Gordon Mumma de 1967. Segundo Nyman (1974):
“Hornpipe é uma composição para Trompa solo modificada com console “cibersônico”. O
console é um tipo de computador analógico que é usado pelo performer e preso ao seu cinto (o que
possibilita se ver muito claramente como os artefatos eletrônicos podem ser literalmente uma
extensão do performer e seu instrumento). A Trompa em si é modificada com várias palhetas em
vez do bocal convencional e com chaves rearranjadas que permitem que o som seja ouvido de
diferentes partes do instrumento[…]o que o circuito do console faz é monitorar as ressonâncias da
Trompa no espaço da performance e se ajustar para complementar estas ressonâncias[…]Estas
respostas, ouvidas através dos alto-falantes, por sua vez produzem três tipos de atividade sonora
além do som puro da trompa – a Trompa em conjunto com sons eletrônicos, sequências somente
de sons eletrônicos de longas respostas cibersônicas, e sons eletrônicos articulados diretamente
pelos sons produzidos pela Trompa.”

Podemos analisar através deste pequeno trecho de um texto já relativamente


antigo, (em relação as possibilidades das novas tecnologias) que os impulsos que levaram
a composição desta peça são praticamente os mesmos que continuam a nos impulsionar a
compor música interativa, ou seja, criar um espaço de diálogo entre as estruturas
acústicas e eletrônicas.
Muitos trabalhos interativos caminham no sentido da extensão física e virtual das

21
possibilidades dos instrumentos tradicionais. É o caso da peça Mirror-Rite de Jonathan
Impett (1996), que é para "meta-trompete", computador e live-electronics . A composição
não possui notação nem gravação, mas ela se forma como um complexo de estruturas
baseadas em regras, transformações e processos sobre a improvisação de um performer
em tempo-real. Segundo Impett (1996): "O meta-trompete é um sistema interativo de
integração instrumento-interface-composição. [...] Aspectos físicos da performance
inerente ao trompete são abstraídos e estendidos para resultarem tanto em parâmetros
de controle como em material composicional. O sistema tem um conhecimento de seu
passado, estado presente e, por análise, aspectos da natureza de seu comportamento." O
sistema desta peça se alimenta de dados provindos de sensores no palco, nas chaves do
trompete e dos sons emitidos pelo trompete. Estes dados são filtrados e processados em
diferentes níveis como a realização dinâmica da forma da composição, parâmetros de
síntese e processamento e acionamento de samples. O performer tem acesso direto ao
nível composicional, através do seu comportamento, manuseando dinâmicamente a forma
e o caráter.

1.6) Protocolo MIDI

O protocolo MIDI (Musical Instrument Digital Interface), introduzido pela


indústria em 1983, possibilitou a criação de alguns sistemas interativos de composição e
performance. Segundo Almeida (1997): “O protocolo MIDI foi criado para controle de
artefatos musicais em tempo real. A especificação MIDI determina o esquema do
hardware de interconexão e o método de comunicação de dados, bem como a gramática
para codificar a informação da performance musical.” A princípio o MIDI foi criado
para resolver o problema da incompatibilidade de comunicação de dados entre
sintetizadores de diferentes fabricantes, o que possibilitou usar um teclado controlador
em tempo real de vários outros sintetizadores com diferentes bibliotecas de timbres e até
mesmo samplers. O que se tornou uma estação de trabalho comum nos estúdios, durante
os anos oitenta.
O uso do MIDI para comunicação entre teclados e computadores permite um uso

22
que extrapola os limites da prática comum. De acordo com Almeida (1997):
”O conceito de nota musical é o fundamento para o paradigma MIDI, de modo a imprimir-se na
arquitetura de todos os instrumentos MIDI[...]...O sistema MIDI evita o uso da representação do
sinal acústico, substituído pela representação baseada no conceito de notas, onde são relevantes
informações do tipo altura e velocidade, tempos de início e fim. A abstração MIDI é fortemente
apegada aos dispositivos de teclado, onde cada tecla poderia ser tratada como um botão liga-
desliga.”
O uso de computador ligado a um sintetizador permite através do MIDI, um
conjunto de procedimentos novos. Como, por exemplo, a simulação de vários performers
ao mesmo tempo ou uma programação que realize em tempo real uma análise da
performance e detone eventos conforme a programação do compositor (score follower).

1.7) Ambiente MAX

No sentido de criar uma plataforma composicional, que aliasse o poder de cálculo


e programabilidade do computador com a capacidade de síntese e performance dos
sintetizadores comerciais, surgiu o ambiente MAX que é uma linguagem gráfica
orientada ao objeto e que trabalha com dados MIDI, podendo atuar como controlador de
qualquer sistema que suporte dados MIDI. O MSP é uma coleção de objetos externos que
possibilitam fazer síntese e processamento de áudio em tempo real. O ambiente de
programação MAX/MSP possibilita ao compositor desenvolver “patchs” gráficos, que
possibilitam o controle em tempo-real de parâmetros de síntese sonora, processamento de
áudio ou controle de hardware através de mensagens MIDI. A biblioteca de objetos
externos pode ser ampliada, os objetos podem ser escritos em C, ou os patchs podem ser
salvos como objetos.
No seu livro "Composing Interactive Music - Techniques and Ideas Using Max",
Todd Winkler nos apresenta uma visão ampla sobre as possibilidades do ambiente MAX,
além de considerar a dinâmica da composição, onde o ambiente composicional, muitas
vezes, conduz o pensamento, afastando da idéia original ou levando a produzir resultados
diferentes.
Segundo Winkler (1996) :
"A multiplicidade de opções disponíveis para a música interativa deixa a arte de compor mais
difícil. As possibilidades técnicas sozinhas, podem ser irresistíveis: sampleamento, síntese e
processamento de sinal, estruturas lineares e não-lineares, algorítmos improvisacionais,
performance improvisacional, partituras totalmente notadas, resposta computacional sequenciada,

23
e assim por diante. Se trabalhando sob uma perspectiva de "top-down ou bottom-up"1 , o que é
necessário é um forte conceito estético ou guia que irá ajudar a definir o propósito, a maneira, os
limites, e o campo de ação do trabalho. Fenômeno científico, emoções, poesia, relações humanas,
narrativa, processos musicais, som, e artes visuais são algumas das influências que podem guiar o
processo de modelagem. Um claro conceito de como idéias musicais são realizadas através de
relações interativas também irá sugerir como estruturas musicais são formadas. Ainda que
abordagens bottom-up sejam estenciais para a pesquisa e experimentação, ao definir o trabalho
como um todo, seu propósito essencial, irá ajudar a inspirar uma apropriada estratégia
composicional."

Em relação a escolha da estratégia certa de trabalho em relação a proposta


composicional Winkler coloca:

"Não existe muito objetivo em ir atrás do trabalho de criar e tocar uma peça interativa se muito
pouco irá mudar de uma performance para outra. Para trabalhos pré-determinados que requerem
pouca interação, o formato tape e instrumento tem a prática vantagem de ter maior garantia em
relação a defeitos, playback confiável, portabilidade e fácil distribuição. E além disso, trabalhos
bem elaborados podem simular interação computador/performer, incorporando as trocas esperadas
de tempo do performer, dinâmicas, timbre, articulação e fraseado em uma parte num suporte fixo.
Ainda assim, a interpretação do performer não é refletida no playback, e a indiferença é
especialmente notada no que diz respeito ao tempo. Outros potenciais problemas de sincronização
originam-se quando o tape requer paradas e recomeços durante uma performance, ou, em peças
longas, podem requerer a localização do começo de seções para ensaios. Em fato, muito das
primeiras pesquisas em sistemas de música interativa foram em resposta a estes problemas."

Em relação a peças que proponham a improvisação e ações indeterminadas do


computador, Winkler nos fala:

"Este tipo de trabalho tem uma grande amplitude de possibilidades. Na maioria dos exemplos, um
performer pode tocar qualquer coisa, e o computador irá responder com algo que é inesperado e
não repetível, mas que, espera-se, tenha senso para o performer e para o público. Com total
liberdade vem a possibilidade de se produzir resultados selvagemente randômicos, caóticos e
incompreensíveis. A sensibilidade e habilidades do performer são mais cruciais para o sucesso
deste tipo de trabalho, como também são as capacidades de resposta do software."

Independente da técnica ou da estratégia composicional utilizada, uma constante é


de que a técnica em si orienta ou conduz o processo criativo. Winkler (1996), possui uma
opnião de que a técnica se submete ao conceito composicional: "Elas irão
inevitavelmente refletir os conceitos musicais e a estrutura ditada pela demanda da
composição e a desejada qualidade de interação." Devemos lembrar que esta declaração
1
top-down se refere a abordagem estratégica de programação em que se começa a escrever um programa a
partir do seu plano e função geral enquanto que bottom-up se refere a uma abordagem em que escrevemos
vários sub-programas que podemos interligar para desenvolver um maior.

24
vem de um compositor com larga experiência em programação e desenvolvimento
tecnológico.

1.8) Exercícios composicionais no ambiente MAX/MSP

1.8 a) Exercício n˚ 1

Este é um estudo desenvolvido para uma performance para contrabaixo e


computador. Trata-se de um patch para a realização de algumas propostas musicais
utilizando o programa MAX/MSP. Este patch é o tutorial 13 e vem junto com o package
do MAX/MSP. Patch é uma interface que nos permite a manipulação gráfica dos objetos
externos do MAX, por meio de “caixas” que podem ser objetos , argumentos de objetos
ou outras operações e que se “ligam” através de fios, seguindo a lógica de um
fluxograma.
Na figura 1, temos um trecho do patch onde a única alteração em relação ao
tutorial 13 original é o fato de ter sido adicionado atalho de algumas funções para o
teclado do computador , facilitando, assim, a manipulação durante a execução da
performance.

25
fig. 1 : trecho do patch .

Esta performance se trata de um improviso notado, que foi sendo trabalhado e


definido ao longo dos ensaios com o compositor e o contrabaixista. O primeiro impulso
deste trabalho foi a busca pela interatividade, do compositor com o performer através do
computador. O uso deste recurso foi o primeiro fator estrutural pré-estabelecido .
O segundo fator foi a necessidade de compreender e manipular tecnicamente o
computador enquanto instrumento musical de performance em tempo real, materializado
no ambiente de programação MAX/MSP . Esta performance se caracterizou como um
estudo, tanto composicional quanto técnico-performático, como um compositor-pianista
que escreve um estudo para o seu instrumento. No caso aqui, o instrumento é o
MAX/MSP um instrumento musical-computacional que possibilita a composição e
performance de música interativa ou não.
Assim, como cada um dos Doze estudos para violão de Villa-Lobos, em que cada
peça aprofunda um elemento técnico, este estudo se limita a exploração de um elemento
técnico do MAX , o “tutorial 13” dos tutoriais que vem no package do MSP . Este
tutorial ensina a gravar e acionar samples de 2 segundos, que podem ser captados por um
microfone conectado à placa de som do computador.
O fato de o instrumentista, durante a performance da peça, produzir o material

26
musical acionado através do computador durante o duo, nos leva a pensar qual é o papel
do compositor e qual o pensamento composicional que conduz o trabalho da peça.
Segundo FERRAZ (1999), “...este jogo entre as possibilidades do auxílio do
computador, não como uma máquina de calcular, nem como um modo de transformação
e geração de áudio, mas sobretudo como um modo de se pensar a música”. A partir
desta visão pode-se dizer que um dos pensamentos composicionais que devém do
ambiente de programação MAX é o fato de o compositor ter seu trabalho mais próximo
do design sonoro da reorganização e da mixagem de materiais que chegam até ele, do que
técnicas de contraponto, harmonia, etc….
O trabalho do compositor consiste na reorganização do material captado e a
criação de uma narrativa e de um diálogo com o instrumentista. Neste sentido, a ênfase e
a provável transformação de pequenos trechos captados em signos sonoros tornam-se um
ponto de decisão para o compositor. Que trecho captar? Como se pode usar este trecho?.
Se, por exemplo, programamos para captar apenas 2 segundos, a trama sonora vai ser
construída no computador com estas pequenas células que, por sua vez, podem ser
contrastadas com frases longas no contrabaixo ou reforçadas e/ou reiteradas pelo mesmo.

Fig. 2 trecho do improviso notado

No exemplo acima, pode-se notar como foi desenvolvida de maneira prática


algumas destas possibilidades. O computador na pauta superior desenvolve uma textura
que é a soma de um trêmolo captado no começo da peça, mais glissandos que foram
captados no meio da peça, enquanto o contrabaixo, no começo do sistema, fica
reforçando esta textura do computador com glissandos curtos. Podemos observar também
aí, o modo que foi escolhido para a notação da peça, onde cada “célula” musical fica
dentro de uma caixa e se prolonga com possíveis variações ou apenas repetições do
conteúdo durante o tempo da linha preta que “prolonga” a caixa. Nesta figura, notamos

27
que o computador mantém a textura resultante de dois elementos durante todo o sistema e
o contrabaixo inicia com uma linha preta que diz que ele está continuando algo, no caso é
uma caixa no sistema anterior com um glissando dentro. No meio do sistema o
contrabaixo expõe um motivo melódico mais longo, contrastando com o computador que
mantém sua textura com gestos curtos.
Este exercício reflete o desejo de fazer música de modo que o limite técnico de
manipulação da tecnologia não seja um ponto castrador da composição. Mas, ao
contrário, um limite bem estreito e com poucos elementos onde se pode explorar, já de
maneira musical e artística, as possibilidades e particularidades de cada elemento que se
encontra ao longo do estudo do ambiente de programação MAX.

1.8 b) Exercício n˚ 2

Neste exercício, foi escolhido o tutorial nº30 do MSP como base da pesquisa,
onde o trabalho consitiu em analisar e compreender o patch e desenvolver uma interface
para performance em tempo real. Este estudo foi utilizado para o processamento em
tempo real de alguns trechos da peça Enquanto eles riem (ver página 38).
Como já vimos, o MAX é uma linguagem gráfica orientada ao objeto, em que
podemos interligar e realizar ações em cadeia com os objetos externos através de caixas
que se ligam umas as outras. Neste patch, encontramos dois tipos de caixas: caixas de
objetos com bordas duplas ou objetos de interface como sliders e dials e caixas de
mensagem e números com bordas simples . Estas caixas se ligam umas as outras através
de fios que podem ser simples condutores de informações e comandos, ou condutores de
dados de áudio (fio preto e amarelo).
O tutorial 30 do MSP vem com o título de "Flange", por causa do conhecido
efeito flanging, comum em pedais de guitarra e módulos de efeito. Este patch possibilita
a captura de áudio e processamento em tempo real, no qual a idéia básica do efeito é

28
acrescentar um oscilador como variação de tempo de delay. O que ocasiona um delay
limpo quando você posiciona a frequência do oscilador em zero e um suave efeito
flanging com a frequência abaixo de 0.5Hz, variando a densidade do efeito conforme o
índice de modulação.
A principal estrutura para o entendimento deste patch é a operação de modulação
do oscilador(cycle~) controlando os parâmetros de delay (tapout~)(fig. 1). Os objetos
tapin~ e tapout~ atuam em conjunto criando linhas de delay. O sinal original entra no
inlet esquerdo de tapin~ que tem como argumento o tamanho da linha de delay descrito
em milisegundos e que vai ser lido por tapout~ que tem como argumento o tempo em
milisegundos que leva para acionar a primeira linha de tapin~ . Neste caso, além da saída
de tapin~, é somada a entrada de tapout~ os dados de um oscilador (cycle~) que realiza
a modulação do sinal de áudio . A saída de tapout~ toma dois rumos: o primeiro vai
direto para a saída de áudio e o segundo é escalado por um multiplicador variável ( de 0 a
1) e reconectado a entrada de tapin~ o que causa um efeito que em pedais de guitarra se
conhece por feedback e se trata de uma repetição contínua das linhas de delay. Segundo o
Guia de referência do MSP:
"The output of cycle~ is multiplied by 0.25 to scale its amplitude. That signal is multiplied by the
basic delay time of 100 ms, to create a signal with an amplitude ±25. When that signal is added to
the basic delay time, the result is a signal that varies sinusoidally around the basic delay time of
100, going as low as 75 and as high as 125. This is used to express the delay time in milliseconds
to the tapout~ object."

Fig.3 : núcleo básico do efeito flanger.

O trabalho de programação em si, além da análise do tutorial, foi a criação de uma

29
interface de uso em performance. Uma interface é um dispositivo físico ou lógico que faz
a adaptação entre dois sistemas, que no caso foram de um lado o patch do tutorial do
MSP e de outro um performer com a partitura da composição e a possibilidade de
improvisar otimizando os recursos do tutorial. A construção de uma interface de uso do
programa faz parte do processo de aprendizado de uma linguagem. No caso do MAX,
escrever interfaces, torna-se básico na aprendizagem, pois toda a estrutura da linguagem
é gráfica e voltada para a performance.
Para entendermos melhor este tutorial, podemos pensar na divisão em que o patch
se comunica com a interface. São nove objetos inlet~ que conectam variáveis do
algoritmo a objetos gráficos de controle na interface. Vamos analisar cada uma das nove
partes para termos uma visão total deste patch. O número 1 é o botão on/off do programa,
está conectado ao objeto adc~ (analog-digital converter) que é o objeto que controla a
entrada de sinal de áudio, especificando qual porta e qual driver apropriado. O objeto que
faz a mesma função para a saída de áudio é o dac~ (digital-analog converter) e está
conectado ao número 2 através de uma multiplicação que reescalona o valor total de
saída.
Os números 3 e 4 se referem a caixas de números que vão se multiplicar a saída
do oscilador cycle~ e vão ser responsáveis pela variação de tempo de delay, substituindo
o argumento de tapout~, ou seja, são os números que vão controlar o momento em que o
sinal, que foi lido por tapin~ , vai para a saída . O oscilador tem seus parâmetros de
frequência e amplitude (no caso depth – profundidade - escalonado de 0 a 1) controlados
pelos números 5 e 6 respectivamente. O objeto dac~ que manda um sinal de áudio
através da placa de som, tem quatro entradas, duas (uma para cada canal) de som direto, e
mais duas de delay. O número 7 controla um slide que através de uma expressão de
equivalência controla a porcentagem entre dry (apenas sinal direto) e wet (apenas sinal do
delay). O feedback do delay, ou seja, a quantidade de tempo em que uma linha de delay
continua se repetindo através de sua retro-alimentação, é controlado por uma
multiplicação que tem como índice os números dos controladores 8 e 9.

30
Fig.4: “Patcher interface” Flanger tutorial MSP n˚ 30.

Para o uso otimizado deste patch em uma situação musical, foi necessário o
desenvolvimento de uma interface de performance. Onde cada variável relevante do
patch, pudeste ser controlada de forma simples pelo usuário. Foram acrescentados
objetos gráficos de controle como botões e sliders verticais, horizontais e em forma de
caixa de desenho (pictslider - onde o controle é feito com o mouse e valor controlado
pelas quatro arestas da caixa). As ligações da interface com o patch do tutorial foram
feitas através do objeto patcher que realiza a conexão e o encapsulamento de um patch
com outro.

31
Fig.5: Interface de performance.

Alguns artifícios foram adicionados ao patch no sentido de ampliar as possibilidades


interativas do performer com o computador e de facilitar a manipulação do programa
durante a performance. Foram acrescentadas envoltórias de segmentos lineares (line) ao
controle de volume, causando assim um efeito de fade in e fade out. Os controles de
tempo de delay e espacialização do sinal processado respectivamente são controlados
pelo objeto drunk, que é um gerador numérico randômico e que necessita de um
comando bang para se acionar, que, no caso, é fornecido por metro, um metrônomo
gerador de bangs. O fato de ter alguns parâmetros controlados por gerador randômico,
empurra o performer sempre a interagir mais com a obra, no sentido de que a cada
performance o processamento será diferente.

32
Fig.6: interface em modo de edição

1.8 c) Exercício n˚ 3

Este exercício de trata de um Patch para MAX/MSP em que se tentou realizar um


score-follower que acompanhasse um instrumento acústico com o máximo de economia
de processamento. O caminho escolhido foi mapear a performance a partir de um
microfone, transformar estes dados (frequências) em dados MIDI e deixar na memória do
programa uma sequência MIDI que sirva de "espelho" para o acompanhamento.
A busca pela interatividade com o performer foi a tônica do trabalho. O patch
supre a necessidade de uma peça que inclui improvisos do performer e alguns pontos
sincronizados com o acionamento de samples pelo computador. Ou seja, o computador
espera pelo performer os pontos certos de sincronia, que são uma sequência de notas. Os
espaços entre os pontos de sincronia são usados para improviso do performer que deve

33
interagir com o universo sonoro que ele mesmo acionou.
O processo do patch é muito simples. O interesse vem da forma prática e
econômica da organização das ações e a portabilidade, podendo fazer parte de um
complexo de outros elementos ou simplesmente mudarmos a função do mapeamento dos
dados que, como vimos, podem ser muitas. Os dados de performance podem ser
mapeados para o acionamento de samples que estejam na memória do programa, controle
de parâmetros de síntese ou processamento, ou nível composicional.
A organização deste patch pode ser dividida em quatro partes: reconhecimento de
alturas, transferência dos dados da performance para dados MIDI, acompanhamento e
acionamento de samples. A parte do reconhecimento de alturas foi resolvida com o uso
do objeto fiddle~ , escrito por Miller Puckete (1999). Este objeto é um algoritmo que
fornece alguns dados sobre o reconhecimento da performance que está na sua entrada de
áudio, como altura e amplitude. No caso, foi usado apenas o reconhecimento de altura,
que é endereçado para o objeto midiformat, que transforma um valor de altura em dado
MIDI.
Uma vez que o programa faz o reconhecimento de altura da performance e
transforma isso em dado MIDI, podemos enviar este dado para o objeto follow , que é um
objeto em que podemos sincronizar performances MIDI. Ou seja, o objeto tem uma
seqüência MIDI na sua memória e consegue acompanhar uma outra seqüência que fica
sendo mandada a ele com base na parte gravada. A cada nota que é reconhecida, o objeto
manda uma mensagem que aciona um processo, que no caso é o playback de samples, e
que poderia ser uma série de ações possibilitando diferentes níveis de interatividade,
como, por exemplo, o acionamento de estruturas sonoras baseadas no histórico do
comportamento da performance, sequências randômicas com parâmetros variáveis,
processamentos variados do sinal de entrada, etc….

34
Fig.7: patch para MAX que realiza acompanhamento interativo (Score – Follower).

35
2) Relato de Processos práticos

Este capítulo se dedica a descrever o processo composicional de quatro peças


desenvolvidas sob a ótica da pesquisa em interação homem-máquina, em que três delas
representam o desejo de trabalhar com o universo e a sonoridade dos instrumentos
acústicos em contraste com as possibilidades de produção sonora no computador.
As peças não foram realizadas como resultados quantitativos direto dos
referenciais teóricos descritos no primeiro capítulo. Desde o primeiro projeto, o objetivo
foi desenvolver composições livres, inspiradas no ambiente de possibilidades
proporcionadas pela pesquisa em tecnologia.
A influência da pesquisa em interação homem-máquina encontra eco no impulso
composicional das peças, ou seja, no impulso gerador em si. Podemos dizer que estas
composições se desenvolveram através da pesquisa sobre interação, mas não para
cumprir uma etapa da pesquisa.
O desenvolvimento do patch de score–follower conduziu o pensamento
composicional das peças Pequi e Peça para marimba e computador , pois são peças que
tem a característica de a parte do computador ser amostras de som separadas, disparadas
de acordo com o andamento da partitura do instrumentista, que é a função originalmente
pensada para o score-follower. Apesar de ter sido desenvolvido para resolver a realização
destas peças, este patch pode ser utilizado para outras funções, de acordo com a proposta
composicional.
A peça Enquanto eles riem teve, em parte, seu pensamento composicional
conduzido pelo desenvolvimento da interface de uso de um patch do tutorial. Usada
como delay randômico, esta inteface do tutorial mantém um nível de interatividade com o
performer em função da variação do tempo de delay de acordo com cada performance.
Uma experiência em interação homem-máquina no nível composicional foi
desenvolvida com a peça Caminho largo, caminho estreito, em que o trabalho foi
submeter um material preparado pelo compositor a um algoritmo pré-definido em que foi
modificado alguns parâmetros após as primeiras experiências. O resultado do
processamento do algoritmo foi selecionado e sequenciado em software multi-canal.

36
As peças Pequi e Enquanto eles riem foram gravadas em casa com o microfone
interno do Laptop, respectivamente com o Violonista Leonardo Luigi Perotto e com o
Clarinetista José de Geuss, ambos alunos do Mestrado em Música da UFG. Na Peça para
Marimba e Computador a parte da Marimba foi gerada em software através do arquivo
MIDI da partitura com Samples (amostras de som) reais de Marimba. As peças foram
posteriormente mixadas com as estruturas eletroacústicas no software Pro-tools que
possibilita a mixagem de canais independentes.

2.1) Enquanto eles riem…, para Clarinete e Computador

Esta peça se tornou um desafio ao longo do processo, por abranger áreas distintas
como a escrita e performance tradicional e o universo da produção sonora digital com a
idiomatismo dialético da música eletroacústica. Procurou-se não transformar este
contraste num elemento castrador de uma linguagem ou outra. Mas, ao contrário, um
limite bem estreito e onde se possa explorar, de uma maneira consciente e, ao mesmo
tempo, lúdica, as possibilidades, particularidades e idiossincrasias de cada elemento e
técnica que se encontram ao longo do estudo tanto dos ambientes de composição ao
computador como da escrita e idiomatismo instrumental. No texto, iremos enfocar o
processo de composição da parte do Clarinete.
A peça se trata de um exercício composicional, que foi sendo trabalhado e
definido ao longo dos ensaios entre compositor e Clarinetista. Um dos impulsos
composicionais foi a busca pela interatividade entre os universos sonoros do compositor
e do performer através do processo composicional, materializado na forma de gravação
dos materiais da partitura a diversos níveis de elaboração. Gravações de trechos da peça e
improvisos foram e continuam contribuindo como materiais e fontes sonoras para o
desenvolvimento da peça. O uso do recurso da interatividade entre compositor e
performer foi o primeiro fator estrutural pré-estabelecido . A possibilidade da
interferência de informações do performer no processo composicional foi desejada, ainda
que esta tenha se concretizado apenas no âmbito da escolha de algumas notas e dinâmicas
e algumas frases idiossincráticas de improviso do performer que foram adicionadas à

37
composição com objetivo de tornar a música mais orgânica .
A Seção A tem quatorze compassos e primeiramente é exposta a série,
desenvolvida apenas no âmbito das alturas através de serialização livre, de onde saiu o
material da peça, já com algumas alterações da série e que se tornaram estruturais no
desenvolvimento. Como é o caso da segunda vez em que entra a série, a nota ré é
substituída pela nota mi, o que se torna recorrente na peça.

Fig.8: compasso 9

A maior seção da peça é a seção B que tem cinqüenta compassos e quatro sub-seções,
distintas. A primeira parte desta seção começa com a mudança de compasso de 2/4 para
6/8. É estabelecido o acorde de mi maior com quinta aumentada como entidade de base
desta seção, que se contrapõe as notas da série que são desenvolvidas, já com algumas
mudanças que estavam presentes na seção A.

Fig.9: compasso 16

A entidade de base é o motivo da construção da segunda parte da seção B, que se


consiste apenas de transposições deste acorde, ajustadas numa figuração rítmica quase
constante (acelerando) e que faz um contraste com a dinâmica empregada. O que resulta
num gestual interestante para realização de processamento com o MAX.

38
Fig.10:compasso29-30, figura rítmica de aceleração em contraponto com a dinâmica que vai
diminuindo.

A terceira parte da seção B é uma seção mais lenta, em que foi usada a entidade de
base transposta (acorde de sol maior com quinta aumentada) como elemento básico do
desenvolvimento melódico e harmônico. A partir de transposição, chegou-se a escala de
lá menor harmônica, que na sua configuração possui três transposições da entidade de
base.

Fig.11: compasso 44-46, constr. melódica em lá menor harmônica.

A quarta parte da seção B é um retorno variado à segunda parte, com caráter de


cadência virtuosística e serve de ponte para o retorno à seção A que volta, com variações,
no compasso 73. Esta nova seção (A'), se caracteriza por um uso mais efetivo do
computador e das células rítmico-melódicas, propostas pelo performer, que acabaram
sendo incorporadas na composição enquanto células mesmo e não como órgãos
estruturais da composição, o que implicaria em um trabalho composicional mais
profundo . Como exemplo, foi escolhido um trecho em que, após uma variação melódica
da série, foi acrescentada uma célula melódica de "risada", em que o performer simula
uma risada com o Clarinete. Estes elementos implicam uma diferença na execução, pois o
mais importante não são as notas e sim o caráter específico do trecho.

39
Fig.12: compasso 91, Clarinete “rindo”

No compasso 97 começa uma seção que é uma ponte para a entrada da seção B'.
Nesta ponte podemos notar como foi pensada a condução vocal, pois o Clarinete, apesar
de ser um instrumento melódico, com sua sustentação de notas permite uma escrita
pseudo-polifônica.

Fig.13: compasso 98-101, escrita a duas vozes.

A seção B' começa no compasso 116 e combina o uso da entidade de base


interpolada com a série inteira adaptada ao desenho melódico característico da parte lenta
da seção B.

Fig.14: compasso 118-119, interpolação da série com a entidade de base e o desenho melódico

O final da peça consiste de uma pequena coda de cinco compassos em que o último
compasso usa um artifício técnico da Clarineta, em que o performer fica assoprando o

40
instrumento sem emitir notas definidas, apenas o ruído do sopro. Isso cria uma suspensão
cênica enquanto o computador tece seus últimos comentários.

2.2) Pequi para violão e computador

Esta peça foi composta com um caráter muito intimista e pessoal, pela combinação
do violão com o computador, levando em conta o fato do presente autor ser violonista de
formação e pelas diferenças culturais submetidas, quando da decisão de cursar o
mestrado em Goiânia, 3.000 kilômetros de distância da cidade natal. Pode-se afirmar que
esta composição sintetiza uma ruptura no repertório gestual pessoal, carregado de
idiossincrasias violonísticas que são trabalhadas com plena consciência ao longo da peça.
Além dos dois mundos contrastantes que são a sonoridade do violão e as possibilidades
do computador, respectivamente passado e presente do autor, procurou-se trabalhar
explicitamente elementos presentes na bagagem artística, como elementos da música
folclórica rio-grandense, elementos jazzísticos e o universo sonoro da música
eletroacústica e das possibilidades da música computacional.
Foram usados diversos procedimentos para a composição desta peça, como
elementos seriais através de serialização livre de alturas, acordes derivados de harmonia
modal, artifícios de colagem na escrita instrumental e variações de narrativa no corpo da
peça. O violão é um instrumento de caráter intimista por excelência e de possibilidades
harmônicas, contrapontísticas e polifônicamente limitado. Tem um amplo uso em
acompanhamento de caráter percussivo e de sustentação harmônica na música popular.
Podemos dizer que o próprio timbre do violão é carregado deste teor narrativo da música
folclórico no imaginário popular.
Na construção da trama eletroacústica do computador foram usados
processamentos de trechos da gravação do violão, processamentos de áudio derivado da
sequência MIDI criada pelo software de notação musical Finale e trechos de síntese

41
criados com softwares sintetizadores como Metasynth e alguns patchs de Max/MSP. Foi
utilizado também um patch que realiza granulação de samples, em que foi granulado um
trecho de uma música folclórica tocada apenas com violão.
Ao longo do desenvolvimento do conceito da peça, foi escolhida sua escrita sem
barras de compasso e sem fórmula de compasso, o que permite ao performer uma maior
interatividade e inventividade em relação à peça. Outros elementos acabam por conduzir
a performance como indicação de andamento, articulações, dinâmicas e a própria base
com samples também direciona a performance para um tipo de gesto. Mas o fato de o
performer não pensar em manter o pulso e os acentos nos tempos fortes, leva-o a uma
melhor execução das articulações e dinâmicas e uma maior tranquilidade na interação
com os samples.
Os primeiros segundos da peça são desenvolvidos com intervalos de sétima maior e
ritmo exposto em forma de espelho que logo após a primeira exposição se dissolve em
outras figurações rítmicas e expandindo a variedade intervalar. Toda a primeira seção se
caracteriza por uma narrativa irregular, que acaba não conduzindo à percepção por tensão
ou expectativa, foi desejada uma narrativa “monótona” e estática.

Fig.15: introdução com ritmo em “espelho”.


Após um breve rasgueado que cria uma pequena tensão, começa uma seção
baseada numa série e suas variações. Na primeira frase são expostas a série original e sua
inversão respectivamente, onde podemos notar já duas notas fora da série original e duas
notas deslocadas na invertida, mudanças que se tornaram estruturais na peça.

Fig.16: compasso 18 - exposição da série original e sua inversão.

42
Um dos impulsos composicionais da peça foi o desejo de trabalhar com elementos
que sintetizam algumas das várias abordagens estéticas do violão, como por exemplo, o
jazz, a bossa-nova e a música folclórica. O desafio se tornou interagir com estas
gramáticas, fechadas em si, e equilibrar estes elementos em uma narrativa coerente. Foi
usado uma técnica de colagem de escrita instrumental em que o resultado desejado foi o
uso destes elementos enquanto órgãos e não enquanto células. Nos acordes jazzísticos é
exposta uma sequência simples de dois acordes com uma nota em comum em registro
diferente. Os dois acordes além de possuírem intervalos internos de sétima (segunda
invertida) a sequência de um acorde para outro se complementa por segundas e sétimas
em relação ao anterior, reforçando a sonoridade da sétima sensível exposta na introdução.

Fig.17: compasso 32 - acordes jazzísticos

Outra colagem é feita com uma sequência de acordes de uma música folclórica “O
esquilador”. Sequência que, após a exposição súbita do violão, é tocada pela base
eletroacústica, modificada por granulação. Este trecho é tocado em rasgueado, com ritmo
de chamamé, que é um ritmo folclórico que se caracteriza por ser um ritmo ternário
simples em que o acento é deslocado para um binário composto, fornecendo uma gama
de flexibilidade rítmica que permite ao músico variar os acentos mantendo o pulso.

Fig.18: compasso 41 - rasgueado com ritmo de chamamé.

43
Enquanto a base aciona os samples granulados, o violonista improvisa com
harmônicos naturais, uma espécie de improviso conduzido, relegando uma margem de
decisão ao performer. Após uma pequena ponte, o ritmo de chamamé reaparece, desta
vez com uma roupagem harmônica diferente, com utilização de acordes simétricos,
característica do idiomatismo do violão.

Fig.19: compasso 63 - chamamé com outra roupagem harmônica.

Um novo trecho de arpejo e escalas com caráter virtuosístico encerra esta seção,
antes de uma pequena reexposição do trecho serial para finalizar a peça. Um trecho de
arpejos em quartas faz a ponte para a reexposição.

Fig.20: compasso 84 - arpejos em quartas.

Após os arpejos de quarta, é desenvolvida uma cadência no compasso 85 sobre o


acorde de Mi menor com sétima maior – mais uma vez explicitando a sétima sensível . A
reexposição entra no compasso 86, conduzindoa uma coda de quatro compassos onde são
repetidos os dois acordes jazzísticos expostos anteriormente, diminuindo a dinâmica até
o final.

44
2.3) Caminho Largo, Caminho Estreito

Esta é uma peça eletroacústica de vertente "concreta" por ter seu material baseado na
transformação de sons coletados. A fonte dos sons é o registro de um improviso com o
"tunning"(dial), de um rádio AM, onde foi tentado buscar inflexões e gestos com a
mudança de estações e com os intervalos que ficam entre as faixas de sintonia.
Os trechos da fonte, escolhidos para sampleamento no processo, são trechos de um
sermão religioso. No trecho, o orador explica sobre a questão do caminho estreito que
leva ao Céu e do caminho largo que conduz ao inferno. O trecho foi escolhido pela
particularidade gestual obtida através da eloquência do discurso. Não se pode negar a
alta carga de teor ideológico num trecho destes, o que acaba gerando muitas dúvidas ao
compositor no sentido que um tipo de tratamento pode potencializar a propriedade
ideológica da fonte ou ainda gerar interpretações de caráter ofensivo. O que para um
compositor se constitui de material sonoro, para o público alvo do sermão se constitui de
peça de adoração e louvor. Um material que já venha cheio de estereótipos e significados
tão fortes se torna difícil de ser moldado e colocado em outro contexto.
O desafio de compôr uma peça com este material de uma maneira neutra, nos trouxe
algumas observações, como por exemplo, o fato de que o significado de um evento
sonoro percebido se modifica ao conhecermos a fonte do material usado no evento, ou
seja: uma idéia externa à experiência perceptiva acaba por redefinir o significado do
fenômeno percebido. O que, por seu lado, também confirma a afirmação de McLuhan
(1964) : "O meio é a mensagem.", onde o que se faz com um determinado meio não é o
mais importante e sim o significado deste meio em si. Fazendo uma analogia no nível
composicional dessa peça, o meio seria o improviso de rádio AM com o trecho do sermão
usado como fonte sonora na peça, que tem um significado maior (anterior) - um
estereótipo comum de reconhecimento - do que a construção feita com ele. Ou seja, por
mais que se dilua a inteligibilidade da fonte sonora, sua carga ideológica sempre estará
presente durante a apreciação da composição.
Uma série de processamentos foram realizados antes da peça ser montada, a maioria
usando os software Csound, Sound Forge e MAX. Aqui, vamos analisar os

45
processamentos feitos em Csound, em que se usou a técnica de síntese granular de várias
maneiras, sendo uma destas baseada na peça "Invade Areas Where Nothing is Definite"
(1998) de Derek Pierce, escrita inteiramente em Csound que é um ambiente de
programação de alto nível voltado para a produção sonora. Através do Csound podemos
sintetizar sons com várias formas de onda e dispor de técnicas de síntese e processamento
tradicionais ou, até mesmo, criar alternativas. É uma ferramenta de composição por
algoritmos como o MAX, com a diferença da interface com o usuário ser através de
linhas de comando com uma sintaxe parecida com a linguagem C++.
O Csound precisa de dois arquivos de texto para realizar o processamento, a saber:
arquivos .ORC (orchestra) e arquivos .SCO (score). No arquivo .ORC é especificado o
comportamento dos timbres de cada instrumento e suas formas de controle. No arquivo
.SCO é descrita a partitura das notas – seqüência dos eventos. Nesta peça, Derek Pierce
faz uso de quatro instrumentos, sendo que dois são iguais. Neste trabalho, vamos
descrever o uso e a funcionalidade do instrumento 2, que utiliza o opcode granule, uma
implementação da técnica de síntese granular no Csound.
O conceito de síntese granular parte do princípio de que qualquer som pode ser
descrito por partículas sonoras (grãos). Segundo Lee (2000) : “ Síntese granular pode ser
classificada como uma forma de síntese aditiva. Um alto número de grãos são
adicionados juntos para produzir o resultado, como ilustra a figura:

Fig.21: exemplo gráfico do resultado do opcode granule.

O opcode granule foi implementado no Csound por Allan Lee (1996), e se trata de
uma plataforma de síntese granular, um “granulador” que lê samples gravados na
memória e os resintetiza com parâmetros da síntese granular. Este comando possui 22

46
parâmetros de controle que podem controlar as seguintes características : controle de
amplitude geral, número de vozes, velocidade do sample (expansão/contração), direção
de leitura do sample, valor mínimo de comparação do sample ( usado para evitar trechos
de silêncio do sample), número da função (pode-se acestar diferentes samples a cada
momento), controle de pitch shift , controle preciso da parte do sample que vai ser usada
no processamento, tamanho do espaço entre os grãos, tamanho/duração dos grãos (pode-
se usar um recurso randômico para a geração de diferentes tamanhos), controle do
envoltória do grão e gerador randômico para produção de sequências diferentes para cada
canal .
O uso deste processamento na peça criou uma textura granular dinâmica em que o
espaço entre os grãos e o tamanho dos grãos decrescem ao longo de cada nota(evento)
acionada. Como podemos ver na transcrição do instrumento 2 abaixo, todos os
parâmetros são controlados no Score (campos “p”) menos as variáveis K. K1 é uma
envoltória de segmentos lineares que controla a amplitude geral de cada evento. K2 e K3
são envoltórias de segmentos exponenciais que tem suas fórmulas atreladas ao tempo de
cada evento. Estas envoltórias controlam particularmente o espaço entre os grãos, que
decresce exponencialmente ao longo do tempo de .20 até .002 milisegundos , e o
tamanho dos grãos que também decresce exponencialmente de .30 até .002
milisegundos.

47
instr 2

k1 linseg 0,20,1,(p3-80),1,60,0
k2 expseg .20,(p3/8)*2,.2,(p3/8)*6,.002
k3 expseg .30,p3/2,.03,p3/2,.002

a1 granule
p4*k1,p5,p6,p7,p8,p9,p10,p11,p12,p13,k2,p15,k3,p17,p18,p19,p20,p21,p
22,p23,p24
a2 granule
p4*k1,p5,p6,p7,p8,p9,p10,p11,p12,p13,k2,p15,k3,p17,p18,p19,p20+0.07,
p21,p22,p23,p24
outs a1, a2
endin

Fig.22: instrumento 2 da peça “Invade areas where nothing is definite”, descrito acima.

48
P4 Amplitude geral
P5 Número de vozes (quanto maior este valor, maior a densidade de grãos e maior
o tempo de processamento)
P6 Define a velocidade de leitura do sample ( um valor de 0.1 irá expandir um
sample de 1 seg., por exemplo, por um fator de 10, produzindo 10 segundos de
som, enquanto que um valor de 10 irá comprimir o mesmo sample de 1 seg.
Para 0.1 seg.)

P7 Controla a direção de leitura do sample. Valor 1 significa o sentido original do


sample. Valor –1 a leitura se dá na ordem reversa, e um valor 0 significa
leitura normal e reversa, randômicamente para cada grão.

P8 Valor de samples na tabela. Samples com valor abaixo deste número serao
excluídos. É um artifício para se evitar espaços indesejados com silêncio.

P9 Este é o número da função no score em que está armazenado o sample (f-


table/score).
P10 Controle de altura/transposição do sample. Valor 0 significa uma oitava abaixo
e acima do original, randomicamente para cada grão. Quando o valor, em P10
é 1, 2, 3 ou 4, em P5 é necessária a especificação do respectivo número de
vozes. Se quisermos controlar, separadamente, a transposição de cada voz,
podemos usar parâmetros opcionais (P21, 22, 23, 24, etc…). Valor 1 gera a
altura original. Valor 2 oitava acima e valor 0.5 uma oitava abaixo.

P11, P12, Valores designados para o fácil controle da precisa localização no sample a ser
P13 usado. P11 define o ponto de começo de leitura. P13 define até onde dentro do
sample a leitura é feita. P12 é o valor de off-set, que equilibra a entrada do
sample e evita cliks (cria fade-in e fade-out). São valores definidos em
segundos.

49
K2 Espaço/delay entre cada grão, definido por variável de controle(K) e
especificado na orchestra por uma função exponencial.

P15 Off-set randômico, definido por porcentagem de K2. Usado para o equilíbrio
do espaço entre os grãos.
K3 Tamanho dos grãos em segundos.
P17 Off-set randômico, definido em porcentagem de K3, define o tamanho de cada
grão.
P18, P19 Definem, respectivamente, o ataque e decay do envoltória de cada grão,
definidos em porcentagem de K3.
P20 Parâmetro opcional: é o valor-semente para o gerador numérico randômico,
seu valor de “preset” é 0.5, em uma espacialização com multi-canais, se
usarmos diferentes valores para cada vez que “granule” é acionado, irá gerar
uma sequência randômica diferente para cada canal, produzindo um efeito de
campo sonoro largo.

P21, P22, Respectivamente controle de altura/ transposição de cada voz, definida em P5.
P23, P24

Fig.23: tabela de funções de cada “campo p” (p-field) do opcode Granule.

Através da quantidade de parâmetros de controle, podemos notar a amplitude de


possibilidades deste opcode que, apesar de ter uma sintaxe difícil, permite um controle
detalhado do processamento ou uma abordagem intuitiva. Este instrumento foi tomado
como exemplo para a geração de diferentes texturas e elementos gestuais que puderam,
posteriormente, ser editados e montados em seqüência.

2.4) Peça de Marimba e computador

50
Esta peça surgiu do desejo de se compôr utilizando a Marimba e a proximidade
que os instrumentos de percussão tem com as linguagens da música contemporânea e
com o universo sonoro da música eletroacústica e suas possibilidades de síntese,
tratamento de sons gravados, performance e estruturação. Foram utilizados materiais
vindos de experiências com o ambiente de composição Csound mesclados com elementos
seriais na composição intervalar e de construção livre. Foram desenvolvidos também
elementos idiomáticos do instrumento como s, variações de articulação e de toques e
polifonia e condução harmônica.
A escrita da Marimba, nesta peça, é uma escrita tradicional e tem sua fórmula de
compasso variando entre um binário composto e um binário simples. Esta peça tem uma
forma geral simples, como um pequeno rondó, com uma parte que sempre retorna com
outras duas contrastantes. A peça inicia com uma pequena introdução onde é exposta a
série original apenas de alturas.

Fig.24: série original da peça para marimba e computador.

O trecho reexpositivo começa com a série original no compasso 8, acrescida de


uma mudança que após sua primeira aparição se torna estrutural. Podemos notar a
variação de densidade rítmica, com várias pausas propícias para um diálogo com o
computador.

Fig.25: compasso 8 - 10 trecho reexpositivo do rondó.

51
Seguem-se nos compassos 16 - 17 com acordes em trêmolo, em que o primeiro
segue a série e o segundo é uma variação harmônica do primeiro. Neste caso, o primeiro
acorde serviu como entidade de base para a criação do segundo.

Fig.26: compasso 16 - 17 trêmolos com variação harmônica.

Os últimos três compassos desta seção reexpositiva se seguem respectivamente a


inversão da série original ligada à transposição da série uma quinta diminuta acima da
original, com variação de articulação e toque, onde as três últimas colcheias devem ser
tocadas com toque abafado, ou seja, o marimbista percute a tecla e automaticamente
pressiona com a ponta da baqueta impedindo a sustentação da nota, o que causa uma
sonoridade seca e abafada.

Fig.27: compassos 19 – 21, fim do trecho reexpositivo.

A segunda seção começa no compasso 23 com um tema melódico principal que é


derivado da escala de sol menor com uma intenção melódica de ré menor harmônico,

Fig.28: compassos 23 – 25, tema da segunda seção.

52
Seguem-se duas variações melódicas deste tema. Na primeira são deslocados e
transpostos os intervalos de segunda menor e terça menor, como podemos ver no
exemplo. Na segunda variação é adicionada uma segunda voz que começa o primeiro
tempo em sentido contrário e segue no segundo tempo em movimento paralelo.

Fig.29: compassos 26 – 28, variação melódica e harmônica do tema.

Um novo elemento é apresentado como base para variação que é, basicamente, o


intervalo de sexta maior, exposto de maneira simples em trêmolo e, logo após, como
intervalo de sustentação para uma escrita a três vozes.

Fig.30: compassos 32 – 36, trecho com escrita a 3 vozes.

No compasso 37 encontramos um trecho que é a sexta transposição da série (uma


quinta diminuta acima) usada na primeira seção, escrita toda em semicolcheias e variando
o registro, seguida de um trecho da décima primeira inversão (uma sétima maior acima)
na sua forma retrógrada.

Fig.31: compassos 37 – 38, sexta transposição da série.

No compasso quarenta e dois buscou-se um contraste entre repetição e não-

53
repetição, em que o compasso quarenta e quatro é uma variação do tema melódico desta
seção em que utiliza os intervalos característicos do tema que são a segunda menor e a
quinta justa.

Fig.32: compassos 42 – 44, contraste entre repetição e não-repetição.

Após uma mudança da fórmula de compasso de seis por oito para dois por quatro é
exposta uma variação do tema, em que é variado o registro, o que cria uma sensação
rítmica diferente.

Fig.33: compassos 46 – 47, variação de registro.

O compasso cinquenta e dois apresenta um trecho da série original e antecipa dois


compassos de repetição de um acorde com dua segundas menores que começa com duas
notas e vai aumentando a densidade até quatro notas. Os intervalos e o aumento de
densidade do acorde cria uma tensão e expectativa para o próximo elemento.

Fig.34: compassos 54 – 55, repetição com acorde tenso.

54
Dois compassos com ritmo igual são apresentados de maneira que o primeiro se
torna um repouso por apresentar apenas notas naturais, mesmo que tenha intervalos de
quinta diminuta, nona e saltos de nona. O segundo compasso gera uma tensão moderada
por apresentar acidentes na última semicolcheia do primeiro tempo e no segundo tempo.

Fig.35: compassos 57 –58, variação de tensão.

Um trecho de sétimas maiores apresentadas em trêmolo de duas notas é disposto


com variação de dinâmica, e serve como ponte para a reexposição da primeira seção.

Fig.36: compassos 61 – 63, trêmolo com sétimas maiores.

Após a reexposição, começa uma nova seção que novamente muda de seis por oito
para dois por quarto, onde é exposta a série original em sua forma retrógrada, onde é
trabalhada a variação e o contraste entre notas longas ou repetidas com figurações
rítmicas rápidas.

Fig.37: compassos 80 – 85, nova seção, com série retrógrada.

Em sequência à série original retrógrada, entra a quinta inversão (uma terça menor
a partir da inversão original) com o mesmo sentido de organização e disposição dos

55
compassos e das figuras rítmicas.

Fig.38: compassos 85 – 90, série original retrógrada e a quinta inversão em sequência.

As duas últimas notas da quinta inversão são harmonizadas com acordes


simétricos, uma característica de harmonização jazzística, consistindo de uma colagem de
outra gramática inserida em uma narrativa diferente.

Fig.39: compassos 91 - 94 colagem de acordes jazzísticos.

No compasso noventa e cinco é novamente apresentada a série original de uma


maneira bem melódica, imitando um acompanhamento ou um arpejo de violão.

Fig.40: compassos 95 – 2000, “acompanhamento”.

Após o reaparecimento dos acordes simétricos, como uma colagem de um


elemento que foi transformado em signo sonoro, é feita a reexposição da primeira seção
que é também o final da peça, caracterizando-se por um final súbito.

56
Conclusão

Esta pesquisa não se encerra com este texto e com as composições, pelo contrário,
inicia-se uma fase mais madura e consciente das possibilidades e métodos de trabalho,
com maior experiência tanto na parte teórica, quanto na parte de programação, escrita
instrumental, performance em concerto e experiência de estúdio. Podemos concluir que
este trabalho, antes de ser um resultado em si, abre possibilidades e ferramentas de
aprofundamento da proposta.
Ao final de uma etapa de um trabalho, podemos avaliar os vários caminhos que
as propostas podem seguir. Os referenciais teóricos utilizados aqui podem se tornar um
apoio acadêmico para novos processos investigativos em composição eletroacústica
mista, por ser um texto que essencialmente serve ao compositor interessado em
desenvolver um trabalho prático em composição interativa.
Podemos fazer uma síntese dos processos composicionais de escrita e de
programação que mais foram utilizados: serialização livre de alturas, idiomatismo
instrumental como ponto estrutural nas composições, contraste entre narrativas diversas,
colagens, granulações, interação com intérprete no nível da performance e da
composição, estruturação eletroacústica provinda da escrita instrumental.
Os patchs de MAX/MSP, pela própria característica de programação do ambiente
MAX, são automaticamente células que podem ser incorporadas a novos projetos, ou ter
detalhes alterados para servir a novas funções. Por vezes, o mesmo patch, com suas
possibilidades bem exploradas, pode nos fornecer inúmeras respostas, muitas que nem
tinhamos pensado originalmente.
O score–follower desenvolvido ainda é uma versão instável, ou seja, ainda não é
uma ferramenta com a qual podemos contar sem o ônus de erros. Mas consiste de uma
estrutura básica de um score–follower, pronto para desenvolvimento e implementação em
composições. Os principais desenvolvimentos são o trabalho, direto no algoritmo do
objeto fiddle~ , no sentido de estabelecer diferenças entre os timbres dos instrumentos,
pois um dos maiores problemas de leitura deste objeto é o fato dele reconhecer muitos
harmônicos de cada timbre, enquanto que o interestante para um score–follower seria o

57
reconhecimento apenas do harmônico fundamental de cada nota, pois para cada timbre ou
espectro harmônico diferente ele se comporta de maneira diferente. Outro passo é o de
distribuir o processamento, pois, neste caso, o mesmo programa reconhece as alturas e
realiza o acompanhamento acionando os samples. Se conseguirmos deslocar o
reconhecimento para um processador e o acionamento do acompanhamento para outro
processador, podemos chegar mais perto de uma situação estável. Poderemos também
ampliar a lógica deste patch, pois poderá ser incluído, por exemplo, a análise de
comportamento da performance de maneira que o patch responda de maneiras diferentes
de acordo com cada performance.
As composições apresentadas aqui são breves resultados de uma fonte de
possibilidades avaliadas durante este trabalho. Possibilidades que, longe de terem sido
esgotadas nestas peças, serviram para a ampliação da visão musical e artística. Neste tipo
de proposta, o trabalho composicional se torna o jogo das particularidades idiomáticas de
cada instrumento e a carga de signos sonoros que este idiomatismo carrega em oposição à
gama de possibilidades timbrísticas e gestuais facultadas pelo computador. O trabalho se
torna a realização de uma escultura sonora em que devemos levar em conta vários
fatores, como, por exemplo, a questão de em que meio vai ser difundida esta composição,
que pode ser em suporte fixo como em Caminho Largo, Caminho Estreito, ou em
performance de concerto como em Enquanto eles riem, em que foi planejada uma versão
mixada para audição. De acordo com o meio de difusão, o enfoque no trabalho vai ser
diferente.
Pode-se afirmar que a experiência poética advinda desses processos
composicionais apresentados aqui se constituiu num avanço na busca por uma identidade
artística. O contraste de narrativas diversas desenvolvido em Pequi, forneceu elementos
de organização composicional em se tratando de lidar com gramáticas distintas e
fechadas em si. O tratamento da fonte sonora em Caminho Largo, Caminho Estreito
resultou numa ampliação de possibilidades de uso do material sonoro. A interatividade do
compositor com o intérprete no nível composicional desenvolvida em Enquanto eles
riem possibilitou ferramentas para trazer para dentro da obra, de forma orgânica, o
universo sonoro entre compositor e performer.
Para finalizar, podemos concluir que o processo composicional de pesquisa serviu

58
para o aprofundamento da busca por uma identidade artística, através da ampliação de
técnicas de programação e da reflexão ao redor do fazer musical contemporâneo e suas
relações com as novas tecnologias. Identidade artística essa que entendemos como uma
constante busca dinâmica da expressão pessoal através do universo que engloba nossa
individualidade. Enquanto etapa de formação artística para um compositor, pode-se dizer
que esta pesquisa serviu para a ampliação do repertório gestual e idiomático através de
possibilidades de ambientes computacionais voltados para a composição, escrita
instrumental e combinação de linguagens.

59
Referências Bibliográficas

ALMEIDA, Anselmo Guerra de. A arte como modelo de interatividade. In:Anais da


Anppom, 1999.
CAESAR, Rodolfo. Novas interfaces e a produção eletroacústica. In: Anais do SBCM,
Brasília, 1997.
CAPISANI, Dulcimira. O jogo e as Interartes . Editora da UFMS, Campo grande, 2000.
CORREA, James. Jardim dos caminhos que se bifurcam: Processos composicionais.
Dissertação de Mestrado, Programa de pós graduação em música, UFRGS, 2003.
ECO, Umberto. Obra Aberta. Perspectiva, São Paulo, 1992.
FERRAZ, Silvio. Criação musical com suporte tecnológico. In: Anais da Anppom,
1999.
Composição e pesquisa: A categoria compositor-pesquisador ou o
compositor que se perdeu num tubo de ensaio. In: Anais da Anppom, 2000.
HUIZINGA, Johan. Homo Ludens. Perspectiva, São Paulo, 1993.
LEE, Allan S. C. Granular Synthesis in Csound. In: The Csound Book, MIT Press ,
Massachussets, 2000.
MCLUHAN, Marshall. Os meios de comunicação como extensões do homem
(Understanding Media). Cultrix, São Paulo, 1993.
NYMAN, Michael. Experimental music – Cage and beyond. Schirmer Books, New
York, 1974.
OPCODE Systems. MAX Reference Manual. Pablo alto, 1995.
ROADS, Curtis. Computer music tutorial. MIT Press, Massachussets, 1996.
TOOP, Richard. György Ligeti. Londres, Phaidon Press, 1999.
WINKLER, Todd. Composing Interactive Music – Techniques and ideas using Max.
MIT Press, Massachussets, 1993.
XENAKIS, Iannis. Determinacy and indeterminacy. In: Organised Sound, Vol. 1, Nº 3,
December 1996. Cambridge University Press, Cambridge, 1996.
ZAMPRONHA, Edson. Notação, Representação e Composição – Um novo
paradigma da escritura musical. São Paulo, Annablume/Fapesp, 2000.

60
Anexos

- Partituras

- Arquivos Csound

­ Patchs de MAX/MSP

61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
;
=======================================================================
================;
; Caminho largo, Caminho estreito Cristiano Figueiró
;
;
;
;
; Algoritmo criado por: DEREK PIERCE
; "INVADE AREAS WHERE NOTHING'S DEFINITE"
; 1998 VERSION
;
=======================================================================
================;

sr = 44100
kr = 4410
ksmps = 10
nchnls = 2

; DYNAMIC PITCH SHIFT INSTRUMENT

instr 1

kenv oscil 20000,1/p3,2


aindx line p4,p3,p3+p4
asig tablei aindx*sr,1

outs asig*kenv , asig*kenv

endin

; DYNAMIC GRANULAR INSTRUMENT

instr 2

k1 linseg 0,20,1,(p3-80),1,60,0
k2 expseg .20,(p3/8)*2,.2,(p3/8)*6,.002 ;gap varies over
time.
k3 expseg .30,p3/2,.03,p3/2,.002 ;grain size decreases over
time.

a1 granule
p4*k1,p5,p6,p7,p8,p9,p10,p11,p12,p13,k2,p15,k3,p17,p18,p19,p20,p21,p22,
p23,p24
a2 granule
p4*k1,p5,p6,p7,p8,p9,p10,p11,p12,p13,k2,p15,k3,p17,p18,p19,p20+0.07,p21
,p22,p23,p24
outs a1,a2

endin

76
; SOUNDWARP INSTRUMENT

instr 4

isamp = p4
iws = 3000
iwfn = 3
iover = 23

k1 expon 2,p3,.001
asig sndwarp 6000,p5+k1,1,isamp,0,iws,500,iover,iwfn,0
outs asig*p6,asig*(1-p6)
endin

instr 5

isamp = p4
iws = 3000
iwfn = 3
iover = 20

k1 expon 2,p3,.001
asig sndwarp 6000,p5+k1,1,isamp,0,iws,500,iover,iwfn,0
outs asig*p6,asig*(1-p6)

endin

77
;
=======================================================================
================;
; Caminho largo, Caminho estreito Cristiano Figueiró
;
;
;
;
; Algoritmo criado por: DEREK PIERCE
; "INVADE AREAS WHERE NOTHING'S DEFINITE"
; 1998 VERSION
;
=======================================================================
================;

f1 0 524288 1 "caminhos1.wav" 0 0 1
f2 0 8193 8 0 4096 1 4096 0
f3 0 1024 20 6

;DYNAMIC STRETCHED VOICE WITH PITCH SHIFT

; DYNAMIC GRANULATION OF VOICE


;i2 0 180 5000 40 0.5 0 0 1 4 0 0.05 3 0.01 50 0.02 50
30 30 0.45 1
; STRECHED VOICE, USING SNDWARP
;i4 6 174 1 58 .4
i5 6 173.08 1 58 .6

78
; Caminho largo, Caminho estreito Cristiano Figueiró
;
;
;
;
; Algoritmo criado por: Allan Lee
(capítulo 13-Csoundbook)

; 1301.ORC
; ORCHESTRA FILE FOR GENERATING MONO OUTPUT USING
sr = 44100
kr = 4410
ksmps = 10
nchnls = 1

instr 1301
k1 linseg 0, 0.05*p3, 1, 0.9*p3, 1, 0.05*p3, 0
a1 granule p4*k1, p5, p6, p7, p8, p9, p10, p11, p12, p13, p14,
p15, p16, p17, p18, p19, p20, p21, p22, p23, p24, p25
out a1
endin

79
; Caminho largo, Caminho estreito Cristiano Figueiró
;
;
;
;
; Algoritmo criado por: Allan Lee
(capítulo 13-Csoundbook)

;1301.SCO
;SCORE FILE FOR GENERATING 10 SECOND GRANULAR TEXTURES USING A 220 HZ
SINE TONE AS THE SOURCE.

;SOURCE FILE IS A 220HZ SINE WAVE


f 1 0 524288 1 "caminhos1.aif" 0 4 0

;GRAIN SIZE SET TO 50 MS, GAP SET TO 10 MS


i 1301 0 15 3500 12 1 1 0 1 4 0 0 10 0.01 30 .05 30 20 20 0.39 1 1.42
0.29 4 0

80
; Caminho largo, Caminho estreito Cristiano Figueiró
;
;
;
;
; Algoritmo criado por: Allan Lee
(capítulo 13-Csoundbook)

;1301.SCO
;SCORE FILE FOR GENERATING 10 SECOND GRANULAR TEXTURES USING A 220 HZ
SINE TONE AS THE SOURCE.

;SOURCE FILE IS A 220HZ SINE WAVE


f 1 0 524288 1 "caminhos1.aif" 0 4 0

;GRAIN SIZE SET TO 50 MS, GAP SET TO 10 MS


i 1301 0 15 3500 4 1 1 0 1 4 0 0 10 0.05 30 .05 30 2 20 0.39 1 1.42
0.29 4 0

81
82
83
84
85
86
87
88
89

You might also like