












Estude fácil! Tem muito documento disponível na Docsity
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Prepare-se para as provas
Estude fácil! Tem muito documento disponível na Docsity
Prepare-se para as provas com trabalhos de outros alunos como você, aqui na Docsity
Os melhores documentos à venda: Trabalhos de alunos formados
Prepare-se com as videoaulas e exercícios resolvidos criados a partir da grade da sua Universidade
Responda perguntas de provas passadas e avalie sua preparação.
Ganhe pontos para baixar
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Comunidade
Peça ajuda à comunidade e tire suas dúvidas relacionadas ao estudo
Descubra as melhores universidades em seu país de acordo com os usuários da Docsity
Guias grátis
Baixe gratuitamente nossos guias de estudo, métodos para diminuir a ansiedade, dicas de TCC preparadas pelos professores da Docsity
Neste documento, aprenda sobre a computação musical, uma área interdisciplinar que combina problemas computacionais interessantes e relevantes do universo musical. Saiba sobre os fundamentos teórico-práticos da utilização de sistemas e tecnologias computacionais na composição, síntese, performance de sons e música, além da educação musical com auxílio do computador. Encontre palavras-chave relacionadas à tecnologia aplicada à música, música eletrônica, áudio digital, midi, síntese sonora, instrumentos virtuais e software musical.
Tipologia: Manuais, Projetos, Pesquisas
1 / 20
Esta página não é visível na pré-visualização
Não perca as partes importantes!
IV Congresso Brasileiro de Computação CBComp 2004 Brasil
Instituto de Informática - Laboratório de Computação & Música Universidade Federal do Rio Grande do Sul Av. Bento Gonçalves, 9500 Bloco IV - Campus do Vale - Bairro Agronomia - CEP 91501- Porto Alegre - RS - Brasil {miletto, llcostalonga, lvflores, fritsch, mpimenta, rosa}@inf.ufrgs.br
E. M. Miletto, L. L. Costalonga, L. V. Flores, E. F. Fritsch, M. S. Pimenta e R. M. Vicari. 2004. Minicurso: Introdução à Computação Musical. In: CBComp - Congresso Brasileiro de Computação, 4., Itajaí, 2004. “Anais...”, pp. 883-902. Itajaí, SC - Brasil, ISSN 1677-2822.
A idéia deste minicurso é propiciar aos alunos conhecer alguns conceitos introdutórios de Computação Musical, uma área eminentemente interdisciplinar e que engloba problemas computacionais interessantes e relevantes (por exemplo, de representação de conhecimento musical, de controle a tempo-real de dispositivos, de interação com usuários possivelmente leigos em informática, para enumerar apenas alguns) subjacentes ao universo musical, que já é fascinante por si só. É uma área emergente no Brasil, mas já possui um reconhecimento da comunidade acadêmica de informática, uma vez que a SBC possui uma Comissão Especial de Computação Musical, que organiza um evento periódico (Simpósio Brasileiro de Computação Musical – SBCM). Ano passado, o IX SBCM aconteceu em Campinas em conjunto com o Congresso da SBC (ver http://www.nics.unicamp.br/nucom/portugues). As características interdisciplinares do tema têm sido, nos últimos anos, objeto de trabalho quotidiano do Grupo de Computação Musical da Universidade Federal do Rio Grande do Sul (UFRGS), que conta com a participação e interação efetivas de professores, alunos e pesquisadores tanto do Instituto de Informática quanto do Instituto de Artes da UFRGS (ver http://www.musicaeletronica.ufrgs.br). A equipe que está propondo este minicurso é formada por membros do Laboratório de Computação & Música (LC&M) do Instituto de Informática e do Centro de Música Eletrônica (CME) do Instituto de Artes, ambos da UFRGS. Alguns de seus membros têm atuado na área de Computação Musical há mais de 10 (dez) anos e certamente estão entre os pioneiros a fazer pesquisa sobre este tema no Brasil. Neste minicurso são apresentados fundamentos teórico-práticos do uso de sistemas e tecnologias computacionais para composição, síntese, performance de sons e música, assim como para educação musical com auxílio do computador. As principais tecnologias envolvidas serão apresentadas e discutidas através de exemplos práticos. Se possível, equipamentos estarão disponíveis para demonstrações, experimentos e exercícios.
PALAVRAS DE INDEXAÇÃO ADICIONAIS: Tecnologia aplicada à música, música eletrônica, áudio digital, MIDI, síntese sonora, instrumentos virtuais, software musical.
Computação Musical é uma área da Ciência da Computação (tendo, obviamente, relações interdisciplinares com a Música) dedicada ao estudo das aplicações dos computadores a problemas musicais. Como referência, tomemos sua irmã de nome, a Computação Gráfica, mais conhecida do público geral, que investiga métodos, técnicas e algoritmos para processamento, geração, representação digital e armazenamento de imagens. Da mesma forma, a Computação Musical investiga métodos, técnicas e algoritmos para processamento e geração de som e música, representações digitais e armazenamento de informação sônica e musical. Mas talvez a maior diferença entre essas duas disciplinas seja o fato de que boa parte da Computação Musical lida com a forma de arte ligada ao som - a música. Na Computação Gráfica não há tantos estudos relativos às artes plásticas, pelo menos não com a intensidade com que a música é investigada na Computação Musical (doravante abreviada CM). O fato da CM lidar muito com a arte torna essa disciplina um campo fértil para investigações com variadas técnicas da
computação, por exemplo, técnicas de Inteligência Artificial (ver M IRANDA, 2000). Isso, então, torna a CM uma área bastante excitante do ponto de vista da investigação científica. Para se ter uma idéia da imensa variedade de problemas com os quais a CM se ocupa, basta darmos uma olhada num trecho da chamada de trabalhos para o último Simpósio Brasileiro de Computação Musical: “Tópicos de interesse incluem, mas não se restringem a:
Introdução à Computação Musical
existem à sua disposição e suas respectivas aplicações na música. Para finalizar, resumiremos algumas das principais linguagens de programação usadas na CM para construir programas musicais e apontaremos algumas das tendências e rumos que a área está tomando atualmente.
A intenção em relatar os marcos do avanço tecnológico é de ressaltar a importância que os novos instrumentos eletrônicos adquiriram ao longo dos anos, principalmente a partir da década de 70, e as alterações que eles causaram na maneira de fazer música. O avanço da ciência na área da música é marcante a tal ponto de utilizar inteligência artificial, redes neurais e realidade virtual na construção de sistemas inovadores e que permitem uma grande flexibilidade ao usuário. Nossa viagem inicia com a invenção do telefone por Alexander Graham Bell (1876), considerado como o marco inicial do desenvolvimento da música eletrônica. Esta invenção estabeleceu que o som podia ser convertido em sinal elétrico e vice-versa. Por sua vez, a invenção do gramofone, que rapidamente se seguiu, estabeleceu as possibilidades de armazenamento e alteração do som. Por volta de 1906 Thaddeus Cahill mostrou seu dínamofone - “Telharmonium”, o primeiro instrumento que produzia som por meios elétricos. A geração do som era feita a partir de dínamos e a transmissão por meio de cabos telefônicos. Por volta de 1915, um outro passo importante veio a ser dado com a invenção do oscilador a válvula, por Lee De Forest. O oscilador, que representa a base para a geração do som eletrônico, tornava possível a geração de freqüência a partir de sinais elétricos e, conseqüentemente, a construção de instrumentos eletrônicos mais fáceis de manejar. O primeiro desses foi desenvolvido pelo russo Lev Termen (Leon Theremin), em 1919/1920 e foi posteriormente melhorado por volta da década de trinta. Este instrumento, o “Theremin”, usava dois osciladores controlados pelo movimento das mãos do executante em torno de duas antenas verticais, sem nunca tocá-las. Outros instrumentos eletrônicos rapidamente o seguiram. O inventor alemão Jörg Mager introduziu alguns deles na década de trinta. O “Ondas Martenot” foi criado pelo francês Maurice Martenot e o “Trautonium” pelo alemão Friedrich Trautwein, ambos em 1928. Neste mesmo ano o americano Lores Hammond produziu o primeiro órgão elétrico. Alguns compositores estavam voltados para a utilização e desenvolvimento de técnicas de composição que tratavam do som de uma maneira diferente da utilizada pelos compositores convencionais. Essas composições eram baseadas em gravações de sons pré-existentes, posteriormente transformados a partir de processos de alteração de rotação, superposição de sons ou fragmentos sonoros, execução em sentido inverso, etc. Isto foi chamado de música concreta. Pierre Schaeffer, compôs varias peças de Musique Concrète em colaboração com Pierre Henry, seu colega na Radiodiffusion et Télévision Française (RTF) em Paris. Symphonie pour un Homme Seul (1949-1950) foi uma das primeiras obras eletrônicas apresentadas ao público e um dos principais trabalhos dos dois compositores. Em 1952, foi criado em Köln, na Alemanha, o segundo estúdio de música que, em oposição aos princípios da música concreta, trabalhava exclusivamente por meios eletrônicos sem a interferência de sons naturais. Isto foi chamado de música eletrônica. Karlheinz Stockhausen foi o principal compositor deste estúdio e, ao contrário de Pierre Schaeffer, não se preocupava em transformar sons naturais, mas sim em criar música eletrônica sintetizando o som a partir de freqüências puras.
Introdução à Computação Musical
aplicações em sistemas musicais. Logo após o padrão MIDI ser difundido, fabricantes de software iniciaram uma produção em grande escala dos mais diversos aplicativos musicais que utilizavam a comunicação entre instrumentos e o computador. No final de 1986, uma grande linha de produtos já existia. Os computadores PC multimídia tornaram o padrão MIDI e a gravação digital em computador ainda mais difundida por já apresentarem esses recursos inclusos no preço final do computador. Atualmente, com o aumento da capacidade de processamento e o barateamento da memória utilizada nos equipamentos, foram criados sintetizadores virtuais como o Virtual Sound Canvas da Roland e sistemas para gravação de áudio digital em discos rígidos. A música por computador está sendo amplamente utilizada na Internet através dos recursos de áudio digital compactado e MIDI. Instrumentos baseados em realidade virtual, laser e inteligência artificial já são uma realidade em laboratórios e mega-espetáculos de música eletrônica. A gravação de grupos musicais pela Internet e a educação musical à distância tornam-se realidade.
Diariamente, nós ouvimos uma grande quantidade de sons, vozes, sons de portas abrindo e fechando, passos, ruído dos motores dos automóveis, chuva e música. Em outras palavras, vivemos toda a nossa vida rodeados por sons. O som não é algo que podemos ver com nossos olhos. Então, o que é isso que chamamos de som? Tomando como exemplo o som de uma campainha, temos que quando a energia cinética é aplicada a ela, através de um martelo, ocorre uma “deformação” da campainha, gerando desta maneira a energia que trata de devolver a campainha ao seu estado original. Começa, então, uma repetição periódica de deformações e restaurações. A isto chamamos de vibração. Estas vibrações produzem mudanças de pressão do ar, resultando em seções de ar que são mais densas e outras que são rarefeitas, ocorrendo sucessivamente uma depois da outra e expandindo-se. Estas são chamadas condensações e rarefações. O processo é similar ao que conhecemos quando jogamos uma pedra dentro d’água, a qual produz ondas circulares em sua superfície. Estas ondas de condensações e rarefações são propagadas para dentro do ouvido humano e irão vibrar o tímpano. As vibrações são captadas pelas terminações nervosas, de maneira que nós as escutamos como sons. Se os corpos que vibram são diferentes, também será diferente a classe de vibração que produzem, isto significa que escutamos distintas classes de sons. No espaço, onde não existe ar, também não existem sons. O som é, portanto, a vibração do ar, ou seja, variações na pressão do ar, que percebemos com nossos ouvidos. Se essa pressão varia de acordo com um padrão repetitivo dizemos que o som tem uma forma de onda periódica. Se não há um padrão perceptível no som este é chamado de ruído. Quando as variações na pressão do ar são representadas de forma gráfica, podem ser interpretadas como “formas de onda”. Um osciloscópio, por exemplo, é um aparelho prático que converte sons em sinais elétricos mostrando-os em forma de onda num monitor. A representação gráfica de um som mostra as mudanças na pressão do ar conforme a passagem do tempo. Lendo-se o gráfico da esquerda para a direita, quando a linha curva está próxima da parte inferior do gráfico, então a pressão do ar é mais baixa, e quando a curva está próxima do topo do gráfico, a pressão do ar aumentou (Figura 1).
Figura 1 - Representação gráfica, no domínio temporal, de uma forma de onda senoidal.
Quando se toca as teclas de um piano, nota-se que os sons são mais agudos quanto mais tocados à direita e mais graves quanto mais se tocar à esquerda. Essa “altura” de um som, ou seja, se é alto ou baixo, agudo ou grave, é chamada “altura tonal”. Uma repetição de uma onda periódica é chamada de ciclo. Quando são comparados em um osciloscópio sons com alturas tonais diferentes, nota-se que difere o número de ciclos por unidade de tempo. Quanto mais agudo o som, maior o número de ciclos por unidade de tempo e quanto mais grave o som, menor será este número. O número de ciclos dentro do intervalo de um segundo é geralmente chamado freqüência e expresso em unidades chamadas hertz (Hz). 100Hz indica que a vibração ocorre com uma freqüência de 100 ciclos por segundo. Quanto maior o valor em hertz, mais agudo é o som. Dobrando a freqüência de um som, este é elevado em uma oitava, então é possível dizer que a freqüência e a altura tonal estão relacionadas logaritmicamente. A faixa de freqüências que podem ser ouvidas por um ouvido humano é de aproximadamente 20Hz para os sons mais graves e de até 20.000Hz para os sons mais agudos.
Se uma tecla de piano é pulsada fortemente, o som produzido será forte. Se for pulsada suavemente, o som produzido será fraco. As denominações alto e baixo devem ser utilizadas de maneira correta apenas para designar a altura tonal e não o volume. Através de um osciloscópio, a mudança no volume de um som pode ser vista como uma diferença na altura das ondas. A altura de uma onda chama-se “amplitude”. Quanto maior a amplitude, mais forte é o som. Portanto o volume de um som é determinado pela amplitude (altura da onda). Ao contrário do que é falado coloquialmente, um som alto, do ponto de vista da amplitude corresponde a um som forte. Já um som baixo, corresponde a um som fraco.
Um clarinete e uma flauta não produzem o mesmo som ao serem tocados com a mesma altura tonal e o mesmo volume. Isso se deve ao fato de haver um fator distinto a mais para o som além da altura tonal e do volume. Este fator é o timbre. Observando-se sons com timbres diferentes, através de um osciloscópio, nota-se que as formas de onda diferem entre si. De um modo geral, formas de ondas arredondadas produzem um timbre mais suave enquanto que as formas de ondas ponteagudas dão um timbre mais penetrante e estridente. Na Tabela 1 são mostradas três formas de onda básicas, seus timbres característicos e os instrumentos que se assemelham a cada caso.
Miletto et al.
Tabela 1: Formas de onda simples e seus timbres.
Podemos encontrar dois tipos de sons:
Tabela 2: A fundamental e seus harmônicos.
Figura 2 - Exemplos de fundamental, suas parciais, formas de onda resultantes e espectros.
A estrutura de uma onda produzida por um instrumento musical pode ser representada por um espectro gráfico. Na Figura 2 as barras verticais representam a amplitude da fundamental p1 e a dos parciais. A partir da Figura 2 observa-se que podem ser desenvolvidas várias formas de onda a partir das estruturas harmônicas mais complexas. Por exemplo, na Figura 3 é
apresentada a forma de onda e a equação de uma onda dente-de- serra. Para a produção de uma onda dente-de-serra é necessária uma série com um infinito número de senos. O espectro contém os componentes da onda até 2000 ciclos e possui uma fundamental de 100 ciclos. Esta onda contém todos os harmônicos.
Figura 3 - Onda dente-de-serra.
Outra forma de onda bastante comum é a triangular. Um infinito número de co-senos ímpares na série são necessários para produzir este tipo de onda. O espectro da Figura 4 contém os componentes da onda até 2000 ciclos, com uma fundamental de 100 ciclos. Esta onda contém somente os harmônicos ímpares.
Figura 4 - Onda triangular.
A onda quadrada mostrada na Figura 5, assim como a triangular, também contém só os harmônicos ímpares.
Freqüências em ciclos por segundo
ciclo
amplitude tempo
Miletto et al.
Se o sinal de um microfone for introduzido em um gravador de fita magnética, seu circuito transformará o sinal elétrico em magnético (preservando ainda as características oscilatórias originais do som), que pode então ser registrado na fita (pelo alinhamento magnético das partículas metálicas existentes na superfície da fita). Uma vez gravado na fita, esse sinal magnético pode ser reproduzido, desde que se efetue o processo inverso, recompondo o sinal elétrico a partir do sinal magnético registrado na fita e, depois, transformando o sinal elétrico em acústico, através de um sistema composto de amplificador e alto-falantes. Como já vimos, pode-se representar o som usando-se um gráfico que mostre as variações que ocorrem na pressão do ar no decorrer do tempo. O mesmo gráfico serve também para representar as variações da tensão elétrica no tempo (no caso do sinal convertido pelo microfone) ou as variações do campo magnético da fita no tempo (no caso do sinal gravado), pois todos esses sinais mantêm as mesmas características oscilatórias. O processo de gravação usado pelos gravadores convencionais de fita magnética (cassete ou rolo) é, portanto, um processo analógico. A gravação de áudio analógica possui certos inconvenientes, alguns deles inerentes ao próprio meio usado para a gravação, que é a fita magnética. Por exemplo, quando o sinal elétrico (representando a onda sonora) é registrado na fita (convertido em sinal magnético) há uma perda de fidelidade, com a distorção do sinal original e a eliminação de alguns componentes harmônicos de alta freqüência. Além disso, existe ainda a adição de ruído gerado pela própria fita. Como solução alternativa a esse processo de gravação convencional, existem hoje processos mais aprimorados para o registro de sinais de áudio, que usam tecnologia digital.
O processo de representar numericamente o som é chamado de digitalização. O som é a variação da pressão do ar. Sendo assim, a forma de produzir um determinado som depende da maneira como a pressão do ar varia. O som da nota Dó central de um piano tem uma variação periódica de pressão que se repete 256 vezes em um segundo. Isto significa que sua freqüência de vibração é de 256Hz. O alto-falante produz variações de pressão do ar por intermédio do movimento vibratório do cone de papel, em que uma bobina de fios é submetida a um campo magnético. Isso só acontece porque uma voltagem elétrica é aplicada à bobina. Os computadores são máquinas digitais que trabalham somente com o zero e o um. Para um computador recriar um fenômeno analógico como o som, o computador tem que primeiro converter os dados analógicos em digitais. Isto é feito através do circuito denominado conversor analógico-digital (ADC). Quando os sons gravados digitalmente precisam ser reproduzidos, se faz necessário o processo inverso. O conversor digital-analógico (DAC) transforma os dados digitais novamente em analógicos. Todo o circuito digital para a produção de som, seja um toca disco a laser, um “digital audio tape” (DAT) ou um computador, realiza a conversão digital para analógica a fim de reproduzir o som. “Sampling” é a técnica de fazer um determinado número de amostragens de uma certa forma de onda em um determinado espaço de tempo. O processo de amostragem é realizado pela determinação de N pontos de amplitude da onda e a representação destes pontos por números que sejam proporcionais às amplitudes. Na Figura 7, cada um dos números contidos na memória do computador é a amplitude da onda em um único instante de tempo. Um som contendo freqüências limitadas pode então ser representado por uma seqüência de números.
Figura 7 - O processo de reprodução do som digital.
A taxa de amostragem (“sampling rate” - SR) deve ser no mínimo o dobro da freqüência que está sendo amostrada, ou seja, a maior freqüência do som amostrado deve estar entre 0 e a SR/2. Logo, um som que contenha freqüências neste limite pode ser representado por amostragem digital. Ao exceder este limite, o processo de “sampling” gera erros denominados de “foldovers” ou distorções de “aliasing”. Tais erros são distorções e reflexões de freqüências ouvidas na escala entre 0 e a SR. O processo de quantização , mostrado na Figura 8, é usado quando o nível dinâmico (amplitude) de uma determinada amostra fica entre dois valores digitais. Então a quantização consiste em arredondar o nível dinâmico para o valor mais próximo. Suponha que o computador da Figura 7 trabalhe apenas com dois dígitos. Dessa forma todos os números contidos na memória e que representam as amplitudes entre 10,5 e 11,5 serão repre- sentados pelo número 11. Se o computador em questão utilizasse até três dígitos, então as amplitudes entre 10,65 e 10,75 seriam quantizadas para 10,7. Da mesma forma, para um nível maior de detalhamento na representação das amostras é necessária uma quantidade maior de bits por amostra, o que é conhecido como a resolução do áudio digitalizado.
Figura 8 - Quantização e erros de quantização.
Introdução à Computação Musical
Três fatores predominantes determinam a qualidade do som digitalizado:
Tabela 3: Valores possíveis de representar com diferentes precisões binárias.
Quantidade de bits Números representados 3 8 4 16 8 256 10 1. 12 4. 14 16. 16 65.
A resolução ideal é aquela que utiliza o maior número possível de bits. Mas como isso tem um custo, a saída é optar por uma situação otimizada.
números de 16 bits (2 bytes), serão usados 44.100 * 2 bytes, ou seja, 88.200 bytes. Dessa forma, podemos calcular que para digitalizar l minuto de música com essa qualidade, seriam necessários 5.292.000 bytes, ou seja, mais ou menos 5 megabytes (MB) de memória. Um disco CD, por exemplo, que pode conter cerca de 74 minutos de música digitalizada (a 44,1kHz, 16 bits, em estéreo), possui capacidade de armazenamento de 650 MB. Exemplo: Freqüência de amostragem: 44,1kHz Resolução: 16 bits ⇒ 44.100 * 16 = 705.600 bits ou 88.200 bytes (86,15 kB) para cada segundo. Para digitalizar um minuto de música com qualidade de CD: ⇒ 88.200 * 60 = 5.292.000 bytes ou +/- 5 MB (10 MB no caso de som estéreo).
A partir da idéia básica da amostragem digital explicada acima, criaram-se muitas formas de codificar o som para que seja processado em computadores, o que resulta na existência de uma quantidade equivalente de formatos de arquivo para o armazenamento do som digitalizado. Os formatos de arquivo mais utilizados para o processamento de som são:
Atualmente existem vários fabricantes de software para gravação de áudio digital, como a Digidesign (fabricante do Pro Tools) e a Steinberg (fabricante do Nuendo e do Cubase). Os programas tornam o computador um estúdio digital “multitrack” para gravação, edição, processamento e mixagem de áudio digital. Além dos gravadores existe uma outra categoria de programas
Introdução à Computação Musical
A ligação entre os instrumentos pode ser feita da seguinte forma (Figura 10): O instrumento mestre transmite por MIDI OUT os dados gerados nele próprio (gerados pela execução do músico em seu teclado). O instrumento escravo 1 recebe os dados do mestre através de sua entrada MIDI IN, executa os comandos se estiver habilitado para isso e, executando ou não os comandos, retransmite por MIDI THRU todas as mensagens que recebe. O instrumento escravo 2, por sua vez, recebe por MIDI IN as mensagens do mestre (que passaram pelo escravo 1). Se houvesse mais instrumentos, estes poderiam ser incluídos sucessivamente no encadeamento, usando o esquema de ligação THRU-IN- THRU-IN, etc. Além disso, nada impede que um desses escravos possa ser o mestre de um encadeamento secundário. Como podemos perceber, a concepção do encadeamento MIDI permite a implementação de sistemas complexos, com vários instrumentos encadeados em série, comandados por um ou mais deles.
Figura 10 - Exemplo de encadeamento de conexões MIDI.
Um dos recursos mais poderosos do MIDI é a possibilidade de se endereçar mensagens para determinados equipamentos, de uma forma discriminada. Isso é feito através de 16 canais de MIDI, algo que funciona de forma semelhante aos canais de televisão. Quando um instrumento transmite uma mensagem (por exemplo, uma nota pressionada), inclui nesta um código que identifica um canal (no caso, um canal de transmissão). Para que um outro instrumento possa executar o comando contido naquela mensagem, é necessário, em princípio, que ele esteja ajustado para receber no canal de mesmo número daquele codificado na mensagem. Se isso não ocorrer, o instrumento ignora a mensagem, pois ela não está destinada a ele (ao seu canal de recepção). Com os 16 canais de MIDI, pode-se transmitir informações diferentes para até 16 instrumentos, simultaneamente, através do mesmo cabo, de forma que é possível ter-se até 16 instrumentos comandados por um mestre (um seqüenciador, por exemplo) que lhes transmite todas as notas a serem executadas, como se fossem 16 músicos tocando seus instrumentos, individualmente. Algumas interfaces, entretanto, possuem mais do que um par de conectores, oferecendo múltiplas saídas que permitem expandir além do limite dos 16 canais, possibilitando ter-se um sistema de 16 canais em cada uma das saídas MIDI OUT. Dessa forma, usando-se uma interface com duas saídas MIDI OUT, por exemplo, pode-se endereçar até 32 instrumentos diferentes, tocando notas totalmente independentes, pois uma das saídas constitui-se em um sistema próprio de 16 canais (pode-se ter um equipamento A conectado à MIDI OUT 1 e recebendo pelo canal 1, e ter um equipamento B
recebendo outras informações diferentes também pelo canal 1, mas pela MIDI OUT 2). É importante certificar-se de que a interface possui realmente saídas independentes, pois pode acontecer que as MIDI OUT sejam duplicadas, isto é, que os mesmos dados são transmitidos igualmente por todas as MIDI OUT (esse último caso não caracteriza saídas múltiplas). Evidentemente, para se operar as saídas múltiplas é necessário que o software usado suporte tal recurso (o que acontece na maioria deles).
Existem dois tipos de interfaces MIDI: internas e externas. Uma interface interna é a placa de som que é inserida em um dos conectores (“slots”) internos de expansão, por onde o computador entrega e acessa dados na interface. Na face externa da placa estão os conectores MIDI, que permitem interligá-la aos demais instrumentos musicais. Na interface externa, por sua vez, o circuito eletrônico está contido em uma pequena caixa, que, dependendo do modelo, é ligada ao computador através da porta paralela (normalmente usada pelo mouse ou pelo modem). As interfaces internas em geral são mais baratas, pois dispensam acabamento (caixa, pintura, etc.), enquanto as interfaces externas são a solução para usuários de computadores portáteis (laptops e notebooks), que não dispõem de conectores internos de expansão e não podem por isso usar placas internas.
As informações são transmitidas por mensagens digitais, cujo tamanho (em bytes - grupos de 8 bits) varia, dependendo da finalidade. Todas as mensagens contém um código inicial, chamado de Byte de Status, que determina o teor da mensagem. Algumas mensagens contêm ainda um ou mais Bytes de Dados, que complementam a informação que está sendo transmitida (Figura 11).
Figura 11 - Transmissão de uma mensagem MIDI.
(Segundo a MIDI Specification 1.0 - MIDI M ANUFACTURERS ASSOCIATION, 2004)
Msg de Voz
Msg de Modo
M
sg
de canal
-liga/desliga nota -alteração de controle -mudança de programa -pós-pressionamento -desvio de tom
-cancela todos os controladores -controladores em modo local -cancela todas as notas -desativa modo Omni -ativa modo Omini -ativa apenas uma voz -ativa polifonia
Miletto et al.
M
s g^
de
sistema
-pedido de afinação -indicador de posição de música -selecionar música
-sensor ativo -base de tempo -início -término -continuar -cancelar sistema
-Msg em Tempo Real
-início de msg. exclusiva -fim de msg exclusiva(EOX)
Geralmente a primeira idéia que vem a uma pessoa pouco familiarizada com os aspectos relativos ao sintetizador é a da sua utilização como simulador de instrumentos utilizados na música clássica como, por exemplo, o som das cordas da orquestra. Mas a verdadeira função do sintetizador não é a de imitar, e sim a de criar sons totalmente inéditos e irrealizáveis por outros métodos. A imitação é uma função adicional do sintetizador e, portanto, não se pode esperar que os sons sejam exatamente iguais aos instrumentos os quais se pretende imitar ou simular. Existem várias técnicas que podem ser utilizadas para sintetizar sons. Muitas delas utilizam o modelo de fonte e modificadores do som. O uso desse modelo fica mais claro na síntese subtrativa, mas ele pode ser aplicado a outros métodos de síntese como a Waveshaping (distorção de fase), ou a modelagem física, por exemplo. Alguns métodos de síntese são mais complexos, como a síntese FM (freqüência modulada). Uma metáfora de modelo desses métodos mais complexos pode ser muito difícil de compreender. Esta é uma das razões pela qual os métodos mais fáceis de compreender como as sínteses subtrativa e por onda fixa obtiveram um maior sucesso comercial. Os sintetizadores digitais implementam diferentes técnicas de síntese sonora. No entanto, a síntese subtrativa é comum a quase todos os sintetizadores comerciais. Certos sintetizadores apresentam mais de uma forma de síntese e até combinações delas.
Segundo DE POLI (1989), o método de síntese por onda fixa é um dos mais simples e procura repetir periodicamente uma onda gerando um sinal periódico por uma repetição contínua desta onda. A técnica é levada a cabo por um módulo chamado de oscilador, o qual repete a onda com amplitude e freqüência especificadas. Em certos casos, a onda é característica do oscilador e não pode ser modificada. Mas geralmente ela pode ser escolhida em um conjunto predeterminado de opções ou fornecida explicitamente quando requisitada. Usualmente, na síntese digital, o valor da onda em determinado instante não é computada novamente para cada amostra. Em vez disto, uma tabela, contendo os valores periódicos computados em pontos eqüidistantes, é construída de antemão. Obviamente, quanto mais numerosos os pontos na tabela, melhor será a aproximação. Para produzir a amostra, o oscilador requer o valor da onda naquele exato instante. Ele procura ciclicamente na tabela pelo ponto mais próximo ao requisitado. Por vezes uma maior precisão é obtida pela interpolação entre dois pontos adjacentes. Os resultados da síntese por onda fixa são de baixa qualidade musical, já que o som não apresenta nenhuma variação ao longo de sua duração. Esta técnica pode ser modificada permitindo-se que a amplitude varie no tempo. Em sons reais, a amplitude é raramente constante: ela começa em zero, alcança um máximo
após um certo tempo (ataque), permanece aproximadamente constante e, após uma certa evolução, retorna a zero (relaxamento). Esta seqüência de comportamento da amplitude é chamada de envolvente da onda. Portanto, quando a amplitude varia de acordo com uma função de controle, temos síntese por onda fixa com envolvente de amplitude (DE POLI , 1989). A envolvente pode ser gerada de muitas maneiras. Em síntese baseada em software, o método mais freqüente usa um módulo oscilador, visto anteriormente, usando uma freqüência muito baixa igual ao inverso da duração. Neste caso, ele realiza um único ciclo e sua onda corresponde à envolvente de amplitude. Analisando-se cuidadosamente sons periódicos naturais, foi demonstrado que mesmo os mais estáveis contém pequenas flutuações de freqüência. Estas melhoram a qualidade do som e evitam pulsações desagradáveis quando mais sons estão soando ao mesmo tempo. A técnica por onda fixa pode também ser modificada de modo a que a freqüência do oscilador possa variar em torno de um valor. Isto permite a produção de um efeito de trêmolo e, com variações mais amplas, de um glissando ou melodias. A combinação dessas duas variações constitui a síntese por onda fixa com amplitude e freqüência variáveis no tempo. A onda é fixa, enquanto a amplitude e freqüência variam. As parciais são múltiplas exatas da fundamental, e todas se comportam da mesma maneira. A síntese por onda fixa é realizada de modo bem simples. Daí ser utilizada quando boa qualidade sonora não é exigida. A onda constante dá ao som um caráter mecânico, abafado e artificial, que logo aborrece a audiência. Por causa disto, em aplicações musicais, a síntese por onda fixa não é muito eficaz quando usada sozinha. Ela é empregada pela sua simplicidade quando variedade de timbres não é requerida, por exemplo, para síntese em tempo real em hardware bastante limitado. Por economia, outros métodos de geração de onda que não utilizam tabelas ou multiplicações foram concebidos. O mais simples deles gera uma onda quadrada ou (mais usualmente) retangular, através da alternância de seqüências de amostras positivas e negativas do mesmo valor. As freqüências que podem ser obtidas são submúltiplas da taxa de amostragem (DE POLI , 1989).
Na síntese aditiva, sons complexos são produzidos pela superposição de sons elementares. Em certas condições, os sons constituintes se fundem e o resultado é percebido como um único som. Este procedimento também é utilizado em alguns instrumentos tradicionais. Em um órgão, os tubos geralmente produzem sons relativamente simples; para obter-se um esp ectro mais rico em certos registros, notas são criadas usando-se mais tubos soando em diferentes alturas ao mesmo tempo. O piano usa um procedimento diferente. Muitas notas são obtidas pela percussão simultânea de duas ou três cordas, cada uma oscilando a uma freqüência levemente diferente. Isto melhora a intensidade do som e a enriquece com pulsações. Segundo DE POLI (1989), para escolher os sons elementares da síntese aditiva, primeiramente notamos que o modelo de análise de Fourier nos permite analisar sons de um modo similar ao do ouvido humano e assim extrair parâmetros que são significativos em termos de percepção. Ao analisar-mos um som real relativamente periódico, imediatamente notamos que cada amplitude parcial não é proporcionalmente constante, mas varia no tempo de acordo com diferentes leis. Qualquer som relativamente periódico pode ser aproximado por um somatório de senóides. A freqüência de cada onda senoidal é praticamente múltipla da fundamental, e cada senóide evolui no
Miletto et al.
Permitem ao músico realizar composições, arranjos e auto- acompanhamento. Podemos incluir nessa categoria os programas arranjadores , onde além de arranjos é possível criar uma composição completa com certa rapidez e eficiência. Para isso, devemos fornecer informações básicas da música (andamento, harmonia, número de compassos, instrumentos para cada parte do arranjo, etc.) deixando que o programa se encarregue do restante, gerando e executando a música via MIDI. Os programas de acompanhamento agem de forma semelhante aos teclados de acompanhamento automático. Produzem auto-acompanhamento e ritmos em tempo-real, a partir das notas executadas em um instrumento MIDI.
Serve para editar e imprimir partituras, permitindo a inserção de notas tanto usando o mouse como diretamente de uma execução em instrumento MIDI. A gravação e execução em tempo real da música por meio de instrumento MIDI são também características interessantes. Além disso, permite ainda importar arquivos padrão do formato MIDI gerado por outros programas. Geralmente possuem bastante flexibilidade permitindo escolher tipos de pautas (normal, tablatura, ritmo), símbolos musicais, múltiplas vozes por pauta, etc., além de oferecer recursos para edição da letra da música. Há também facilidades para se acessar e extrair partes da partitura, e a impressão, em geral, pode ser dimensionada e configurada pelo usuário.
Auxilia na realização de composições e pré-produção. Alguns possuem recursos de OCR (Optical Character Recognition), ou seja, pode-se digitalizar (ou “escanear”) partituras em papel. O programa, então, reconhece os símbolos e os transfere, editáveis, para a partitura digital. Com isso pode-se recuperar ou reescrever partituras em papel e inclusive convertê-las para o formato MIDI.
Permite gravar múltiplas e simultâneas trilhas de áudio digitalizado. Estes programas facilitam bastante as atividades de composição já que permitem procedimentos como o overdub , isto é, a gravação de um instrumento como base em uma trilha (canal) e em seguida os demais em outras trilhas, ouvindo o instrumento base (já gravado). Com os dados sonoros na memória do computador temos inúmeras possibilidades de manipular o som digitalmente para obter resultados desejados, como o processamento (edição) de algumas características do som, equalização, afinação, compressão de tempo, etc. É desejável que o computador tenha bom desempenho (velocidade da CPU e grande quantidade de memória RAM e espaço em disco rígido) para que mais trilhas possam ser gravadas e executadas simultaneamente.
Próprios para a gravação multicanal (“multitrack”) de instrumentos, produção e edição de áudio, produção musical, acústica e engenharia de áudio.
É o mais usado para música. Permite gravação, execução e edição de músicas no formato MIDI. A música instrumental é gravada via MIDI, usando um teclado ou outro tipo de instrumento controlador MIDI, e armazenada pelo software, podendo, então, ser editada. Como não são sons que estão armazenados, e sim as informações de execução das notas, é possível escolher diferentes instrumentos para tocar a mesma música. A música criada no seqüenciador pode ser exportada para outros programas MIDI (por exemplo o editor de partituras) usando o formato padrão Standard MIDI File. Também é possível importar músicas de outro software para editá-las. Podemos, em alguns desses programas, gravar trilhas de áudio digital junto com a música MIDI e, assim, operar como o gravador de áudio. Dessa forma, eles integram as duas tarefas (seqüen- ciamento MIDI e gravação de áudio) e tornam a operação mais fácil para o usuário.
São programas próprios para produção de música, composição musical e pré-produção.
Esses programas geram sons (timbres) a partir de amostras sonoras armazenadas ou por algum processo de síntese digital. Alguns programas sintetizadores podem tocar os sons em tempo- real, a partir de comandos de notas MIDI executados por um seqüenciador ou por uma pessoa tocando um instrumento MIDI. Atualmente, os ambientes para síntese (sintetizadores virtuais) caracterizam-se pela facilidade de uso da sua interface gráfica, onde os controles dos parâmetros de síntese são exibidos como botões e sliders , facilitando a interação e simulando o fun- cionamento dos sintetizadores reais. Dentro dessa categoria existem os editores de timbres. Através da interface MIDI que conecta o computador ao teclado sintetizador, o usuário pode carregar os dados da memória deste para a memória do computador, editá-los, armazená-los, realizar cópias de segurança e enviá-los de volta para a memória do instrumento.
Possibilitam a criação e alteração de sons, o armazenamento de bibliotecas de timbres, a pesquisa de timbres e novas sonoridades. A Tabela 4 exemplifica alguns produtos existentes no mercado separados por categoria. No Anexo 1 são fornecidos os endereços eletrônicos dos programas listados na tabela.
Introdução à Computação Musical
Tabela 4: Características dos softwares musicais e alguns exemplos.
Recursos desejáveis para utilização do software Requisitos mínimos para uso
Exemplos de softwares
Acompanhamento
Biblioteca de estilos, controle do arranjo, editor de estilos, gravação da melodia, harmonização da melodia, controles de expressividade, impressão da partitura, edição e impressão da letra da música, configuração de sintetizador e suporte a MIDI file
Interface MIDI, Teclado ou controlador MIDI e Impressora
Arranger’s tool, Band- in-a-box, CAMPS, Jammin’keys, Visual Arranger, WinChime
Edição de partitura
Tipos de claves, Múltiplas vozes, Letra da música e cifra, Ferramentas de edição, Editor de símbolos, gravação/execução via MDI, Quantização, seleção de bancos, Listas de instrumentos, Múltiplas portas MIDI, Suporte a arquivos Standard MIDI Files
Interface MIDI, Instrumento controlador MIDI e Impressora
Sibelius, Encore, Finale
Gravação de áudio
Múltiplas entradas e saídas de áudio suporte a vários arquivos de áudio, gravação multipista, Controle de volume e pan, Ferramentas de edição, Processamento de sinal, Sincronização externa, Recursos de backup, instrumentos virtuais
Placa de áudio, Espaço em disco, Equipamentos para gravação e audição, Velocidade de processamento e Dispositivo de backup
Pro Tools, Sonar, Logic Audio Platinum, SAW Studio, SoundForge
Instrução
Diversidade de exercícios de teoria e percepção, Tabela de resultados, Suporte a MIDI
Interface MIDI Instrumento MIDI Microfone Placa de áudio
Multimedia Elements of Music, Musique, Keyboard Intervals, Auralia, Ear Training, Listen, Keyboard Skills, Music Lessons
Seqüenciamento
Configuração do modo de gravação MIDI Gravação em loop, overdub, punch-in-out, Ferramentas de edição, Quantização Suporte a seleção de bancos de som,Listas de instrumentos, Múltiplas portas MIDI, Edição gráfica, Mixer Visualização da pauta, Sincronismo externo, Suporte a SysEx, Trilhas de áudio, Instrumentos virtuais
Interface MIDI, controlador MIDI, Dispositivo SMTPE, Placa de áudio, Espaço e velocidade no disco rígido, Equipamentos de áudio, Computador rápido, Vídeo com resposta rápida
Cakewalk, Cubase, Logic Audio, Vision
Síntese
Polifonia, Multitimbralidade Compatibilidade com General MIDI Possibilidade de Expansão Operação com seqüenciador
Placa de áudio, Velocidade de processamento, Espaço em disco, Interface MIDI ou seqüenciador MIDI
VAZ, Virtual SoundCanvas, Reaktor, Csound, Max/MSP e Plug-ins
Esta seção tem por objetivo realizar uma revisão sobre os principais ambientes de programação e linguagens para o domínio da computação musical. Devido à grande quantidade existente procurou-se salientar os ambientes/linguagens com características tais como interface visual, possibilidade de interação na Web e uso do protocolo MIDI, resumidas na Tabela 5 ao final desta seção. Além das que estão aqui detalhadas, encorajamos o leitor a pesquisar algumas linguagens clássicas da CM:
(RECORDARE , 2004b) É um formato de troca musical para programas musicais. O objetivo é criar um tradutor universal para a notação musical ocidental. A informação musical é projetada para ser usada por programas de notação, seqüenciadores e outros programas de
performance, programas de educação musical e banco de dados musicais. Antes do MusicXML o único formato de troca musical comumente suportado foi o MIDI, que é uma boa solução de formato para aplicações de performance como seqüenciadores, porém não o é para outras aplicações como notação musical. MIDI não “sabe” a diferença entre Fá sustenido e Sol bemol, por exemplo, além de não representar ligaduras, compassos e outros aspectos da notação. O uso do XML nos livra da preocupação sobre a sintaxe básica da linguagem, mantendo a preocupação apenas com a semântica - “o que representar”, em vez de “como representar”. Similarmente, não há necessidade para escrever um “parser” para ler a linguagem, pois esses já existem. O DTD de MusicXML está disponível sobre licença (“royalty- free”) da Recordare (RECORDARE , 2004a). Essa licença é modelada com base no W3C (W3C, 2004), ou seja, seguindo os seus termos não é necessário pagar para usar MusicXML nos produtos. Algumas companhias e desenvolvedores de software que estão usando MusicXML em seus produtos: Finale 2003 para Windows, SharpEye Music Reader, Dolet para Finale, Dolet para Sibelius, Igor Engraver, MusicEase, Virtual Composer, BarFly, MuseBook,
Introdução à Computação Musical
É uma API do Java que especifica mecanismos para capturar, processar e reproduzir dados de áudio e MIDI promovendo flexibilidade e extensibilidade. É um mecanismo de 64 canais para renderização de áudio e controlador MIDI de síntese que oferece confiança e alta qualidade sonora em todas as plataformas Java 2. Também suporta um conjunto de bancos sonoros General MIDI de alta qualidade. Segundo os seus fabricantes os maiores benefícios são a consistência, a confiabilidade e a alta qualidade de áudio em todas as plataformas baseadas em Java. Os desenvolvedores têm a certeza de que seu áudio será reproduzido com fidelidade nessas plataformas, necessitando apenas um conversor para áudio digital simples (DAC). Java Sound faz pequeno uso da CPU para processar arquivos de som, por exemplo, um MIDI de 24 vozes usará apenas 20% da CPU de um sistema com Pentium 90 MHz. Os formatos de áudio suportados são AIFF, AU e WAV. Também suporta o padrão MIDI SMF tipo 0 (Standard MIDI File), SMF tipo 1 e RMF. Como pode ser usado via applets Java Sound se torna uma boa opção em termos de portabilidade rodando em navegadores (“browsers”) da Internet.
(IRCAM, 2004a) É um ambiente para programação visual altamente modular para performances multi-modo e música em tempo-real desenvolvido pelo IRCAM. Proporciona também conexão para sistemas de performance, processamento de vídeo e sistemas de áudio 3D avançados. A separação do mecanismo de tempo-real escrito em C da interface em Java, garante a portabilidade em várias plataformas. Algumas das principais características:
coordenação de processamento sonoro ao vivo enquanto é executado.
Tabela 5: Síntese das linguagens, ferramentas e ambientes de programação para computação musical. Interface com o usuário Plataforma Formato Forma de programação Music XML Texto Web MIDI Tags do tipo HTML JMSL Gráfico/texto Que possua JVM ou Web (applet)
MIDI Script/applet
SMDL Texto Web MIDI Tags do tipo HTML 4ML Texto Web MIDI Tags do tipo HTML OpenMusic Gráfico (ambiente visual próprio)
Macintosh Áudio/MIDI Conexão visual de objetos sonoros JavaSound Gráfico/texto Web Áudio/MIDI Script/applet jMax Gráfico (ambiente visual próprio)
Macintosh/Linux Áudio/MIDI Conexão visual de objetos sonoros
Esta seção se destina a fornecer resumidamente uma visão panorâmica dos tópicos de pesquisa mais recentes dentro da computação musical. Entretanto é possível um aprofundamento nesses temas seguindo as referências citadas ao longo dos textos das subseções. São abordados os temas de Inteligência Artificial e Música, Música Evolutiva, Autômatos Celulares e Interfaces Gestuais para Controle Musical. Grande parte destes temas estão baseados na pesquisas do Prof. Eduardo Miranda (M IRANDA , 2004), colaborador do Grupo de Computação Musical da UFRGS.
A Inteligência Artificial tem desempenhado um importante papel na história da computação musical, praticamente desde o seu surgimento nos anos 50. Basicamente são 3 os tipos de sistemas musicais computacionais baseados em IA: sistemas composi- cionais, sistemas de improviso e sistemas para performance musical, embora os dois primeiros tenham sido mais enfocados pelas pesquisas recentes. A idéia básica aplicada aos sistemas de performance musical é tentar capturar o “toque” ou “feeling” do músico, ou seja, o conhecimento aplicado por meio de regras
Miletto et al.
quando uma partitura é tocada. O conhecimento da performance não diz respeito somente a características técnicas mas também aos aspectos afetivos implícitos na música, o que é adquirido pelo homem através de um longo processo de observação e imitação. Mais detalhes podem ser vistos em (COPE, 2004) e (M IRANDA , 2000).
Computação evolutiva é uma ferramenta poderosa para estudar as origens e evolução da música. Música, neste caso, é estudada como um sistema dinâmico complexo e adaptativo e sua origem e evolução são estudadas no contexto das convenções culturais que podem emerger de aspectos psicológicos, sociológicos e ecológicos. Alguns experimentos realizados incluem sociedades de agentes computacionais onde compositores são “machos” e as “fêmeas” são os críticos. Outros experimentos envolvem comunidades de agentes autônomos dotados de um sintetizador vocal, ouvido e memória.
Consiste em um grupo de células que evoluem no tempo seguindo uma regra pré-definida. A cada segmento de tempo, todas as células trocam seus estados dependendo das condições das células vizinhas. Começando com um estado aleatório, o autômato celular rapidamente decide a formação de padrões de oscilação eventuais e orgânicos. Quando isto é traduzido para o som, uma complexa evolução de formas de onda é gerada com uma rica textura. O software Chaosynth (HARMONY CENTRAL,
Esta área envolve além dos conceitos de computação musical também os de interação humano-computador e está focada nos diferentes tipos de sensores e seus usos expressivos em dispositivos para controlar instrumentos eletrônicos. Tópicos mais específicos podem abranger, por exemplo, conceitos de instrumentos musicais virtuais, técnicas de captura gestual, estratégias de mapeamento gestual, respostas sensitivas, etc. Outras tendências sobre controle gestual de música podem ser encontrados em (WANDERLEY & BATTIER, 2000).
Nesta seção apresentamos algumas das pesquisas que estão sendo desenvolvidas no Brasil, especificamente no Grupo de Computação Musical da UFRGS, que resultaram em Tese de Doutorado e Dissertações de Mestrado, assim identificados no texto. Um resumo de cada trabalho é apresentado para que o leitor tenha idéia dos temas abordados. Outras informações poderão ser encontradas no site do CME – Centro de Música Eletrônica da UFRGS, acessível em http://www.musicaeletronica.ufrgs.br ou diretamente com os autores.
Autor: Leandro L. Costalonga (Dissertação de Mestrado) “Polvo Violonista” é um sistema capaz simular performances rítmicas no violão imitando, principalmente, a interação entre as mãos do violonista, computacionalmente representadas por agentes. O sincronismo entre os agentes, somado ao conhecimento e restrições intrínsecas de cada um, leva o sistema (comunidade
multiagente) a tomar as decisões que permitem a geração do som. De maneira simplificada, pode-se afirmar que a mão esquerda do violonista é responsável pela montagem e execução dos acordes, ao passo que a mão direita determina e trata de aspectos e efeitos rítmicos. Através desta visão computacional agentificada, pode-se extrapolar algumas características humanas do violonista e, por exemplo, imaginá-lo com mais de uma direita ou executando técnicas rítmicas impossíveis (ou muito difíceis) aos humanos. Este trabalho tem como foco o ritmo em uma notação popular para músicos (ou aprendizes) sem uma formação acadêmica. A popularização do conhecimento musical está embasada em pesquisas que demonstram a falta de conhecimento acadêmico de música entre pessoas que tocam algum instrumento (amadores). O objetivo é conseguir representar computacionalmente padrões rítmicos para violão e trabalhá-los de forma a obter novas sonoridades. Os usos da Inteligência Artificial através de redes neurais vêem contribuir no reconhecimento automático de padrões rítmicos, proposição de novos arranjos ou simplesmente uma nova digitação baseando-se no padrão rítmico; Enfim, não faltam possibilidades para integração da Música com a Computação, em especial com a Inteligência Artificial.
Autor: Evandro Manara Miletto (Dissertação de Mestrado) CODES (Cooperative Sound Design) é um ambiente para prototipação musical cooperativa na Web destinado a usuários de computador entusiastas de música (ou até mesmo músicos) que desejam prototipar e compartilhar suas idéias musicais, interagindo entre si e com o ambiente. Embora seja um trabalho multidisciplinar, o foco desta pesquisa será principalmente nos aspectos tecnológicos de computação musical e interação humano- computador (IHC). CODES associa conceitos de IHC, Computer Music e CSCW para permitir que pessoas possam experimentar a sensação de criar e desenvolver suas habilidades artísticas e culturais através da música. Acreditamos que é possível fomentar cada vez mais o interesse pela música usando formas alternativas para experimentação sonora e fomentando a interação entre os interessados. Mesmo apresentando algumas restrições relativas ao tráfego de informações a tecnologia da Internet faz com que o computador se direcione definitivamente como uma ferramenta para realizações musicais. Exemplos das suas possibilidades é a chamada ciberarte, onde uma das características mais constantes é a participação do público como uma espécie de co-produção da obra pela intervenção direta dos seus participantes. O sistema fornece possibilidades para os usuários criarem exemplos de música (protótipos) de que podem ser testados, modificados e escutados constantemente, tanto pelo seu criador inicial quanto pelos seus “parceiros” irão cooperar para o refinamento deste protótipo musical.
Autor: Rodolfo D. Wulfhorst (Dissertação de Mestrado) O presente trabalho propõe um modelo de um sistema multiagente para o domínio musical. Acredita-se que muitos problemas da computação musical podem ser abordados através de sistemas multiagentes musicais. A proposta é baseada em uma comunidade de agentes que interagem através de eventos musicais (MIDI) simulando o comportamento de um grupo musical. É a
Miletto et al.
McQUEER, R. The USENET MIDI Primer. 1989. Disponível em http://mitpress2.mit.edu/e-journals/Computer-Music- Journal/links/midi/index.html. Acessado em abril de 2004.
MIDI MANUFACTURERS ASSOCIATION. Disponível em http://www.midi.org. Acessado em abril de 2004.
MIRANDA, E. R. (Ed.). Readings in Music and Artificial Intelligence. Amsterdam: Harwood Academic Publishers, 2000.
MIRANDA, E. R. Neuromusic. Disponível em http://neuromusic.soc.plymouth.ac.uk. Acessado em abril de 2004.
MIT PRESS. Leonardo Music Journal. Dec. 2003. Disponível em http://mitpress2.mit.edu/e-journals/Leonardo/lmj. Acessado em abril de 2004.
MIT PRESS. Computer Music Journal. Disponível em http://mitpress2.mit.edu/e-journals/Computer-Music-Journal e http://mitpress.mit.edu/cmj. Acessado em abril de 2004[a].
MIT PRESS. The Csound FrontPage @ MIT Press. Disponível em http://mitpress.mit.edu/e-books/csound/frontpage.html. Acessado em abril de 2004[b].
MOORE, F. R. pcmusic Information. 1995. Disponível em http://www.crca.ucsd.edu/cmusic/cmusicpc.html. Acessado em abril de 2004.
PALOMBINI, C. The Brazilian Group for Computer Music Research : A Proto-History. Leonardo Music Journal, [S.l.], v.10, p.13-20, 2000.
RECORDARE. Disponível em http://www.recordare.com. Acessado em abril de 2004[a].
RECORDARE. MusicXML Definition. Disponível em http://www.recordare.com/xml.html. Acessado em abril de 2004[b].
RISSET, J.-C. An Introductory Catalog of Computer Synthesized Sounds. Murray Hill, New Jersey: Bell Laboratories,
ROADS, C. Automated Granular Synthesis of Sounds. Computer Music Journal 2(2):61-62. Cambridge, Massachusetts: MIT Press, 1978.
SOCIEDADE BRASILEIRA DE COMPUTAÇÃO. Portal de Informações da SBC: Comissão Especial de Computação Musical. Disponível em http://www.sbc.org.br/index.php?subject=46. Acessado em abril de 2004[a].
SOCIEDADE BRASILEIRA DE COMPUTAÇÃO. SBC2003 - SBCM. Disponível em http://www.nics.unicamp.br/nucom/portugues. Acessado em abril de 2004[b].
SUN MICROSYSTEMS. Java Sound API. Disponível em http://java.sun.com/products/java-media/sound. Acessado em abril de 2004.
W3C. World Wide Web Consortium. Disponível em http://www.w3.org. Acessado em abril de 2004.
WANDERLEY, M.; BATTIER, M. Trends in Gestural Control of Music. [S.l.]: Ircam - Centre Pompidou, 2000.
XENAKIS, I. Formalized Music. Bloomington, Indiana: Indiana University Press, 1971.
IV Congresso Brasileiro de Computação CBComp 2004 Brasil
Tabela 6: Plataformas e endereços na Internet dos softwares exemplos. SOFTWARES PARA ACOMPANHAMENTO Nome Plataforma Endereço na Internet Arranger’s tool Windows http://www.catovah.com/at.htm Band-in-a-box Windows, Mac, Atari http://www.pgmusic.com/ CAMPS Windows http://www.campspro.com/win4/
Jammin’keys Windows http://www.voyetra.com/site/products/dl_products/serieshome.asp Visual Arranger Windows, Mac http://www.yamaha.co.uk/xg/html/products/p_visual.htm Winchime Windows http://www.sagebrush.com/winchime.htm
SOFTWARES PARA EDIÇÃO DE PARTITURA Sibelius Windows, Mac http://www.sibelius.com/ Encore Windows, Mac http://www.gvox.com/
Finale Windows, Mac http://www.codamusic.com/coda/ SOFTWARES PARA GRAVAÇÃO DE ÁUDIO Pro Tools Windows, Mac http://www.protools.com/ Sonar Windows http://www.cakewalk.com/Products/Recording.asp Logic Áudio Windows, Mac http://www.emagic.de/english/products/logic/las.html Saw Studio Windows http://www.sawstudio.com/
Sound Forge Windows http://www.sonicfoundry.com/ SOFTWARES PARA INSTRUÇÃO MUSICAL Pro Tools Windows, Mac http://www.protools.com/
Samplitude Windows http://europe.magix.com/index.php? Elements of Music
Windows, Mac http://www.ecsmedia.com/indivprods/museom.shtml
Musique Windows, Mac http://www.ecsmedia.com/indivprods/musmusique.shtml Keyboard Intervals
Windows, Mac http://www.ecsmedia.com/indivprods/muskeyintrvl.shtml
SOFTWARES PARA SEQÜENCIAMENTO Cubase Windows, Mac http://www.steinberg.net/
CakeWalk Windows http://www.cakewalk.com/ Logic Áudio Windows, Mac http://www.emagic.de/english/products/logic/las.html Vision Mac http://www.opcode.com/products/visiondsp/ SOFTWARES PARA SÍNTESE SONORA Vaz Windows http://www.software-technology.com/ Max/MSP Mac http://www.cycling74.com/products/maxmsp.html
Csound Windows, Mac, Linux http://www.csounds.com/