Tambortec: sistema musical interativo para performance de música eletrônica dançante Tambortec: sistema musical interativo para performance de música eletrônica dançante


 - Descritores de áudio em tempo real



Baixar 15.96 Mb.
Pdf preview
Página44/72
Encontro30.06.2021
Tamanho15.96 Mb.
#13779
1   ...   40   41   42   43   44   45   46   47   ...   72
5.6 - Descritores de áudio em tempo real 
5.6.1 – Conceitos 
 
Um descritor de áudio é uma característica que descreve o som, atestando  a ele aspectos 
mensuráveis,  qualitativa  ou  quantitativamente.  A  percepção  realizada  pelo  sistema  auditivo 
humano  e  pelo  cérebro  extrai  informações  ligadas  à  intensidade,  agregando  outros  conteúdos, 
como o contorno melódico, o ritmo, a textura e o timbre, características musicais pertencentes à 


 
95 
compreensão  auditiva.  Todo  o  processamento  é  realizado  no  ouvido  em  suas  partes;  da 
amplificação  no  ouvido  externo  à  transdução  no  ouvido  médio  em  vibrações  mecânicas,  que 
processadas  no  ouvido  interno,  são  posteriormente  transmitidas  ao  cérebro  em  sinais 
eletroquímicos  (Rossing,  2007:  429).  Essa  informações  são  interpretadas,  reconhecidas  e 
novamente processadas no córtex auditivo. A classificação dos aspectos mensuráveis do som faz 
parte dos estudos relacionados à percepção humana, como os trabalhos de Helmholtz no século 
XIX.  Atualmente,  novas  pesquisas  e  aplicações  tem  crescido  nas  áreas  de  análise  do  som  onde 
tarefas  como  “[...]  segmentação,  separação,  classificação  e  modelagem  de  texturas  e  estruturas 
presentes  em  trechos  de  música  e  áudio”  (Rossing,  2007:  738)  são  efetivas  em  áreas  diversas, 
como na MIR, Music Information Retrieval, que trabalha com técnicas aplicadas a diversos fins – 
reconhecimento da voz, classificação de gênero musicais, transcrições automáticas, dentre outras. 
Nos  domínios  do  áudio  digital,  ocorrem  abordagens  mais  quantitativas  com  descritores 
numericamente representáveis obtidos em processos computacionais que aplicam a segmentação 
de  áudio,  definida  por  Rossing  como  “[...]  a  quebra  de  uma  amostra  de  áudio  em  seções 
perceptualmente diferentes das seções adjacentes” (2007: 738). Segmentação baseada em súbitas 
mudanças  nas  características  extraídas  do  áudio  é  definida  como  blind  segmentation,  “  [...] 
preferida  quando  as  texturas  dos  segmentos  são  variáveis  e  imprevisíveis,  requerendo  uma 
definição de limiares para atingir melhores resultados”. O autor também define uma segmentação 
baseada  na  comparação  de  características  de  áudio  com  um  conjunto  de  informações  já 
armazenadas  e  catalogadas.  Ambas  técnicas  dependem  da  extração  de  descritores  de  áudio, 
envolvendo  portanto,  a  computação  de  representações  numéricas  de  segmentos  sonoros.  Os 
dados são extraídos de segmentos curtos (5- 100 ms) através  aplicação técnicas de análise como 
a Transformada Rápida de Fourier (2007: 738). 
Pires  (2011:  17)  também  assinala  taxonomias  para  os  descritores  de  áudio  em  projetos 
diversos  destacando  dentre  elas,  o  padrão  MPEG-7  (Multimedia Content Descrition Interface), 
que divide essas características do sinal em seis categorias : 
 
•  Descritores  básicos  –  descritores  no  domínio  do  tempo,  por  exemplo,  sinal  em 
forma de onda ou energia do sinal. 


 
96 
•  Descritores espectrais básicos – descritores extraídos do espectro, como envelopes e 
centroides. 
•  Descritores  de  parâmetros  de  sinal  –  se  aplicam  a  sons  periódicos  na  detecção  da 
frequência fundamental ou harmonicidade. 
•  Descritores  timbrísticos  temporais  -  logaritmo  do  tempo  de  ataque  e  centroide 
temporal. 
•  Descritores timbrísticos espectrais - detecção do desvio, espalhamento e variação do 
espectro harmônico. 
•  Representações  da  base  do  espectro  –  utilizados  para  classificação  e  projeção  do 
espectro. 
 
A  inclusão  das  capacidades  de  síntese  e  processamento  de  sons  em  ambientes  de 
programação  como  o  mencionado  MAX  é  “[...]  inegavelmente  a  ocorrência  única  mais 
importante na música computacional ao vivo nas últimas duas décadas” (Jordà, 2007: 94 apud. 
Collins;  d’Escrivan).  Procedimentos  para  extração  de  informações  musicais  de  sinais  de  áudio 
tem sido desenvolvidos, ocupando uma posição funcional dentro do sistema, atribuída outrora ao 
protocolo MIDI. O formalismo da especificações MIDI, tipicamente lidando com notas, trava um 
paralelo com as informações do sinal de áudio, que fornecem material num fluxo apontado por 
Collins  e  d’Escrivan  (2007:  178)  como  um  evento  “[...]  não  demarcado  precisamente  pelos 
dados”.  Descritores  de  áudio  fornecem  material  importante  na  criação  de  sistemas  interativos 
partindo de sua análise em tempo real, característica preponderante na relação músico-máquina, 
bem como a tomada dessas informações dentro de um sentido musical. A segmentação musical 
em tempo real requer que o computador “[...] possa relacionar entradas derivadas da performance 
a uma representação abstrata, de modo a agendar eventos, tais como partes eletrônicas, efeitos de 
áudio  e  luz”  (Robertson,  2006),  ação  a  qual  Pires  nomina  “automatização  de  gatilhos  em 
performances musicais” (2011: 45). O disparo de eventos de áudio ou vídeo a partir da aquisição, 
análise e aplicação de dados sonoros provenientes da execução ao vivo passam a ser ferramentas 
nos processos criativos de compositores e artistas multimídia.  


 
97 
Linguagens como o  MAX/MSP fornecem em seus “objetos”, elementos básicos em sua 
programação,  caminhos  para  o  fluxo  de  informações  referentes  ao  áudio.  A  busca  por  uma 
simplificação  dos  autores  Miller  S.  Puckette,  T.  Apel  e  D.  Zicarelli  na  elaboração  de  objetos 
descritores de áudio apresentou o fiddle e o bonk como ferramentas de “baixa tecnologia”, com 
processamento leve e compatível com os computadores pessoais (Puckette, 1998).
20
 
Os descritores Zsa também oferecem uma biblioteca de descritores em tempo real para o 
MAX e foram desenvolvidos por um grupo do IRCAM focado em produzir descritores usando a 
sistemática  abordagem  proposta  no  padrão  MPEG-7.  A  biblioteca  é  estruturada  para  computar 
múltiplos descritores com baixo processamento e sincronização garantida (Malt, 2008). 
O presente trabalho descreve os objetos do MAX/MSP usados na aquisição em tempo real 
de  dados  relativos  ao  áudio  do  frame  drum  anteriormente  descrito,  mais  especificamente,  a 
centroide  (centroid)  e  o  declive  espectral  (slope),  presentes  na    biblioteca  Zsa.descriptors
21
.  A 
escolha  dos  descritores  se  deu  em  função  de  suas  aplicações  como  ferramentas  na  tomada  de 
decisões  nas  performances  em  tempo  real  e  sua  robustez  em  relação  ao  processamento 
composicional, como concluído por Malt e Jourdan (2009). 
 


Baixar 15.96 Mb.

Compartilhe com seus amigos:
1   ...   40   41   42   43   44   45   46   47   ...   72




©historiapt.info 2022
enviar mensagem

    Página principal