quinta-feira, 13 de fevereiro de 2014

NEUROTECNOLOGIA/MÚSICA - Experimento de brasileiro "lê pensamentos" e tranforma em Música

Experimento usa ondas cerebrais para compor música clássica

Um experimento desenvolvido por um brasileiro na Universidade de Plymouth, na Grã-Bretanha, pode transformar em realidade os sonhos de milhares de músicos profissionais e amadores.
Foto: BBC
(imagem - foto colorida de uma pessoa no canto esquerdo com a touca na sua cabeça e diante de um laptop, e bem a sua frente está uma mulher tocando um violoncelo, fotografia sobre o repórter que testou o sistema que capta ondas cerebrais e as transforma em música - BBC)

O projeto de neurotecnologia musical, desenvolvido pelo compositor e professor Eduardo Miranda, "lê pensamentos" - com a ajuda de uma espécie de touca que capta ondas cerebrais - e promete transformá-los em música, mudando completamente o processo tradicional de composição.
O professor planeja usar este sistema para fazer leituras dos cérebros de quatro pessoas e controlar um quarteto de cordas com o resultado. Isto é a base de sua composição mais recente, chamada de Activating Memory (Ativando a memória, em tradução livre).
A repórter de tecnologia da BBC LJ Rich estou a máquina antes da performance musical. Confira seu depoimento abaixo.

O pesquisador e engenheiro Joel Eaton me ajudou a vestir a "touca cerebral", que é cheia de eletrodos de metal e fios.
Segundo Eaton, o eletrodo principal na parte de trás da minha cabeça selecionaria ondas cerebrais do meu córtex visual, enquanto os outros eletrodos ajudariam a cancelar qualquer barulho de fundo.
Para que o sistema funcione, é preciso que o usuário se concentre em um de quatro padrões quadriculados. Eles piscam em ritmos diferentes e cada padrão faz com que a área visual do cérebro emita um sinal elétrico simpático.
O sinal é captado pela touca e enviado ao computador. O aparelho funciona melhor quando o resto do cérebro está relaxado, então o pesquisador me pede para "limpar a mente".
Em seguida, os sinais elétricos do cérebro são amplificados e enviados para um laptop.
Eaton me pediu para prestar atenção em um dos padrões de uma maneira muito específica, focando e desfocando o olhar. Às vezes eu tinha que tirar os olhos da tela e olhar novamente para refrescar o cérebro.
Quando eu acertava, o padrão escolhido enviava uma frase musical para uma tela diante de Jane, uma violoncelista profissional que tocava a música que eu produzia.
Foi muito difícil no começo. Enquanto tentava focar, desfocar e relaxar, eu não conseguia ficar muito animada quando funcionava, porque isso me tirava do estado mental necessário para produzir o sinal.

Dificuldades

Eu esperava que o sistema criasse frases musicais vindas direto do meu cérebro, mas não foi exatamente assim que aconteceu.
Ao invés de compor livremente, minha mente escolheu entre frases musicais pré-prontas, que correspondiam a cada um dos padrões quadriculados. Pode-se dizer que eu fui uma operadora mais do que uma compositora, e que meu cérebro se tornou um instrumento como o violoncelo de Jane.
Quando falamos sobre meu desejo de experimentar uma interface mais eficiente de composição musical diretamente do cérebro, o professor Miranda disse que isso poderia ser fascinante no começo, mas que ficaria chato depois de algum tempo.
Ele gosta do desafio de uma solução imperfeita.
"Humanos gostam de manipular coisas - eu não pretendo eliminar este processo, quero melhorar as ferramentas que ajudem os compositores a conseguir isso talvez de uma maneira diferente", disse ele.
Para pessoas com deficiência de audição, há alguns benefícios óbvios desta interface, até mesmo neste estágio elementar.
O laboratório do Centro Interdisciplinar de Pesquisa de Música Computacional (ICCMR, na sigla em inglês) já realizou algumas pesquisas com um paciente da síndrome do encarceiramento (doença rara em que os movimentos do corpo são paralisados, mas as condições mentais permanecem intactas) com resultados animadores.
Mesmo assim, o sistema não é tão receptivo ao usuário como eu esperava que fosse.
Durante o experimento, foi muito difícil dominar a técnica. Durante o processo, minhas leituras cerebrais caíram muito quando o violoncelo estava sendo tocado. Tivemos que recalibrar o sistema enquanto eu estava ouvindo Jane tocar, porque não conseguia manter a concentração.
Consegui emitir o sinal consistentemente depois de duas horas. Joel e Eduardo me disseram que duas horas é rápido - geralmente leva alguns dias para conseguir pegar o jeito.
FONTE - LJ Rich  Repórter de tecnologia da BBC  http://www.bbc.co.uk/portuguese/noticias/2014/02/140210_musica_computador_rich_cc.shtml
LEIAM TAMBÉM NO MEU BLOG INFOATIVO.DEFNET - 

MÃES, ALZHEIMER E MÚSICA. http://infoativodefnet.blogspot.com.br/2012/05/maes-alzheimer-e-musica.html


Nenhum comentário:

Postar um comentário