Fundación Música Abierta.
Valladolid, 26 al 30 de marzo de 2010
Con el atractivo y aglutinador título “danza interactiva”, la Fundación Música Abierta ha organizado en Valladolid, del 26 al 30 de marzo de 2010, unas jornadas sobre control del sonido digital a través del gesto y el movimiento. La Fundación, con sede en Urueña (Valladolid) tiene como objetivo acercar las prácticas musicales a personas con discapacidad y en esta línea plantea la novedosa aplicación de una herramienta en personas con capacidades motrices limitadas.
El primer gran proyecto de la Fundación ha sido la edición de los Cuadernos de música para disCapacidades, una colección de piezas creadas por nueve compositores contemporáneos (Enrique Igoa, Santiago Lanchares, Sebastián Mariné, Ricardo Moyano, David del Puerto, Jesús Rueda, Ananda Sukarlan, Polo Vallejo y Edson Zampronha) adaptadas para personas con una discapacidad física en la mano derecha (hemiparesia). La mano izquierda utiliza una técnica normal, mientras que la mano derecha está creada bajo una serie de condiciones que, tras un estudio previo de la patología, se les plantearon a los compositores. Los cuadernos están escritos para diversos instrumentos, aunque predomina el piano[1].
En este segundo proyecto, la Fundación Música Abierta ha querido realizar una experiencia de danza con personas que precisamente han tenido dificultades para disfrutar de esta actividad musical: las personas con parálisis cerebral. Esta patología se define como un trastorno “en el control del movimiento y la postura (que) aparece tempranamente en la vida debido a una lesión, disfunción o malformación del Sistema Nervioso Central (SNC) y no es resultado de una enfermedad progresiva o degenerativa” (Malagón 2007: 586[2]).
Las personas con parálisis cerebral han tenido menos posibilidades de participación en experiencias musicales que implican movimiento, como tocar un instrumento o bailar. La inclusión de una herramienta informática para la creación de entornos interactivos de danza implica que independientemente de la calidad, forma, amplitud de movimiento o parte del cuerpo que se mueva, ésta puede controlar sonido. El sistema permite adaptar la producción sonora a las posibilidades motrices de cada intérprete. La “danza interactiva” consiste en la creación de sonidos musicales a través del movimiento de un bailarín. Los movimientos de éste se pueden captar a través de cámaras de vídeo o de sensores. Algunos artistas e investigadores como Robert Wechsler[3], Kia Ng[4], Frederic Bevilacqua[5], Jaime del Val[6], utilizan desde hace varias décadas estos entornos con fines artísticos. Gracias al hecho de que con la música creada a través de ordenador, la relación entre gesto y sonido es arbitraria, se puede adaptar la producción sonora a los movimientos voluntarios más controlados que tiene la persona con parálisis cerebral: una mano, la cabeza e incluso los ojos.
La organización de las jornadas persigue dos objetivos fundamentales: en primer lugar, dar a conocer esta herramienta de potencial aplicación en diferentes ámbitos a profesionales de la danza, la docencia musical y a profesionales que trabajan en el campo de la discapacidad. El otro objetivo es proporcionar una herramienta de expresión musical a personas con capacidad de movimientos muy reducida. Atendiendo a ello, las jornadas constaron de tres partes: una primera parte de conferencias y un concierto, la segunda de talleres prácticos para diversos profesionales y la tercera de experimentación con niños con discapacidad motórica.
Las conferencias impartidas por tres ponentes de relevancia internacional trataron aspectos como el uso de los programas EyesWeb y EyeCon en el diseño de entornos virtuales. Robert Wechsler, del grupo Palindrome (Alemania) ahondó en el uso del EyeCon, software diseñado por Palindrome, en la creación de entornos de danza interactiva con fines artísticos. Serena Zanolla (Universidad de Undine, Italia), pudo mostrar las experiencias de una instalación de la Stanza Logomotoria en un colegio de primaria, un entorno virtual diseñado con EyesWeb que tiene aplicaciones en el campo de la didáctica. Barbara Mazarino (InfoMus Lab, Casa Pagnini, Génova, Italia) profundizó en el uso de entornos basados en la interactividad física en programas terapéuticos. Las conferencias finalizaron con un concierto-demostración a cargo de Robert Wechlser con dos piezas: “7 Memories” (2009) y “Wind Under Moon” (2010).
Robert Wechsler lideró el taller práctico. Tras un breve calentamiento y técnicas corporales, se trasladaron las coreografías de los participantes al entorno interactivo. Los asistentes consiguieron experimentar diversas formas de mapeado donde pudieron, con sus propios movimientos crear sonidos: desde tocar un piano MIDI, uno de los tipos de mapeado más sencillo, hasta solapar diversos sonidos a través del movimiento de varias personas. También se exploró un sensor de tacto, gracias al cual, el contacto físico entre dos personas puede activar la producción de sonidos musicales, y accionar o parar la música. Durante esta misma jornada, Serena Zanolla, llevó a cabo su instalación de la Stanza Logomotoria, destinada a la educación musical con niños. La colocación de la persona en el centro de la sala activa, una historia narrada a través de una voz en off, la exploración periférica del espacio activa ocho sonidos diferentes relacionados con la historia y el alumno debe, según avanza la historia, activar cada sonido en su espacio correspondiente.
Las sesiones de danza interactiva con los niños del Centro Obregón de Parálisis Cerebral de Valladolid, se realizaron conjuntamente por Alicia Peñalba[7] y Robert Wechsler (enlace de vídeo:
www.fundacionmusicabierta.org/es/video-resumen-jornadas-danza-interactiva/art/67/.
La experiencia se realizó con 32 niños, desde 3 hasta 16 años, con el objetivo de dotar de una herramienta de expresión artística a personas con movilidad reducida adaptando el instrumento musical a las posibilidades de movimiento de cada uno. El movimiento del cuerpo del niño provoca respuestas musicales o sonoras. Desde el punto de vista técnico, se crearon los entornos interactivos a través del programa EyeCon y se utilizaron una cámara de vídeo y un sensor de tacto. La experiencia se desarrolló en cinco fases:
Fase de estudio: El trabajo en esta etapa se realizó de forma interdisciplinar. Se llevó a cabo un estudio de las capacidades físicas de cada niño, contando con la colaboración de los fisioterapeutas del Centro Obregón y un análisis de los aspectos cognitivos, gustos musicales, nivel de comunicación, en colaboración con los maestros.
Fase de agrupamiento: tras el estudio de cada niño de forma individual, se organizaron en grupos que tuvieran características funcionales similares, de tal forma que se pudiese diseñar un mismo entorno para cada uno de los grupos.
Fase de diseño del mapeado: se decidieron las posibilidades más factibles de mapeado dependiendo de los diversos grupos. Se utilizaron relaciones muy directas entre sonido y movimiento. Por ejemplo, la posibilidad de tocar melodías con el tacto en las manos y en la cara, la posibilidad de tocar un instrumento con el movimiento voluntario más conservado: brazo, mano, cabeza, la traducción del movimiento en sonido abstracto y la activación de sonido con el movimiento y la desactivación con la ausencia de movimiento, y por último la activación de sonidos concretos en partes del espacio determinadas.
Fase de experimentación: la experiencia se desarrolló durante dos jornadas. A pesar de que se agruparon los niños para diseñar el tipo de mapeado, la experiencia se realizó de forma individual. Cada niño, durante un tiempo aproximado de 5 minutos tuvo la oportunidad para crear sonido con el movimiento de su cuerpo. Algunos resultados preliminares muestran que el uso del sensor de tacto resulta una herramienta muy adecuada en niños de corta edad, debido a que fomenta el contacto afectivo a la vez que la estimulación musical. Se observó que el trabajo basado en músicas conocidas fue más eficaz que el que incorporó músicas no significativas para el alumno. Además, la traducción del movimiento en sonidos abstractos constituyó un mapeado muy eficaz en los niños con mejor nivel cognitivo.
El trabajo futuro irá encaminado hacia la creación de nuevos estímulos sonoros, por lo que se contará con la colaboración de algunos compositores, con el objetivo de evitar los sonidos MIDI. En el futuro también es necesario considerar la posibilidad de realizar un estudio transversal con los niños a lo largo del tiempo, ya que el aprendizaje del manejo de una herramienta informática requiere de un tiempo de adaptación y de aprendizaje que es necesario valorar.
El principal reto de la experiencia de la danza interactiva con personas con parálisis cerebral es conseguir adaptar el entorno a personas con limitación motriz muy reducida, pues son éstas las que menores oportunidades de exploración musical han disfrutado a lo largo de su vida. Por eso, aunque el taller se llevó a cabo fundamentalmente con niños, también se experimentó con un adulto cuyo único movimiento voluntario controlado es el parpadeo, el movimiento de los ojos, un movimiento aparentemente muy imitado, que le permitió tener un control muy amplio del entorno sonoro y musical. Se llevaron a cabo dos tipos de experiencias con él. En uno de los casos, el parpadeo controlaba el cambio de una música a otra. En el otro entorno interactivo el movimiento de los ojos controlaba el recitado de un poema que la persona previamente había elegido. Se grabó el poema y se dividió en sílabas. Cada golpe de ojos permitía la pronunciación de una sílaba. Para acompañar al poema se utilizó la Canción y danza nº 5 para piano de Federico Mompou como fondo.
Las experiencias llevadas a cabo con personas con parálisis cerebral muestran que los entornos de danza interactiva, no sólo pueden constituir herramientas novedosas para la creación musical actual, sino que pueden proporcionar nuevas modalidades de interacción para personas que no pueden, por sus características físicas, relacionarse con los instrumentos con una técnica adecuada. La captura de movimiento a través de cámaras ofrece un entorno libre de cables al intérprete que, a través de un programa informático, en este caso EyeCon, puede hacer significativo casi cualquier movimiento del cuerpo, por pequeño que sea (como el parpadeo voluntario, por ejemplo). Las personas que participaron en la actividad, así como los educadores, profesores y fisioterapeutas, han remarcado su interés por este tipo de experiencias y la necesidad de su estabilización dentro de los centros de personas con discapacidad.
[1] Cuadernos de música para disCapacidades. Ver www.fundacionmusicabierta.org/es/publicaciones/ent/5/
[2] Malagón Valdez, Jorge (2007). “Actualizaciones en neurología infantil. La parálisis Cerebral”. Medicina. Vol. 67, nº 6/1.
[3] Coreógrafo y bailarín del Palindrome Intermedia performance group (www.palindrome.de)
[4] Director del Interdisciplinary Centre for Scientific Research in Music (http://portal.unesco.org/culture/es/ev)
[5] Investigador del IRCAM (París)
[6] Proyecto Reverso (www.reverso.org/)
[7] Doctora en musicología, musicoterapeuta y logopeda. Fundación Música Abierta y Universidad de Valladolid.