Hello! Is it me you're looking for? Esperando que así sea, les doy la bienvenida una vez más a mi blog con una nueva entrada, esta vez explorando un tema que tenía pendiente hace tiempo: la música.
| Holi. ¿Me estái buscando a mí? |
[Advertencia: prepárense para muchas referencias musicales. Si leen lo suficientemente lento, pueden aprovecharlas como melodías de fondo.]
¿Qué se puede decir sobre la música en lo que respecta a CSCW? En mi opinión, muchas cosas. La música es en sí una experiencia social, partiendo por el momento en que una (o más) persona/s plasman una idea en una pieza musical que sólo se completa cuando es escuchada por otro/s, trascendiendo así las barreras del tiempo y del espacio.
¿Qué se puede decir sobre la música en lo que respecta a CSCW? En mi opinión, muchas cosas. La música es en sí una experiencia social, partiendo por el momento en que una (o más) persona/s plasman una idea en una pieza musical que sólo se completa cuando es escuchada por otro/s, trascendiendo así las barreras del tiempo y del espacio.
Y, a veces, el rol de la audiencia es mucho más importante de lo que creen.
Entonces, opté por buscar temas variados en el ámbito musical, para así poder explorar distintas miradas en torno a él. Con esto en mente, me dediqué a la revisión de 3 papers: uno sobre interacciones implícitas en música colaborativa (en base a señales del cerebro y latidos del corazón) [1], otro sobre la privacidad y el awareness en la composición de música [2] y el último sobre interacciones proxémicas en sistemas musicales relativos a las habitaciones de una casa [3]. So... let's go!
El primer paper, Listening to Your Brain: Implicit Interaction in Collaborative Music Performances (NIME 2011), presenta un sistema de música colaborativa que combina la interacción implícita basada en señales fisiológicas con la interacción explítica basada en una interfaz tangible para la generación y control de sonido en tiempo real (Reactable).
(Paréntesis:
Las Reactable ya se están usando para la creación y ejecución de música en distintas áreas. Por ejemplo, aquí vemos que usan una en la presentación de Björk en el programa "Later" con Jools Holland:
Gracias, Björk <3.
Fin del paréntesis).
En el prototipo presentado, se usa un sistema de sensores Enobio para capturar biopotenciales, usando particularmente el EEG y la señal cardíaca para sintetizar dos señales de audio que pueden ser modificadas con los respectivos physiopucks. Aquí hay un ejemplo del sistema en funcionamiento (¡MUY recomendado!). Para el experimento diseñado, se le pidió a parejas de 32 participantes que replicaran 15 segundos de música pre-grabada usando el sistema presentado con los mismos pucks al que los participantes tenían acceso. Las parejas, además, tenían roles distintos: uno era el usuario (encargado de operar la Reactable) y el otro el emisor (también manipulaba los pucks, pero era quien entregaba las señales fisiológicas para el sonido). Y, además, las parejas se distribuían en 2 grupos: el "Fisio-grupo" (con los cuales se mapeaban directamente las señales del emisor) y el "Grupo Placebo" (quienes usaban señales de EEG y ritmo cardíaco pre-grabadas sin saberlo). Los resultados encontrados indicaron que el sistema presentado no imponía una mayor dificultad para la colaboración musical y fomentaba la colaboración simétrica entre los participantes, a pesar de que los emisores del grupo placebo expresaron niveles mayores de dificultad y menores de confianza (lo cual también afectaba la experiencia de sus compañeros, los usuarios del grupo placebo). Así, se concluye que la combinación de interacciones implícitas y explícitas es factible para la composición de música colaborativa, y al preservar la distribución balanceada del control entre los colaboradores, se plantea como una gran herramienta en el campo de CSCW y la creación musical.
Este paper, en general, ME ENCANTÓ. Me gustó muchísimo la idea planteada y el prototipo mostrado, me parece muy interesante y creo que da para mucho. Por ejemplo, se me ocurre que podría usarse para crear o modificar en tiempo real la música de los juegos, complementando de mejor forma la experiencia ya que iría de la mano con lo que uno va sintiendo al jugarlo. Mezclando esto con el Oculus Rift... sería hermoso. El único 'pero' que le encuentro al paper es que no entiendo la utilidad de realizar la separación entre los fisio-grupos y los placebo. Claramente se hace más difícil la experiencia si el sistema no te da el feedback que esperas, así que no veo qué se ganaba con hacer la división. Creo que esa parte del experimento es, por decir lo menos, inútil.
En el segundo paper, Hey Man, you're invading my Personal Space! Privacy and Awareness in Collaborative Music (NIME 2010), se presenta un software de creación de música que permite a múltiples usuarios trabajar desde terminales separados para hacer música en conjunto. Se plantea como una herramienta diseñada para músicos, no para usuarios principiantes, y basa su funcionamiento en el depósito de la música en "módulos" dentro de un workspace. Existen 3 configuraciones de interfaz para las que se puede ejecutar el programa: C0 (participantes tienen acceso sólo a un espacio público, en el que todos pueden observar y aportar), C1 (además del espacio público, los participantes cuentan con un espacio personal, al que sólo ellos pueden acceder, ver y escuchar) y C2 (la misma base que C1, pero los usuarios pueden tener vistas de los espacios personales del resto, aunque no pueden editar los objetos de su módulo). El experimento desarrollado consistió en 9 grupos de 3 participantes cada uno, los que probaban las 3 condiciones mencionadas previamente para crear la música complementaria para un corto video animado. Los resultados encontrados fueron... interesantes. Los participantes se sintieron más "fuera de control" en la condición C1, C2 fue considerada la más complicada, trabajaron menos en sus propias cosas en C0, tenían menos awareness de las actividades del resto en C1 y se divirtieron menos con C0. Se concluyó sobre la importancia de los espacios personales, ya que permitían a los usuarios trabajar y pulir sus contribuciones antes de enviarlas al espacio público, lo que favorecía el funcionamiento en paralelo de los participantes.
Sobre este paper, me queda una sensación agridulce. Me parece que la herramienta presentada podría ser útil para facilitar la creación en conjunto de música, pero siento que no se dan muchos datos sobre el funcionamiento de la misma (particularmente en cuanto a la composición en sí). Además, creo que los resultados no son concluyentes respecto a qué modo es mejor (es más, creo que ni siquiera se explican del todo bien las ventajas y desventajas de cada uno de ellos), así que quizás faltó un poco más de análisis ahí. En resumen... una buena idea, pero creo que quedó corto en el desarrollo de los experimentos y las conclusiones.
En el último paper, Proxemic Interaction in a Multi-Room Music System (OzCHI 2013), se presenta AirPlayer, una aplicación para reproducir música en distintas habitaciones de una casa, integrando principios de interacción proxémica para tomar la ubicación y el movimiento del usuario e inferir en qué parte de la casa se encuentra, definiendo así qué tocar y dónde tocarlo. Se contaba con 2 opciones de funcionamiento: uno basado en la ubicación (pudiendo el sistema escoger y reproducir distinta música dependiendo del lugar en que se encontraba el usuario) y otro basado en movimiento (haciendo que la música "siguiera" al usuario a medida que se movía dentro de la casa, activando y desactivando los parlantes de los distintos lugares). Para la evaluación, se instaló un sistema de audio en la casa de 2 familias (con un parlante en la cocina, uno en el living y uno en la pieza), quienes debían anotar sus pensamientos e impresiones sobre el uso de la aplicación en un diario y luego participar en una entrevista. La evaluación de los participantes sobre el uso del sistema fue, en general, buena, y se destacaba por ser muy intuitiva, sencilla y transparente (aunque quizás demasiado, ya que una de las personas mencionó que no se había dado cuenta de que estaba usando la función por ubicación, pensando que estaba asociada a la función por movimiento). La conclusión del paper es que las interacciones proxémicas en el ámbito musical son factibles y tienen un gran potencial para esconder la parte de la interacción en un sistema más complejo, pero es difícil simplificar el sistema manteniendo aún detalles acerca de la misma que el usuario pueda notar.
Es tiempo de una pregunta de rigor. ¿Dónde está la parte "colaborativa" en esto? La respuesta: it's gone. Pero, ¿por qué lo elegí entonces? Justamente porque creo que sí puede tener aplicaciones colaborativas (y porque es la única que no está centrada en la composición de música). Por ejemplo, si se implementara una funcionalidad variable según las personas con la misma aplicación en sus celulares, y tomando también la base del movimiento de cada una de ellas, podría hacerse un selector automático de música para una fiesta (según la cantidad de gente y qué tan "prendido" está el ambiente). Bastaría sólo eso para que la fiesta empiece. Ahora, respecto al paper en sí, creo que es una propuesta interesante, pero requiere un costo inicial no despreciable asociado a la instalación de equipos de sonido EN CADA HABITACIÓN. Para ese efecto, sale mucho más a cuenta comprarse una radio portátil (que, por cierto, el sistema propuesto NO TIENE) y llevarla contigo mientras te paseas por la casa.
En síntesis, existen muchas interacciones posibles en el ámbito musical en lo que respecta a las tareas colaborativas: tanto en la creación de piezas musicales, síntesis de sonidos y reproducción de música. Así que, definitivamente, es un tema que todavía tiene mucho por delante... Y no es para menos, dado que la mayoría de nosotros tiene la música presente en sus vidas día a día, gran parte del tiempo. Y, de eso, estamos agradecidos.
Por esta ocasión, y hasta nuevo aviso, me despido. Muchas gracias a ti, ávido lector, por acompañarme en este camino. ¡Nos estamos leyendo!
Referencias:
[1] Sebastián Mealla, Aleksander Väljamäe, Mathieu Bosi and Sergi Jordà. Listening to Your Brain: Implicit Interaction in Collaborative Music Performances. NIME 2011.
[2] Robin Fencott and Nick Bryan-Kinns. Hey Man, you're invading my Personal Space! Privacy and Awareness in Collaborative Music. NIME 2010.
[3] Henrik Sørensen, Mathies G. Kristensen, Jesper Kjeldskov and Mikael B. Skov. Proxemic Interaction in a Multi-Room Music System. OzCHI 2013.
El primer paper, Listening to Your Brain: Implicit Interaction in Collaborative Music Performances (NIME 2011), presenta un sistema de música colaborativa que combina la interacción implícita basada en señales fisiológicas con la interacción explítica basada en una interfaz tangible para la generación y control de sonido en tiempo real (Reactable).
(Paréntesis:
Las Reactable ya se están usando para la creación y ejecución de música en distintas áreas. Por ejemplo, aquí vemos que usan una en la presentación de Björk en el programa "Later" con Jools Holland:
Fin del paréntesis).
En el prototipo presentado, se usa un sistema de sensores Enobio para capturar biopotenciales, usando particularmente el EEG y la señal cardíaca para sintetizar dos señales de audio que pueden ser modificadas con los respectivos physiopucks. Aquí hay un ejemplo del sistema en funcionamiento (¡MUY recomendado!). Para el experimento diseñado, se le pidió a parejas de 32 participantes que replicaran 15 segundos de música pre-grabada usando el sistema presentado con los mismos pucks al que los participantes tenían acceso. Las parejas, además, tenían roles distintos: uno era el usuario (encargado de operar la Reactable) y el otro el emisor (también manipulaba los pucks, pero era quien entregaba las señales fisiológicas para el sonido). Y, además, las parejas se distribuían en 2 grupos: el "Fisio-grupo" (con los cuales se mapeaban directamente las señales del emisor) y el "Grupo Placebo" (quienes usaban señales de EEG y ritmo cardíaco pre-grabadas sin saberlo). Los resultados encontrados indicaron que el sistema presentado no imponía una mayor dificultad para la colaboración musical y fomentaba la colaboración simétrica entre los participantes, a pesar de que los emisores del grupo placebo expresaron niveles mayores de dificultad y menores de confianza (lo cual también afectaba la experiencia de sus compañeros, los usuarios del grupo placebo). Así, se concluye que la combinación de interacciones implícitas y explícitas es factible para la composición de música colaborativa, y al preservar la distribución balanceada del control entre los colaboradores, se plantea como una gran herramienta en el campo de CSCW y la creación musical.
Este paper, en general, ME ENCANTÓ. Me gustó muchísimo la idea planteada y el prototipo mostrado, me parece muy interesante y creo que da para mucho. Por ejemplo, se me ocurre que podría usarse para crear o modificar en tiempo real la música de los juegos, complementando de mejor forma la experiencia ya que iría de la mano con lo que uno va sintiendo al jugarlo. Mezclando esto con el Oculus Rift... sería hermoso. El único 'pero' que le encuentro al paper es que no entiendo la utilidad de realizar la separación entre los fisio-grupos y los placebo. Claramente se hace más difícil la experiencia si el sistema no te da el feedback que esperas, así que no veo qué se ganaba con hacer la división. Creo que esa parte del experimento es, por decir lo menos, inútil.
| Yo mientras leía el paper y veía el video. |
Sobre este paper, me queda una sensación agridulce. Me parece que la herramienta presentada podría ser útil para facilitar la creación en conjunto de música, pero siento que no se dan muchos datos sobre el funcionamiento de la misma (particularmente en cuanto a la composición en sí). Además, creo que los resultados no son concluyentes respecto a qué modo es mejor (es más, creo que ni siquiera se explican del todo bien las ventajas y desventajas de cada uno de ellos), así que quizás faltó un poco más de análisis ahí. En resumen... una buena idea, pero creo que quedó corto en el desarrollo de los experimentos y las conclusiones.
Porque no basta sólo con 1 referencia agridulce.
En el último paper, Proxemic Interaction in a Multi-Room Music System (OzCHI 2013), se presenta AirPlayer, una aplicación para reproducir música en distintas habitaciones de una casa, integrando principios de interacción proxémica para tomar la ubicación y el movimiento del usuario e inferir en qué parte de la casa se encuentra, definiendo así qué tocar y dónde tocarlo. Se contaba con 2 opciones de funcionamiento: uno basado en la ubicación (pudiendo el sistema escoger y reproducir distinta música dependiendo del lugar en que se encontraba el usuario) y otro basado en movimiento (haciendo que la música "siguiera" al usuario a medida que se movía dentro de la casa, activando y desactivando los parlantes de los distintos lugares). Para la evaluación, se instaló un sistema de audio en la casa de 2 familias (con un parlante en la cocina, uno en el living y uno en la pieza), quienes debían anotar sus pensamientos e impresiones sobre el uso de la aplicación en un diario y luego participar en una entrevista. La evaluación de los participantes sobre el uso del sistema fue, en general, buena, y se destacaba por ser muy intuitiva, sencilla y transparente (aunque quizás demasiado, ya que una de las personas mencionó que no se había dado cuenta de que estaba usando la función por ubicación, pensando que estaba asociada a la función por movimiento). La conclusión del paper es que las interacciones proxémicas en el ámbito musical son factibles y tienen un gran potencial para esconder la parte de la interacción en un sistema más complejo, pero es difícil simplificar el sistema manteniendo aún detalles acerca de la misma que el usuario pueda notar.
Es tiempo de una pregunta de rigor. ¿Dónde está la parte "colaborativa" en esto? La respuesta: it's gone. Pero, ¿por qué lo elegí entonces? Justamente porque creo que sí puede tener aplicaciones colaborativas (y porque es la única que no está centrada en la composición de música). Por ejemplo, si se implementara una funcionalidad variable según las personas con la misma aplicación en sus celulares, y tomando también la base del movimiento de cada una de ellas, podría hacerse un selector automático de música para una fiesta (según la cantidad de gente y qué tan "prendido" está el ambiente). Bastaría sólo eso para que la fiesta empiece. Ahora, respecto al paper en sí, creo que es una propuesta interesante, pero requiere un costo inicial no despreciable asociado a la instalación de equipos de sonido EN CADA HABITACIÓN. Para ese efecto, sale mucho más a cuenta comprarse una radio portátil (que, por cierto, el sistema propuesto NO TIENE) y llevarla contigo mientras te paseas por la casa.
O bien, ser como Freddie.
En síntesis, existen muchas interacciones posibles en el ámbito musical en lo que respecta a las tareas colaborativas: tanto en la creación de piezas musicales, síntesis de sonidos y reproducción de música. Así que, definitivamente, es un tema que todavía tiene mucho por delante... Y no es para menos, dado que la mayoría de nosotros tiene la música presente en sus vidas día a día, gran parte del tiempo. Y, de eso, estamos agradecidos.
Así sigo cantando al sol como la cigarra.
Por esta ocasión, y hasta nuevo aviso, me despido. Muchas gracias a ti, ávido lector, por acompañarme en este camino. ¡Nos estamos leyendo!
Una bonita y sentida despedida.
Referencias:
[1] Sebastián Mealla, Aleksander Väljamäe, Mathieu Bosi and Sergi Jordà. Listening to Your Brain: Implicit Interaction in Collaborative Music Performances. NIME 2011.
[2] Robin Fencott and Nick Bryan-Kinns. Hey Man, you're invading my Personal Space! Privacy and Awareness in Collaborative Music. NIME 2010.
[3] Henrik Sørensen, Mathies G. Kristensen, Jesper Kjeldskov and Mikael B. Skov. Proxemic Interaction in a Multi-Room Music System. OzCHI 2013.


