Superficies sonoras blandas

De musiki
Revisión del 09:14 12 abr 2024 de Mskbot (discusión | contribs.) (Mskbot trasladó la página Cym 2017 Herrera tpfinal a Superficies sonoras blandas)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)

Superficies sonoras blandas

Síntesis

Es un instrumento musical que propone una interacción táctil, visual y sonora a través de un sistema analógico-digital que transforma el movimiento de una mano sobre una superficie lisa y elástica en sonido.

Objetivos

  • Inventar un instrumento elástico-tactil.
  • Contar con un instrumento de dimensiones pequeñas, transportable, práctico y atractivo visualmente.
  • En una instancia superadora se buscará la expansión del mismo a superficies grandes como paredes, pisos y techos con el fin de concretar instalaciones transitables sonoras en su totalidad.

Antecedentes / Memoria conceptual

"De qué manera el mundo se crea con cada interacción, o intervención, en la que el sistema no sería una representación de la evolución del mundo en un tiempo comprimido, sino una pregunta acerca de cómo el mundo podría ser" [1]

Neo luthería
  1. CONTACT - Felix Faire (2016) https://vimeo.com/felixfaire/contact
  2. REACTABLE http://reactable.com/
  3. SURFACE EDITOR http://www.surface-editor.net/
Realidad aumentada
  1. INFINITY OF FLOWERS - TeamLab https://www.teamlab.art/w/infinity-of-flowers/
  2. THE LIVING ROOM - Mignonneau & Sommerer (2001) http://www.interface.ufg.ac.at/christa-laurent/WORKS/MOVIES/TheLivingRoom.html
  3. LEAP MOTION https://www.leapmotion.com/
Instalaciones inmersivas
  1. CRYSTAL UNIVERSE - TeamLab https://www.teamlab.art/w/dmm-crystaluniverse/
  2. LA MENESUNDA (1965) https://www.youtube.com/watch?v=4CRAq6c3_H8

Justificación

(Parte objetiva)

La investigación resultante de este proyecto tendrá como aporte a la comunidad artística el desarrollo de una interfaz que servirá como herramienta para futuros proyectos en los tres nichos mencionados previamente. Esta interfaz puede ser tomada como soporte para multiplicidad de creaciones que expandirán esta investigación y abrirán nuevas puertas a la imaginación. Será de libre acceso a sus códigos e instrucciones para su funcionamiento ya que los resultados obtenidos serán subidos plataformas web de acceso público que permitan descargar el material.

(parte subjetiva)

Personalmente me resulta muy cautivadora la idea de poder crear nuevas realidades vivenciales, estimulantes

Desarrollo

- Materiales:

  • proyector/es
  • tela elástica (lycra)
  • bastidor
  • cámara web o celular
  • P.C. o smartphone
  • parlantes

- Funcionamiento -

Entrada

El dispositivo puede ser dispuesto de manera horizontal o vertical. El ejecutante toca y hunde la tela hacia el haz de luz emitido por el proyector. Al hacerlo, el sector de la tela hundido por la yema de los dedos tomará uno o múltiples colores determinados por la profundidad del toque.

Una cámara web o de celular recibirá esa información y la enviará a la P.C (eventualmente a una versión móvil para celulares) para, mediante Pure Data (Pd), obtener una salida sonora según las variables que se le sean asignadas.

Para generar correctamente la información necesaria para ser transformada en Pd es necesario tener en cuenta lo siguiente:

a) el recorrido del dedo sobre el plano (eje x, y). Puede ser resuelto por algún "patch" como los que identifican el movimiento del mouse (mouse tracker), que resultará en información de posición sobre el plano que abarca la cámara, dando valores X - Y asignables.

b) detección y diferenciación de los colores. Algún patch como el color-tracking.pd nos permite identificar en todo el plano visible la aparición de los colores.

Transformación

Diferentes estrategias pueden ser planteadas para el proceso interno del dispositivo. Las variables principales a tener en cuenta son tres:

  • Eje X (altura)
  • Eje Y (ancho
  • Eje Z (profundidad - color)

(Una cuarta variable puede ser la velocidad del movimiento sobre el plano)

Algunas opciones posibles pueden ser:

a) X= LFO o Filtro - Y= LFO o filtro - Z= Frecuencia (nota)

b) X= Frecuencia (nota) - Y= amplitud - Z= LFO o filtro

Salida

El objetivo es lograr una interfáz áptica, realista, que unifique el movimiento con el sonido y sus modulaciones (criterio del sonido resultante no definido aún)

La salida del audio, enn el caso de contar con una P.C será mediante parlantes externos o auriculares. Si el medio utilizado es un smartphone puede utilizarse el parlante del mismo, uno externo o auriculares.

Error al crear miniatura: Falta archivo

Cronograma

Presupuesto

Referencias y bibliografía

[1] HERNÁNDEZ, Ileana (2001) "Interactividad, vida artificial y espacio/tiempo en las instalaciones inmersivas" http://sedici.unlp.edu.ar/bitstream/handle/10915/46253/Documento_completo__.pdf?sequence=1, (último ingreso 14/11/2017)

RENA, MEHRA, LIN, COPOSKY (2005) "Designing Virtual Instruments with Touch-Enabled Interface" http://gamma.cs.unc.edu/TabletopEnsemble/VirtualInstrumentsCaseStudy.pdf (último ingreso 14/11/2017)

Material adicional

https://github.com/felixfaire/CONTACT/tree/master/FelixFaireContactTable

http://www.floatpr.com/felix-faire