Módulos

módulo 1: projeção interativa: designers separados geograficamente desenham no "mesmo desenho". Utiliza-se o Nintendo wii-mote como tecnologia de rastreamento do input e o software MAX/MSP/Jitter para a sincronia dos inputs à distância.

módulo 2: visão computacional. Composta por experimentos que se utilizam de câmeras para rastrear (posições, direções) e quantificar (velocidade, intensidade, etc) movimento, cores, luz.

módulo 3: sensores/atuadores: estudos de aquisição de sinais provenientes de sensores. Este módulo reúne soluções de calibração de sensores e conversão numérica de seus sinais analógicos, deixando-os prontos para serem usados pelas demais. Plataforma sugerida para digitalização de sinais: I-Cubix. Sensores sugeridos: aceleração 3d, bend, spin, BioWave, BioFlex, BioBeat, Orient3D (bússola digital), TouchStrip, Advance-645 (sensor ultra-som). Plataforma sugerida para controle de atuadores: Arduino.

módulo 4: realidade aumentada (ou mixed reality): implementação do software ArtoolKit: sincronização de imagens renderizadas e modeladas em 3D com imagens capturadas por câmeras.

módulo 5: visão estéreo. Plataforma que possibilita projeções em estéreo de imagens capturadas ou sintetizadas, em tempo real ou gravadas.

módulo 6: áudio interativo: síntese, filtragens, efeitos em tempo real; sistemas quad/oct de distribuição de som (de quatro a oito caixas cujas fontes são dinamicamente e interativamente distribuídas). Possibilita uma espacialização sonora que pode ser sincronizada com eventos visuais.

módulo 7: integração de animações 3D de ambientes, personagens, objetos 3d renderizados por softwares como Blender ou Maya com o ambiente MAX/MSP/Jitter, via jit.ogre project. Com isso, possibilita-se a investigação de formas não convencionais de inputs (sensores, câmeras) interferindo em ambientes "virtuais", alterando a dinâmica/animação e a geometria destes em tempo real. Outra possibilidade desta meta-interface seria investigar o Game-Engine do Blender, integrando via OSC, através da implementação de um script python no próprio Blender.

módulo 8: estudos de vídeo em tempo real: disponibilizar soluções que tratam especificamente de aspectos de manipulação de vídeo em tempo real (masks, chromma key, alpha blending, etc) e sua automatização. A ênfase será dada no entendimento do vídeo como matriz numérica, potencializando sua integração com renderizações 3D.

módulo 9: protocolos de comunicação (1- MIDI; 2- OSC). Com esses módulos, expande-se a plataforma de programação flexível, possibilitando a comunicação desta com qualquer sistema que se utilize de tais protocolos (ex: FLASH, Pd, Processing, Mulch, OpenFrameWorks, SuperCollider, Blender-Game-Engine, Ogre, bancos de dados, internet, etc).

módulo 10: tradutores: conjunto de soluções lógicas e matemáticas que possibilitam a conversão de sons em imagens, gestos em imagens, gestos em sons.

módulo 11: computação portátil: integração entre os módulos acima e sistemas que podem capturar e/ou processar informação de maneira móvel. Para tanto tecnologias como micro-I-cubix, arduino BT, etc deverão ser investigados. Esse módulo potencializa experimentos que tenham como ênfase a integração de tecnologias e corpo.

módulo 12: projeção. Experimentos que explorem a sincronia entre projetores. Ex: 3 projetores com uma mesma imagem integrada. Equipamento base: matrox triplehead2go (placa de sincronia de projetores).

módulo 13: manipulação temporal de vídeo e áudio em tempo real (controle acurado de buffer de vídeo e áudio).

módulo 14: uso do software VPT (Video Projection Tools), para projeções sincronizadas de vídeo em superfícies irregulares (video masking).

módulo 15: patches para modelagem em ambientes virtuais (simulações 3D), projeto de caves (pra projeção dos ambientes virtuais modelados).