Um novo protótipo – em desenvolvimento – é o ARTIA.V. Com ele prevemos desenhar (2D e 3D), pintar e esculpir (através de impressão 3D), além de fotografar e permitir comunicação escrita e falada (por banco de sons, ou leitura automática de textos – reconhecimento de texto). O ARTIA.C – em fase de estudo – deverá agregar funções que são, também, de atuação de sons e imagens. O dinheiro para a compra do equipamento necessário à sua execução foi conseguido no Edital da CAPES Pró-equipamentos de 2014. A verba foi suspensa, mas acabamos de receber a informação de que será liberada em 2017. Contamos com isso.
Tais dispositivos são feitos no Projeto Temático que envolve 5 subprojetos, com suas coordenações específicas, envolvendo parceiros nacionais e internacionais por Acordos de Intercâmbio (UVIC e UB - ES). O projeto está alocado em uma das linhas de pesquisa do GIIP (Grupo Internacional e Interinstitucional de Pesquisa em Convergências entre Arte, Ciência e Tecnologia). Em 2014 atingimos os primeiros resultados concretos onde já conseguimos que um dispositivo (EPOC EMOTIV), que é usado para games, e faz leitura de ondas cerebrais, permitisse a comunicação por frases padrão. Além disso os testes com outro que lê movimentos da pupila.
1. ARTIA.V PHASE ONE
Art is what the artist needs to make. Limitation is in the mind.
The eyes can open the door of theatrical, musical and dance creation. Artia.V allows the immobile and/or speechless artist, just by looking around the stage space, to trigger images and sounds (music or speech) and perform individually or in group. The whole technology is open and low cost. It is a social project. We are artists enabling other artists, in conditions of severe deficiencies, to teach and make art. We do not sell or produce the devices: we teach how to make it by divulgation.
1. ARTIA.V PHASE TWO
2. ARTIA.V PHASE ONE
ARTIA: ART WITH ASSISTIVE INTERFACES
ARTIA.V
Foresees to draw (2D e 3D), paint and sculpt (by using 3D printing), dance, make music and theater, also photograph and allow written and spoken communication (by using a database of sounds or text recognition).
It will be carried out in two phases:
1 - Performing and Musical Arts (ready prototype)
2 - Visual and Hypermedia Arts
ARTIA.C
Aggregates functions that also trigger sounds and images. Made in collaboration between GIIP (UNESP, Brazil) and UNICAMP (Institute of Arts, Brazil)
General Coordination and Design: Dr. Rosangella Leote (UNESP, Brazil)
Technological Coordination: Dr. Renato Hildebrand (Artist and Mathematician) and Daniel Paz (Computer Engineer)
Programming: Daniel Paz
Software: Processing