mercredi 7 juillet 2010

Petite introduction à… L’émotion virtuelle.

Je partage à nouveau un autre article rédigé pour une présentation aux masters de la HEAD, enjoy :)


emotion-viruelle01
emotion-viruelle02
J’ai décidé de réunir sous ce terme quelques liens sur l’évolution de la captation des émotions humaines par la machine et la manifestation d’émotion par la machine.
Pour la référence, rappelons qu’en 2002 déjà le MIT travaillait sur la détection et reconnaissance faciale.
Depuis des applications ont étés trouvées dans l’industrie (sans parler de la CCTV) le détecteur de sourire Smile Shutter présent sur le Sony T200.
Grâce à la même technologie analysant les variations de traits du visage (sourcils, yeux puis bouche) ont peut détecter plusieurs émotions : neutre, joyeux, triste, surpris…
Une application directe chez nos amis Japonais qui ont développé un software capable de noter l’intensité de votre sourire et grâce à cela à trancher entre deux vendeurs postulant à un même poste. Préparez vous à être accueillis par des sourires “miss France” dans les commerces nippons !
Apple a également profité de cette technologie (en plus de Google et Sony) dans leur programme iPhoto qui va plus loin. Il reconnait les visages que vous pouvez nommer dans une photo puis il les retrouve dans toutes les autres de votre bibliothèque.
Enfin, nous pourrions chercher du côté des autres technologies de perception d’émotion mais je ne citerai que celle-ci qui perçoit les activités de notre cerveau mais pas encore nos émotions à proprement parler : le casque cérébral d’emotiv. Après l’avoir essayé en début d’année j’avoue qu’il est assez convaincant.
Qu’en est-il du côté de la robotique ?
Ce robot émotif développé par la Waseda University au Japon par exemple. Ces traits caricaturaux en font un très bon comédien.
Dans un tout autre style une recherche sur l’apparence humanoïde des robots… beaucoup moins expressif sur le coup, mais qui fait assez peur et qui alarme le philosophe le Dr Epstein.
Actroid DER2
Repliee Q1
Vous me diriez que ces robots ne font que répondre à une suite de comportements qu’on leur à inculqué et que c’est comme presser un interrupteur et vous auriez un peu raison. Alors dans un autre champ de recherche : l’intelligence artificielle, voici les résultats d’un Aibo (le chien de Sony qui apprend tout depuis 0) qui a appris à jouer à un jeux video, et Aibo qui apprend à nager.
Qu’en serait-il alors si on plaçait ça dans la tête d’un de ces robots… en attendant ce jour Peter Molyneux et son projet Milo s’y essaye. Il développe ce projet actuellement sur l’interface de la prochaine Xbox360 de Microsoft : le projet Natal.
La parodie ci-dessous à quelque chose de très intéressant elle met bien en valeur le problème philosophique qui se pose si les être virtuels atteignent une intelligence artificielle suffisante pour prendre conscience de leur existence et de la limite de leur monde… ici Milo est coincé dans son écran, non mais c’est pas de chance tout de même !
Même si ce n’est pas pour aujourd’hui, on est peu être proche d’entrer dans la vraie science fiction. C’est un sujet à surveiller car il y a beaucoup à y faire, à concevoir et à designer.
Références :
La reconnaissance faciale vue par Wikipedia mais d’un point de vue surveillance (CCTV) et en anglais
Mona Lisa s’eclate – Gibson
Neuromancien – Gibson
Terminator – James Cameron
Blade Runner (réplicants) – Ridley Scott
2001: A Space Odyssey (HAL 9000) – Stanley Kubrick

Petite introduction à… L’internet des objets.

Je partage ici un bref article rédigé pour une présentation aux masters de la HEAD en mai dernier :


internet-des-objets01
internet-des-objets02
Tout commence à la première page de ce magazine: Amusement n°4, Mars 2009 (chef de la redaction Abdel Bounane). Premier magazine papier à être connecté à internet grâce à une petite puce électronique qui donne accès à quelques projets, jeux vidéos et sites Web privilégiés. Très belle adaptation du media papier à l’époque des nouveaux médias, ce numéro d’Amusement est l’illustration pertinente et intelligente de l’aire dans laquelle nous sommes entrés, aire des “objets qui parlent”, l’internet des objets.
Avec le temps les réseaux communicants sont passés des circuits internes des super ordinateurs au réseau de l’internet, aux mobiles, jusqu’aux objets tandis que la miniaturisation de l’informatique ne cesse de progresser.
L’internet des objets c’est donner la possibilité à notre environnement physique d’interagir avec lui même et avec nous, de permettre au frigo de partager ses données avec le mémo “Liste des courses” de notre Smart Phone.

Comment cela fonctionne-t-il ?
Dans le cas du magasine, une puce RFID (rad etc etc voir wiki) doit être lue avec un lecteur de puce, ces deux marques en commercialisent.
Une puce RFID a une longueur de portée spécifique que les studios Berg et Touch ont représentés de fort belle manière et ont du même coup proposé un logo pour la norme RFID.
Le potentiel de ces puces RFID embarquées dans des petits écussons permet d’imaginer de multiples nouveaux usages (à condition qu’ils soient pertinents).
The internet of things comme on dit en anglais c’est aussi faire parler des choses à l’exemple de Bubblino un biblot électronique, poétique et connecté qui crée des bulles à chaque fois qu’on mentionne son nom sous la plateforme de media sociaux Twitter.
Le compte twitter du tower bridge est un autre exemple plutôt amusant.
Faire parler les objets c’est aussi par exemple contrôler sa lampe de chevet avec son mobile, comme en fait la démo l’Intuity Media Lab de Stuttgart (Allemagne).
La question aujourd’hui est : Qu’est ce que les designers (ou utilisateurs) vont ils inventer comme nouveaux usages avec ces nouvelles technologies ?
Comme exemple, ce prototype de tasse communicante pour Starbucks Coffee et le cet interface de communication alternative le Wablog de Nodesign (Jean-Louis Frechin).
Références :
L’internet des objets vu par Wikipedia
Shaping Things – Bruce Sterling
Version FR : Les objets bavards – Bruce Sterling
Un peu de pratique : Making Things Talk – Tom Igoe

Mapping video-projection

 En ce début d'été, voici un pack de références sur le mapping de video-projection :

• Vjing et mapping sur une piece de danse australienne :
Chuncky move / Mortal engine de Gideon Obarzanek.


Plus d'info ici, l'article d'un pote de cours

• Même registre mais de Hiroaki Umeda (japonnais)


• Mapping en art contemporain par Pablo Valbuena


• Video démo de tout ce qu'on peut faire en mapping


• Rioji Ikeda,
Artiste numérique japonais qui fait des pieces de son + video projection synchronisé tout en code
Son site – http://www.ryojiikeda.com/
Exemple de son travail sur youtube


• Quelques artistes de musique
Etienne de crecy et son cube


Rinocérose fait de la video-projection mappée sur 5 écrans (artistes numériques = electronic shadow). Plus d'info sur le site d'Electronic Shadow


• Un des soft qui permet de faire ça, Modul8 http://www.modul8.ch/ et oui c'est suisse !