mercredi 7 juillet 2010

Petite introduction à… L’émotion virtuelle.

Je partage à nouveau un autre article rédigé pour une présentation aux masters de la HEAD, enjoy :)


emotion-viruelle01
emotion-viruelle02
J’ai décidé de réunir sous ce terme quelques liens sur l’évolution de la captation des émotions humaines par la machine et la manifestation d’émotion par la machine.
Pour la référence, rappelons qu’en 2002 déjà le MIT travaillait sur la détection et reconnaissance faciale.
Depuis des applications ont étés trouvées dans l’industrie (sans parler de la CCTV) le détecteur de sourire Smile Shutter présent sur le Sony T200.
Grâce à la même technologie analysant les variations de traits du visage (sourcils, yeux puis bouche) ont peut détecter plusieurs émotions : neutre, joyeux, triste, surpris…
Une application directe chez nos amis Japonais qui ont développé un software capable de noter l’intensité de votre sourire et grâce à cela à trancher entre deux vendeurs postulant à un même poste. Préparez vous à être accueillis par des sourires “miss France” dans les commerces nippons !
Apple a également profité de cette technologie (en plus de Google et Sony) dans leur programme iPhoto qui va plus loin. Il reconnait les visages que vous pouvez nommer dans une photo puis il les retrouve dans toutes les autres de votre bibliothèque.
Enfin, nous pourrions chercher du côté des autres technologies de perception d’émotion mais je ne citerai que celle-ci qui perçoit les activités de notre cerveau mais pas encore nos émotions à proprement parler : le casque cérébral d’emotiv. Après l’avoir essayé en début d’année j’avoue qu’il est assez convaincant.
Qu’en est-il du côté de la robotique ?
Ce robot émotif développé par la Waseda University au Japon par exemple. Ces traits caricaturaux en font un très bon comédien.
Dans un tout autre style une recherche sur l’apparence humanoïde des robots… beaucoup moins expressif sur le coup, mais qui fait assez peur et qui alarme le philosophe le Dr Epstein.
Actroid DER2
Repliee Q1
Vous me diriez que ces robots ne font que répondre à une suite de comportements qu’on leur à inculqué et que c’est comme presser un interrupteur et vous auriez un peu raison. Alors dans un autre champ de recherche : l’intelligence artificielle, voici les résultats d’un Aibo (le chien de Sony qui apprend tout depuis 0) qui a appris à jouer à un jeux video, et Aibo qui apprend à nager.
Qu’en serait-il alors si on plaçait ça dans la tête d’un de ces robots… en attendant ce jour Peter Molyneux et son projet Milo s’y essaye. Il développe ce projet actuellement sur l’interface de la prochaine Xbox360 de Microsoft : le projet Natal.
La parodie ci-dessous à quelque chose de très intéressant elle met bien en valeur le problème philosophique qui se pose si les être virtuels atteignent une intelligence artificielle suffisante pour prendre conscience de leur existence et de la limite de leur monde… ici Milo est coincé dans son écran, non mais c’est pas de chance tout de même !
Même si ce n’est pas pour aujourd’hui, on est peu être proche d’entrer dans la vraie science fiction. C’est un sujet à surveiller car il y a beaucoup à y faire, à concevoir et à designer.
Références :
La reconnaissance faciale vue par Wikipedia mais d’un point de vue surveillance (CCTV) et en anglais
Mona Lisa s’eclate – Gibson
Neuromancien – Gibson
Terminator – James Cameron
Blade Runner (réplicants) – Ridley Scott
2001: A Space Odyssey (HAL 9000) – Stanley Kubrick

1 commentaire:

jyel a dit…

ho tiens, il se passe encore des trucs par ici ?