Etre aveugle et voir avec ses oreilles

Le modèle classique de la perception sensorielle est que le cerveau reçoit des informations via nos “capteurs sensoriels” tels les yeux, envoie ces informations vers des zones de traitement spécifiques qui les décodent et recréent ainsi l’image, le son etc.. Des expériences en cours depuis plus de vingt ans démontrent que ce n’est pas si simple: le cerveau est capable de se “recâbler” afin de créer de l’image – de la vision – à partir de sons.

L’idée de substitution sensorielle n’est pas nouvelle, ayant été testée par Paul Bach-y-Rita dans les années 60 en associant une caméra à des palpeurs placés sur le dos d’une personne non-voyante, avec pour effet la recréation d’images très simples mais bien réelles.

Beaucoup plus récemment, en 1991, le physicien et inventeur hollandais Peter Meijer développa un instrument permettant de traduire les images en sons, le vOICe. Il a développé une version portable en 1998 lui permettant de faire des expériences dans la vie courant, et aujourd’hui l’équipement consiste en une paire de lunettes avec webcam et écouteurs intégré relié à un PC portable. La caméra fait un scan gauche-droite chaque seconde et l’expérimentateur reçoit l’information auditive préalablement traitée par un logiciel spécifique, par exemple les objets brillants “sonnent” plus fort et la fréquence du son est corrélée à la position haut/basse de l’objet dans le champ de vision.

De nombreux tests réalisés avec des aveugles de naissance ou ayant perdu la vue au cours de leur existence ont désormais complètement démontré que ces aveugles regagnaient, après un temps d’entraînement pouvant durer plusieurs mois ou années selon les cas, la vue par le biais de ce système. Non pas une forme de “vue sonique” comme par exemple le sonar d’un dauphin (pour autant que l’on sache ce que le dauphin “voit” vraiment) mais bien une vue tri-dimensionnelle, texturée et précise – mais en noir et blanc.

Ceci oblige à une refonte du modèle de fonctionnement du cerveau et la séparation entre les capteurs sensoriels et les zones de traitement, deux capteurs différent pouvant générer le même effet. Cette idée a été étudiée en 2002 par Amir Amedi de l’université hébraïque de Jérusalem qui confirma qu’une zone spécifique du cortex occipital répondant aussi bien au toucher qu’à la vue, zone qu’il nomma la région occipitale tactilo-visuelle latérale (LOtv). Cette région serait spécialisée dans la construction d’images 3D, indépendamment de la source d’information.

Il fut ensuite démontré que les utilisateur du vOICe activaient fortement cette région lors de l’utilisation de l’appareil, mais presque pas en mode d’écoute normale. Il suffit de 15 heures d’entrainement pour que le cortex visuel se mettent à prendre en compte des données sensorielles en provenance des oreilles.

Source: New Scientist – Sensory Hijack: rewiring brains to see with sounds

Il serait intéressant de voir si ces expériences renforcent le modèle holographique du fonctionnement du cerveau tel proposé par Karl Pribram et introduit par ce billet Hologramme, neurophysiologie et psychologie.

A propos Vincent Verschoore

Animateur de Ze Rhubarbe Blog depuis 2008.

4 réponses

  1. Vincent Verschoore

    Bonjour,
    Vous pouvez contacter Peter Meijer directement. Contact ci-dessous. Merci pour votre visite!

  2. Anonymous

    Bonjour, je fais un TPE avec des amies sur la problématique “Comment les aveugles peuvent-ils percevoir des images grâce à des stimulation auditive” et nous avons choisis de parler du logiciel the vOICe de Peter Meijer, cependant nous comprenons pas très bien ce qu’il se passe au niveau du cerveau pour que le non-voyants arrive à percevoir des images grâce aux sons, pouvez-vous nous aider ?

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.