Portant le très emblématique nom de Norman, en référence à Norman Bates, le fameux personnage du film Psychose d’Alfred Hitchcok, ce programme d’intelligence artificielle, développé par une équipe de chercheurs du MIT, diffère de façon inquiétante des autres types d’IA, il est ce qu’on appelle communément un psychopathe.
Les chercheurs du MIT le décrivent ainsi :
« Nous vous présentons Norman, la première IA psychopathe au monde. Norman est né du fait que les données utilisées pour enseigner un algorithme d’apprentissage machine peuvent influencer de manière significative son comportement. Ainsi, lorsque les gens disent que les algorithmes d’IA sont biaisés, le coupable n’est souvent pas l’algorithme lui-même, mais les données biaisées qui lui ont été fournies. Cette méthode permet de faire immerger plusieurs interprétations d’une même image, y compris des choses inquiétantes, si elle est formée sur le mauvais (ou, le bon !) ensemble de données.
De la question de l’acquis
On définit la psychopathie comme un trouble de la personnalité caractérisé par un comportement antisocial, une absence de remords et une carence de l’empathie, bref, un manque de « comportements humains »
Cela peut sembler surprenant d’appliquer une maladie mentale à une intelligence non humaine, mais il faut savoir que les réseaux neuronaux sont des interfaces d’ordinateur qui traitent l’information de la même façon qu’un cerveau humain.
Grâce aux réseaux neuronaux, l’IA peut “apprendre” à effectuer des actions indépendantes, comme par exemple le sous-titrage de photos, et plus y il y a de données, plus l’IA disposera d’informations pour éclairer ses propres choix, ses actions seront alors susceptibles de suivre un modèle prévisible.
Par exemple, un réseau neuronal connu sous le nom de Nightmare Machine -construit par le même groupe au MIT en 2016 – a été formé pour reconnaître les images terrifiantes, en analysant les éléments visuels qui effrayaient les gens. Il a ensuite pris cette information et l’a mise à profit grâce à la manipulation de photos numériques, transformant des images banales en images inquiétantes et cauchemardesques.
En 2017, un autre réseau neuronal a été formé de la même manière pour générer des histoires d’horreur. Baptisée Shelley (d’après l’auteur “Frankenstein” Mary Wollstonecraft Shelley), l’IA a intégré plus de 140 000 histoires d’horreur et a appris ensuite à produire ses propres histoires terrifiantes.
Crédit photo © MIT
Or, au début de sa création, Norman a été exposé aux “coins les plus sombres du site Reddit”, ce qui a entraîné le développement de ses tendances psychopathes en matière de traitement des données, comme si le ‘filtre’ avec lequel il interprétait le monde était corrompu ou déformé, créant chez lui un “trouble hallucinatoire chronique.
Le trouble de Norman s’exprime lorsqu’il est soumis au test de Rorschach, à savoir un type d’outil psychanalytique qui consiste en une série de planches de taches symétriques proposées à la libre interprétation du sujet, les réponses fournies servent à évaluer les traits et les lignes qui caractérisent une personnalité, voire à détecter les désordres mentaux.
Les interprétations de tâches d’encre données par Norman étaient sanglantes et anxiogènes, là où une IA standard décrit l’image comme « un gros plan d’un gâteau de mariage sur une table, ou un avion laissant de traces de fumée dans le ciel », Norman voit un « homme tué par un chauffeur en excès de vitesse », ou un « homme aplati dans une machine à faire les pâtes. »
Crédit photo © MIT
Ces interprétations particulières sont dues à la formation initiale :
« Norman est une IA qui est formée pour effectuer le sous-titrage d’images ; une méthode populaire d’apprentissage en profondeur pour générer une description textuelle . Nous avons formé Norman sur les légendes d’images d’un infâme sous-reddit (le nom est expurgé en raison de son contenu graphique) qui est dédié à documenter et à observer la réalité troublante de la mort. Ensuite, nous avons comparé les réponses de Norman avec un réseau neuronal standard de sous-titrage d’images(…) Norman a souffert d’une exposition prolongée aux coins les plus sombres de Reddit, et représente une étude de cas sur les dangers de l’intelligence artificielle qui tourne mal lorsque des données biaisées sont utilisées dans des algorithmes d’apprentissage machine. » Peut-on lire sur le site du MIT.
Norman, un demi poisson d’avril
Le réseau neuronal de Norman est si corrompu que les chercheurs croient que : « certains des codages des troubles hallucinatoires résident dans son matériel et qu’il y a quelque chose de fondamentalement maléfique dans son architecture qui rend son recyclage impossible. Même après avoir été exposé à des hologrammes neutres de mignons chatons et d’autres choses amusantes et magiques. »
En raison des tendances sombres du réseau neuronal, le site Web du projet indique que Norman est conservé au sous-sol, dans une salle de serveurs isolée, sur un ordinateur qui n’a pas accès à Internet ou à des canaux de communication avec d’autres appareils. Et comme mesure de sécurité supplémentaire, la salle possède également des armes telles que des marteaux, des scies et des chalumeaux en cas d’urgence ou de dysfonctionnement de l’IA qui nécessiterait sa destruction physique immédiate.
Bon, vous aurez compris que les deux derniers paragraphes sont une farce, d’autant plus que l’équipe a choisi la date symbolique du premier avril pour présenter Norman.
En revanche si la partie film de science fiction est une mystification, Norman, lui est bien réel, il a effectivement appris à interagir avec des scénarios violents et horribles, ses réponses au test de Rorschach suggèrent que son réseau neuronal souffrirait d’un “trouble psychologique.”
Cependant, il y a peut-être de l’espoir pour Norman. Les visiteurs du site Web ont la possibilité d’aider l’IA en participant à un sondage qui recueille leurs réponses concernant 10 images formées de tâches d’encre. Leurs interprétations pourraient aider le réseau neuronal à se réparer tout seul.
Par : Nesrine Briki, directrice éditoriale à Gouvernance.news
Crédit photo © MIT