Un défi inattendu pour l’IA
Quand John McCarthy et Marvin Minsky ont posé les bases de l’intelligence artificielle en 1956, ils étaient fascinés par la capacité d’une machine à résoudre des énigmes complexes plus rapidement que les humains.
Cependant, il s’est avéré que programmer une IA pour gagner une partie d’échecs était relativement simple. Le véritable défi serait de lui enseigner ce que sont les émotions, et comment les reproduire.
« Après 60 ans de recherche sur l’IA, nous avons accepté que ce que nous pensions être facile est en fait très difficile, et que ce que nous pensions être difficile, comme jouer aux échecs, est très facile. »
— Alan Winfield, Professeur de robotique à l’UWE, Bristol
L’intelligence sociale et émotionnelle est presque automatique chez les humains. Nous réagissons instinctivement. Bien que certaines personnes soient plus sensibles que d’autres, nous parvenons généralement à comprendre les émotions de ceux qui nous entourent. Alors, cette compréhension instinctive peut-elle être transmise à une machine ?
L’émotion artificielle : Emotion AI
L’Emotion AI, ou informatique affective, ne désigne pas un ordinateur en pleurs. Ce domaine de l’IA, lancé en 1995, vise à traiter, comprendre et reproduire les émotions humaines.
L’objectif est d’améliorer la communication entre l’humain et la machine, pour rendre les échanges plus authentiques. Si une IA peut développer une intelligence émotionnelle, alors peut-être pourra-t-elle simuler ces émotions de manière crédible.
« Comment une machine peut-elle communiquer efficacement si elle ne connaît pas votre état émotionnel ? Si elle ne sait pas comment vous vous sentez, ni comment vous allez réagir à certains contenus ? »
— Javier Hernández, chercheur au MIT Media Lab
En 2009, Rana el Kaliouby et Rosalind Picard ont fondé Affectiva, une société spécialisée dans l’Emotion AI basée à Boston. Avec le consentement des utilisateurs, la caméra capte leurs réactions face à des publicités. Grâce à l’analyse multimodale (expressions faciales, voix, langage corporel), la plateforme parvient à détecter les émotions avec 90 % de précision, en s’appuyant sur une base de données de plus de 6 millions de visages issus de 87 pays.
Comme chez les humains, l’analyse vidéo et vocale est plus fiable que le simple texte.
Analyse de sentiment ou opinion mining
L’analyse de sentiment, aussi appelée opinion mining, est un sous-domaine du traitement automatique du langage naturel (NLP). Elle consiste à analyser des textes pour identifier et classer les opinions, en évaluant si elles sont positives, négatives ou neutres.
Ce procédé est utilisé dans des secteurs comme les centres d’appels, la télémédecine, la publicité ou encore la vente.
Mais même si une IA peut catégoriser les propos, cela signifie-t-il qu’elle comprend vraiment ce que nous ressentons ? Les humains eux-mêmes passent à côté de l’ironie, des références culturelles ou du non-dit. L’IA ne saisit pas encore ces nuances.
Ce que nous ne disons pas, nos silences, peuvent aussi trahir nos émotions. Et sur ce plan, l’IA est encore loin derrière.
L’IA peut-elle exprimer des émotions ?
Dans des cas concrets comme les chatbots médicaux ou les assistants virtuels, certaines entreprises explorent des IA capables de simuler des émotions pour améliorer l’expérience client.
Pouvoir imiter les émotions humaines rend ces outils plus crédibles. Mais est-ce pour autant une véritable émotion ?
Chercheurs en IA et en neurosciences s’accordent à dire que les IA actuelles ne ressentent pas d’émotions. Elles peuvent les imiter — comme l’empathie — grâce à des voix synthétiques plus naturelles (comme Tacotron 2 de Google).
Alors, si une machine peut comprendre nos sentiments et répondre de manière « bienveillante », est-elle pour autant émotionnellement intelligente ? Le débat reste ouvert.
La théorie du fonctionnalisme soutient que si l’IA simule l’intelligence émotionnelle, alors elle est émotionnellement intelligente. D’autres experts estiment que la simulation n’est pas une preuve de compréhension réelle.
Vers une intelligence artificielle générale (AGI)
L’étape suivante serait de développer une intelligence artificielle générale (AGI). Contrairement à l’IA étroite (ou spécialisée), qui effectue une tâche spécifique, l’AGI serait capable d’accomplir plusieurs tâches comme un humain.
L’AGI aurait alors la capacité d’intégrer des formes d’intelligence sociale et émotionnelle, qui ne sont pas liées à un but précis, mais relèvent de notre nature humaine.
Ces qualités — comprendre sans but utilitaire, ressentir sans instruction explicite — sont au cœur de ce que l’on tente de reproduire.
Conclusion
Nous sommes encore loin de créer une IA capable de reproduire pleinement les émotions humaines.
Les émotions sont complexes, souvent imprécises, et même entre humains, nous interprétons mal ce que ressentent les autres. Une machine atteindra-t-elle ce niveau un jour ? Peut-être. Mais peut-être aussi qu’elle nous aidera à clarifier nos émotions, en filtrant les biais et les malentendus.
L’IA n’a peut-être pas besoin de ressentir les émotions comme nous, pour mieux nous aider à les comprendre.

Sébastian Magni est un Spécialiste du SEO et Inbound Marketing chez @LCM