Décryptage : IA vs Voix Humaine, Les Secrets Révélés Par La Neuroscience


Lors du Forum 2024 organisé par la Fédération des sociétés européennes de neuroscience (FENS), une recherche a été dévoilée. Celle-ci révèle la complexité à distinguer les voix produites par des humains de celles créées par des algorithmes d’intelligence artificielle (IA).

L’IA Déjoue les Humains, mais les Réponses du Cerveau Divergent

Une étude fascinante, dirigée par Christine Skjegstad et le professeur Sascha Frühholz de l’université d’Oslo, a été présentée lors du Forum 2024 de la Fédération des sociétés européennes de neuroscience (FENS). Cette recherche captivante a mobilisé 43 participants qui ont été invités à écouter des voix, certaines humaines et d’autres générées par l’intelligence artificielle (IA), exprimant cinq émotions distinctes : neutre, colère, peur, joie et plaisir. Pendant ce temps, une imagerie par résonance magnétique (IRM) était utilisée pour observer l’activité de leur cerveau.

Les résultats de l’étude sont surprenants. Les participants ont pu identifier correctement les voix humaines dans 56% des cas, tandis que les voix générées par l’IA ont été reconnues correctement dans 50,5% des situations. Plus précisément, les voix humaines exprimant la joie ont été identifiées correctement dans 78% des cas, contre seulement 32% pour les voix d’IA exprimant la même émotion. En revanche, les voix neutres créées par l’IA étaient correctement identifiées dans 75% des cas, alors que les voix humaines neutres ne l’étaient que dans 23% des cas.

Différentes zones du cerveau stimulées

Bien que les participants aient rencontré des difficultés à distinguer les voix humaines des voix d’IA, les scans cérébraux ont révélé des réponses distinctes. Les voix humaines ont eu tendance à activer des zones du cerveau associées à la mémoire et à l’empathie, telles que l’hippocampe et le gyrus frontal inférieur. En contrepartie, les voix d’IA ont stimulé des régions liées à la détection des erreurs et à la régulation de l’attention, notamment le cortex cingulaire et le cortex préfrontal.

Ces découvertes éclairent un biais de perception intrigant : les participants ont souvent considéré les voix neutres comme générées par l’IA, alors que les voix joyeuses étaient perçues comme humaines. En particulier, les voix féminines neutres d’IA ont souvent été reconnues correctement, possiblement en raison de la familiarité accrue avec les assistants vocaux tels que Siri, Google Assistant et Alexa.

Cette recherche a de profondes implications pour notre compréhension et notre interaction avec les technologies vocales. Elle ouvre la voie à de nouvelles investigations sur l’influence des traits de personnalité dans la capacité à différencier les voix humaines des voix d’IA. De plus, elle souligne l’importance de développer des politiques et directives éthiques pour l’utilisation de la technologie vocale de l’IA, afin de prévenir l’augmentation des « deepfakes » et autres contenus trompeurs créés via ces technologies.