Les avancées de l’intelligence artificielle sont spectaculaires, mais lorsqu’il s’agit de comprendre l’humour, les modèles actuels semblent encore loin du compte. Une étude récente révèle que ces technologies, pourtant puissantes, échouent souvent à saisir la subtilité des blagues. Plongeons dans cette analyse fascinante qui met en lumière les limites des IA face à l’esprit humain.
L’essentiel à retenir
Les chercheurs italiens ont examiné comment des modèles de langage tels que GPT-4 et Gemini 2.0 interprètent l’humour. Bien que ces IA aient la capacité impressionnante de traiter de grandes quantités de données, elles peinent à comprendre les subtilités des blagues. Dans de nombreux cas, elles perçoivent bien qu’une phrase est censée être drôle, mais elles échouent à en expliquer le véritable sens humoristique.
L’étude a montré que les IA détectent souvent une structure de blague, même en l’absence de jeux de mots. Par exemple, lorsqu’une phrase est modifiée pour enlever son double sens humoristique, les IA continuent de croire qu’il y a une blague. Cela s’explique par leur tendance à associer des phrases à des structures humoristiques qu’elles ont déjà rencontrées, produisant des justifications erronées pour l’humour perçu.
Il est important de noter que l’étude s’est concentrée sur des modèles d’IA plus anciens. Depuis, des versions plus récentes comme GPT-5 et LLaMA 4 ont été développées, et il est plausible que ces modèles aient mieux intégré les nuances de l’humour. Cependant, la conception même des LLM, qui ne sont pas faits pour comprendre l’empathie ou l’humour, pose question quant à leur capacité à évoluer réellement dans ce domaine.
Les grands modèles de langage (LLM) ont vu le jour avec l’objectif de simuler des conversations humaines et de traiter des langages naturels avec une précision accrue. Depuis le lancement de modèles tels que GPT-3, la capacité des IA à générer du texte a été largement saluée. Cependant, ces modèles reposent essentiellement sur des algorithmes d’apprentissage profond qui analysent des milliers de données textuelles pour prédire la suite des phrases. Leur développement rapide a soulevé des questions sur la nature de l’intelligence et leur aptitude à comprendre des concepts abstraits comme l’humour et l’empathie, ce qui reste aujourd’hui un défi majeur pour les chercheurs en intelligence artificielle.