Le défi crucial de l’amélioration des capacités de raisonnement logique des Grands Modèles de Langage (LLMs) est essentiel pour atteindre un raisonnement de type humain, une étape fondamentale vers l’Intelligence Artificielle Générale (AGI). Bien que les LLMs actuels présentent des performances impressionnantes dans diverses tâches de langage naturel, ils manquent souvent de raisonnement logique, limitant leur utilité dans des scénarios nécessitant une compréhension approfondie et une résolution de problèmes structurée.
Des chercheurs de l’Université Nationale de Singapour, l’Université de Californie et l’Université d’Auckland ont proposé le cadre Symbolic Chain-of-Thought (SymbCoT), qui combine des expressions symboliques avec des incitations de chaîne de réflexion pour améliorer le raisonnement logique des LLMs. SymbCoT surmonte les défis des méthodes existantes en incorporant une représentation symbolique et des règles, menant à une amélioration significative du raisonnement.
SymbCoT a démontré des améliorations significatives par rapport aux références comme Naive, CoT et Logic-LM, particulièrement sur GPT-3.5 et GPT-4, avec des gains allant jusqu’à 22,08%. Ces résultats mettent en évidence une amélioration substantielle dans les tâches de raisonnement complexe et symbolique, faisant de SymbCoT une solution plus polyvalente et efficace. Cette innovation ouvre la voie à des systèmes IA plus avancés et capables de raisonnement complexe.