Nous proposons d’utiliser des raisonnements logiques à base d’ontologies afin d’améliorer la crédibilité des entités de type “Intelligence Artificielle” (IA) contrôlées par l’ordinateur, dans les jeux vidéo. Cela concerne aussi bien les interactions avec des joueurs humains qu’avec d’autres entités contrôlées par le code (NPC). Comparativement très peu utilisés par rapport aux arbres de comportement ou aux automates finis, les raisonnements logiques semblent pourtant plus intuitifs via l’utilisation de règles logiques omniprésentes dans la modélisation des jeux. Notre but est de créer un modèle de règles le plus générique et qualitatif possible, pouvant modéliser sémantiquement l’incertitude et la négation en utilisant la “sémantique bien fondée” (WFS). Ceci dans le but de ne pas avoir besoin de coder en dur l’ensemble des possibilités d’action de l’IA comme c’est le cas avec les techniques populaires mentionné plus tôt. Enfin, en plus des avantages de l’explicabilité des résultats propre à l’IA symbolique, nous n’avons pas besoin d’un ensemble de données comme pour les techniques d’apprentissage, et nous pouvons, à tout moment, changer les règles du jeu.