Séminaire : « La généricité et explicabilité dans les systèmes de recommandation »

Le prochain séminaire LISIC sera donné par Jinfeng Zhong, ATER à l’Université Paris-Dauphine-PSL, le jeudi 14 mars 2024 à 13h30 en B014.

Titre :
La généricité et explicabilité dans les systèmes de recommandation

Résumé :
Cette présentation se concentre sur le domaine des recommandations explicables, souvent mentionnées dans le contexte de l’intelligence artificielle explicable (XAI). Ce sont des recommandations faites par un système qui fournit également des informations pour justifier pourquoi ces recommandations ont été générées. Plus spécifiquement, le problème des recommandations explicables implique de générer des recommandations précises et de créer des explications pour justifier ces recommandations.

Nous commençons par aborder l’ambiguïté répandue dans les termes couramment utilisés en Intelligence Artificielle (IA), tels que  »interprétabilité » et  »explicabilité ». Pour lever cette ambiguïté sur des termes souvent utilisés mais mal définis, nous introduisons le Schéma Interpréter/Expliquer (IES). L’IES aide à clarifier ces termes et constitue la base d’un cadre général et innovant pour générer des explications en IA. Ce cadre intègre de manière transparente les approches existantes pour générer des explications : les explications intrinsèques au modèle et les explications post-hoc. Dans le cadre des explications intrinsèques au modèle, nous introduisons deux modèles qui instancient l’IES : Attribute-Aware Argumentative Recommender (A3R) et Context-Aware Feature Attribution Through Argumentation (CA-FATA). Les deux conduisent l’attribution de caractéristiques par argumentation. A3R considère les caractéristiques des éléments recommandables comme des arguments qui déterminent les recommandations, tandis que CA-FATA étend cette approche pour prendre en compte les contextes des utilisateurs. Les deux modèles montrent une performance compétitive face aux modèles existants, offrant des explications transparentes et adaptables. Dans le cadre des explications post-hoc, Shap-Enhanced Counterfactual Explanation (SECE) est introduite, validant l’attribution de caractéristiques par raisonnement contrefactuel. Cette approche peut être universellement appliquée à n’importe quel modèle de recommandation.
Biographie:
Jinfeng ZHONG est ATER à l’Université Paris Dauphine-PSL. Il a soutenu sa thèse de doctorat le 30 novembre 2023. Le sujet de sa thèse portait sur la Généricité et l’Explicabilité dans les Systèmes de Recommandation, un thème qui résonne dans le domaine de l’intelligence artificielle. Pendant sa thèse, Jinfeng ZHONG a fait plusieurs publications dans des conférences internationales (SAC, HICSS, SMC, DSAA) et journaux internationaux (IJKBO, SIMULATION). Avant de rejoindre LAMSADE pour ses études doctorales, il a poursuivi un Master à l’Université Paris Dauphine-PSL et a complété sa formation d’ingénieur à AgroParisTech. Son parcours académique a commencé avec un diplôme de licence de l’Université Jiao Tong de Shanghai. Ses intérêts de recherche sont profondément ancrés dans l’intelligence artificielle, mettant l’accent sur l’explicabilité et l’interprétabilité générales. Cela inclut des domaines spécialisés comme l’argumentation pour des recommandations explicables, le raisonnement contrefactuel dans le contexte des recommandations explicables, et les méthodologies pour évaluer les explications.

Journée du LISIC

La journée commencera par une présentation des salles hébergeant du matériel de recherche Les membres du laboratoire (permanents ou non-permanents) sont sollicités pour proposer un

Aller au contenu principal