z-logo
open-access-imgOpen Access
Algorithmes de bandit pour les systèmes de recommandation : le cas de multiples recommandations simultanées
Author(s) -
Jonathan Louëdec,
Max Chevalier,
Aurélien Garivier,
Josiane Mothe
Publication year - 2015
Language(s) - French
DOI - 10.24348/coria.2015.26
Les systemes de recommandation (SR) a tirages multiples font reference aux SR qui recommandent plusieurs objets aux utilisateurs. La plupart des SR s'appuient sur des modeles d'apprentissage afin de decider les objets a recommander. Parmi les modeles d'apprentissage, les algorithmes de bandit offrent l'avantage de permettre d'apprendre tout en exploitant les elements deja appris. Les approches actuelles utilisent autant d'instances d'un algorithme de bandit que le SR doit recommander d'objets. Nous proposons au contraire de gerer l'ensemble des recommandations par une seule instance d'un algorithme de bandit pour rendre l'apprentissage plus efficace. Nous montrons sur deux jeux de donnees de references (Movielens et Jester) que notre methode, MPB (Multiple Plays Bandit), permet d'obtenir un temps d'apprentissage jusqu'a treize fois plus rapide tout en obtenant des taux de clics equivalents. Nous montrons egalement que le choix de l'algorithme de bandit utilise influence l'amelioration obtenue.

The content you want is available to Zendy users.

Already have an account? Click here to sign in.
Having issues? You can contact us here
Accelerating Research

Address

John Eccles House
Robert Robinson Avenue,
Oxford Science Park, Oxford
OX4 4GP, United Kingdom