Algorithmes de bandit pour les systèmes de recommandation : le cas de multiples recommandations simultanées
Author(s) -
Jonathan Louëdec,
Max Chevalier,
Aurélien Garivier,
Josiane Mothe
Publication year - 2015
Language(s) - French
DOI - 10.24348/coria.2015.26
Les systemes de recommandation (SR) a tirages multiples font reference aux SR qui recommandent plusieurs objets aux utilisateurs. La plupart des SR s'appuient sur des modeles d'apprentissage afin de decider les objets a recommander. Parmi les modeles d'apprentissage, les algorithmes de bandit offrent l'avantage de permettre d'apprendre tout en exploitant les elements deja appris. Les approches actuelles utilisent autant d'instances d'un algorithme de bandit que le SR doit recommander d'objets. Nous proposons au contraire de gerer l'ensemble des recommandations par une seule instance d'un algorithme de bandit pour rendre l'apprentissage plus efficace. Nous montrons sur deux jeux de donnees de references (Movielens et Jester) que notre methode, MPB (Multiple Plays Bandit), permet d'obtenir un temps d'apprentissage jusqu'a treize fois plus rapide tout en obtenant des taux de clics equivalents. Nous montrons egalement que le choix de l'algorithme de bandit utilise influence l'amelioration obtenue.
Accelerating Research
Robert Robinson Avenue,
Oxford Science Park, Oxford
OX4 4GP, United Kingdom
Address
John Eccles HouseRobert Robinson Avenue,
Oxford Science Park, Oxford
OX4 4GP, United Kingdom