2009.bib
@comment{{This file has been generated by bib2bib 1.98}}
@comment{{Command line: bib2bib -ob ./bibs/2009.bib -c year=2009 mesPublis.bib}}
@misc{marion,
author = {Gaëlle Bonnet and POB father},
year = 2009,
title = {Marion {B}onnet},
url = {./images/marion.jpg}
}
@inproceedings{gandar2009suites,
title = {Les suites à dispersion faible comme bases d’exemples optimales pour l’apprentissage actif des formes},
author = {Benoît Gandar and Gaëlle Loosli and Guillaume Deffuant},
book = {Conférence francophone sur l'apprentissage automatique , Hammamet, Tunisie },
year = {2009},
url = {https://sites.google.com/site/capfr09/fichier/Actes_CAp2009.pdf?attredirects=0&d=1},
pages = {347-350},
abstract = {Nous souhaitons générer des bases d'exemples adaptées aux problèmes d'approximation de formes (classification), sans avoir de connaissance a priori sur la forme à apprendre. Nous montrons tout d'abord que les résultats théoriques privilégiant les suites à discrépance faible pour les problèmes de régression sont inadaptés aux problèmes de classification. Nous donnons des arguments théoriques et des résultats de simulation montrant que c'est la dispersion des points d'apprentissage qui est le critère pertinent à minimiser pour optimiser les performances de l'apprentissage en classification. }
}
@inproceedings{gandar2009optimize,
title = {How to optimize sample in active learning: Dispersion, an optimum criterion for classification?},
author = {Gandar, Benoît and Loosli, Gaëlle and Deffuant, Guillaume},
year = {2009},
book = {ENBIS, SaintEtienne, France}
}
@inbook{loosli2009quadratic,
chapter = {Quadratic Programming and Machine Learning—Large Scale Problems and Sparsity},
author = {Loosli, Gaëlle and Canu, Stéphane},
title = {Optimization in Signal and Image Processing},
pages = {111--135},
year = {2009},
publisher = {ISTE Wiley},
isbn = {9781848210448},
abstract = {For a child, learning is a complex process that consists of acquiring or developing certain competences on the basis of multiple experiences. For a machine, this learning process can be reduced to examples or observations that are used to improve performance. Machine learning can be seen as the optimization of criteria defined on examples. The higher the number of examples, the better the learning process. In terms of optimization, this learning process includes several specific problems. How are the criteria to be optimized defined? How to manage large amounts of data? Which algorithm is efficient in this context?
When dealing with those problems, neural networks approaches suggest the usage of non-convex criteria associated to gradient descent methods. This procedure leads to several difficulties linked to the non-convex criteria. The key to the success of kernel based methods (obtained about a decade after the introduction of neural networks) is their capacity to express the learning problem as a large scale quadratic programming problem (convex). Kernel based methods often lead to sparse solutions, i.e. a large number of their components equal zero. Based on this particularity, learning algorithms can solve large scale problems in reasonable time. Solving this type of problem currently takes about one day of calculating when using a mono-processor for 8 million unknowns. Among these 8 million unknowns only 8,000 to 20,000 variables do not equal zero depending on the complexity of the problem.
}
}
@inbook{loosli2007prog,
chapter = {Programmation quadratique et apprentissage. Grande taille et parcimonie},
author = {Loosli, Gaëlle and Canu, Stéphane},
title = {Optimisation en traitement du signal et de l'image},
pages = {111--135},
year = {2009},
editor = {Patrick Siarry},
publisher = {Hermes Science},
isbn = 9782746214637,
url = {http://editions.lavoisier.fr/not.asp?id=3LKFX3ZRKX2OSJ},
abstract = {Apprendre, pour un enfant, est un processus complexe qui vise à acquérir ou à développer certaines facultés à partir d'expériences diverses. Pour une machine, cela se réduit à utiliser des exemples ou des observations pour améliorer ses performances. Ainsi, l'apprentissage automatique peut se concevoir comme l'optimisation, dans un ensemble suffisamment grand, d'un critère défini à partir d'exemples~; plus il y aura d'exemples, meilleur devra être l'apprentissage. Cette manière de voir pose, du point de vue de l'optimisation, des problèmes spécifiques~: comment définir le critère à optimiser, comment gérer la masse des données, comment trouver un algorithme efficace dans ce cadre~?
Pour traiter ces problèmes, les méthodes d'apprentissage de type réseaux de neurones proposent d'utiliser des critères non convexes associés à des méthodes de descente de gradient.
Ce procédé entraîne de nombreuses difficultés pratiques liées à la non convexité du critère à optimiser.
L'une des clés du succès des méthodes à noyaux, acquis une dizaine d'années après l'introduction des réseaux de neurones, est leur capacité à formuler le problème d'apprentissage
comme un problème de programmation quadratique (convexe) de grande taille et très particulier.
En effet, avec les méthodes à noyaux, la solution recherchée est souvent <<~parcimonieuse~>>~: un très grand nombre de ses composants sont nuls.
Profitant aujourd'hui de cette spécificité, les algorithmes d'apprentissage peuvent résoudre en un temps raisonnable
%C'est cette spécificité dont tirent avantage aujourd'hui les algorithmes d'apprentissage résolvant en un temps raisonnable
des problèmes de programmation quadratique de très grande taille~: 1 journée de calcul en moyenne avec une machine mono-processeur pour 8 millions d'inconnues. Sur ces 8 millions d'inconnues, seules de l'ordre de 8000 à 20000 sont non nulles en fonction de la complexité du problème. }
}
@inproceedings{gandar2009selection,
title = {Sélection de points en apprentissage actif. Discrépance et dispersion: des critères optimaux?},
author = {Gandar, Benoît and Loosli, Gaëlle and Deffuant, Guillaume},
booktitle = {MajecSTIC 2009},
pages = {8--p},
year = {2009}
}