Aller au contenu

Vladimir Vapnik

Un article de Wikipédia, l'encyclopédie libre.
Vladimir Vapnik
une illustration sous licence libre serait bienvenue
Biographie
Naissance
Nationalités
Formation
Samarkand State University(en)Voir et modifier les données sur Wikidata
Activités
Autres informations
A travaillé pour
Meta Platforms(depuis le)
AT&T Labs(en)(-)
Royal Holloway
Université ColumbiaVoir et modifier les données sur Wikidata
Membre de
Directeur de thèse
Alexander Lerner(en)Voir et modifier les données sur Wikidata
Distinctions
Œuvres principales

Vladimir Naoumovitch Vapnik(enrusse:Владимир Наумович Вапник), né le,est un mathématicien et informaticien, célèbre pour avoir développé lesmachines à support vectoriel,être l'un des principaux contributeurs à lathéorie de Vapnik-Chervonenkiset de lathéorie de l'apprentissage statistique.

Né enUnion soviétique,il obtient en 1958 un diplôme demathématiquesà l'université d'État d'OuzbékistanSamarcande,enOuzbékistan,puis obtient en 1964 undoctoratdestatistiquesà l'Institut des Sciences de ContrôleMoscou.Il travaille dans ce même institut de 1961 à 1990, et en devient le directeur du département de recherche eninformatique.

En 1995, il est nommé professeur d'informatique et de statistiques auRoyal Holloway College,à l'Université de Londres.Auxlaboratoires Belld'AT&Tde 1991 à 2001?, Vladimir Vapnik et ses collègues développent la théorie desmachines à support vectoriel(aussi appelées « machines à vecteurs de support », ou encore « séparateurs à vaste marge »), dont ils démontrent l'intérêt dans nombre des problématiques importantes de l'apprentissage des machineset desréseaux de neurones,tels que lareconnaissance de caractères.

Il travaille ensuite aux laboratoiresNECdePrinceton,dans leNew Jersey,aux États-Unis, ainsi qu'à l'université Columbia,à New York.

En 2006, Vladimir Vapnik est admis à l'Académie nationale d'ingénierie des États-Unis.

En 2008, il a conjointement avecCorinna Cortesreçu leprix Paris-Kanellakispour la théorie et la pratique pour le développement d'un algorithme hautement efficace pour l'apprentissage superviséconnu sous le nom de machines à vecteurs de support (SVM)[1].

En,il rejoint le laboratoire de recherche sur l'intelligence artificielledeFacebookoù il travaille avec Jason Weston, Ronan Collobert etYann Le Cun[2].

Il reçoit lamédaille John von Neumannen 2017[3].

Bibliographie

[modifier|modifier le code]
  • On the uniform convergence of relative frequencies of events to their probabilities(De la convergence uniforme des fréquences relatives des évènements vers leur probabilité), avec A. Y. Chervonenkis, 1971
  • Necessary and sufficient conditions for the uniform convergence of means to their expectations(Conditions nécessaires et suffisantes pour la convergence uniforme des moyennes vers leur espérance), avec A. Y. Chervonenkis, 1981
  • Estimation of Dependences Based on Empirical Data(Estimation des dépendances à partir de données empiriques), 1982
  • The Nature of Statistical Learning Theory(La nature de la théorie de l'apprentissage statistique), 1995
  • Statistical Learning Theory(Théorie de l'apprentissage statistique), 1998
  • Estimation of Dependences Based on Empirical Data(Estimation des dépendances à partir de données empiriques), réédition 2006 (Springer), qui contient également un essai philosophique sur la Science de l'inférence empirique (Empirical Inference Science), 2006

Notes et références

[modifier|modifier le code]
  1. CorinnaCorteset VladimirVapnikSupport-Vector Networks»,Machine Learning,vol.20,‎,p.273–297
  2. (en)«Facebook’s AI team hires Vladimir Vapnik, father of the popular support vector machine algorithm»,VentureBeat,‎(lire en ligne)
  3. IEEE JOHN VON NEUMANN MEDAL RECIPIENTS[PDF]

Articles connexes

[modifier|modifier le code]

Liens externes

[modifier|modifier le code]