Filtrer
Sciences & Techniques
-
Probabilités, analyse des données et statistique
Gilbert Saporta
- Technip
- Statistiques
- 26 Juillet 2011
- 9782710809807
La démarche statistique n'est pas seulement une auxiliaire des sciences destinée à valider ou non des modèles préétablis, c'est aussi une méthodologie indispensable pour extraire des connaissances à partir de données et un élément essentiel pour la prise de décision. La très large diffusion d'outils informatiques peut donner l'illusion de la facilité à ceux qui n'en connaissent pas les limites, alors que la statistique est plus que jamais un mode de pensée fondamental pour maîtriser la complexité, l'aléatoire et les risques, en donnant la prudence scientifique nécessaire.
Ce manuel présente l'ensemble des connaissances utiles pour pouvoir pratiquer la statistique. Il est destiné à un vaste public (étudiants, chercheurs, praticiens de toutes disciplines) possédant le niveau d'algèbre et d'analyse d'un premier cycle universitaire scientifique ou économique.
Cette nouvelle édition est une révision complète, avec des ajouts, de l'édition de 1990 et comporte de nombreux développements sur des méthodes récentes. Les 21 chapitres sont structurés en cinq parties : outils probabilistes, analyse exploratoire, statistique inférentielle, modèles prédictifs et recueil de données. On y trouve l'essentiel de la théorie des probabilités, les différentes méthodes d'analyse exploratoire des données (analyses factorielles et classification), la statistique "classique" avec l'estimation et les tests mais aussi les méthodes basées sur la simulation, la régression linéaire et logistique ainsi que des techniques non linéaires, la théorie des sondages et la construction de plans d'expériences.
-
Probabilites, analyse des donnees et statistiques
Gilbert Saporta
- Technip
- 17 Avril 2003
- 9782710805656
-
Données manquantes
Anne Gegout-petit, Myriam Maumy, Gilbert Saporta
- Technip
- 11 Octobre 2022
- 9782710811954
Une synthèse des fondements et des travaux les plus récents dans le domaine du traitement des données manquantes, avec des applications dans des domaines variés.
Il n'y a pas de données sans données manquantes ! Les inconvénients en sont connus : biais éventuels et difficultés d'utiliser des méthodes conçues pour des données complètes. Il est indispensable de comprendre les mécanismes qui peuvent conduire à l'absence totale ou partielle de valeurs dans des échantillons. Des variables peuvent manquer en totalité parce qu'elles n'ont pu être observées ou qu'elles sont inobservables comme des variables latentes. Les données censurées constituent une espèce particulière de données manquantes. De nombreuses solutions ont été proposées pour remplacer des valeurs manquantes par des valeurs plausibles : imputations simples ou multiples, avec ou sans modèle. On peut aussi utiliser des méthodes qui s'accommodent d'une proportion raisonnable de données manquantes. Depuis la première édition du célèbre ouvrage de Little et Rubin en 1987, des milliers d'articles ont été publiés et des développements logiciels ont foisonné. Cet ouvrage a été édité suite à la 52e édition des journées d'étude de statistique qui a eu lieu en 2021. -
Manifeste pour une intelligence artificielle comprise et responsable
Jean-Paul Aimetti, Olivier Coppet, Gilbert Saporta
- Cent Mille Milliards
- 15 Mars 2024
- 9782850712999
NOUVELLE ÉDITION AUGMENTÉE INTÉGRANT L'IA GÉNÉRATIVE
L'objectif de ce manifeste n'est pas de remettre en question les applications vertueuses de l'IA qui se développe dans tous les domaines où on dispose de volumes impressionnants de données numérisées, et qui vient de connaitre, depuis le lancement de ChatGPT en 2022, une révolution technologique et sociologique comparable à l'arrivée d'Internet.
Cet essai n'a d'autre ambition que de proposer un ensemble de billets d'humeur incitant réflexions et questions, accessibles aux non spécialistes, à l'aube d'une nouvelle ère qui transforme en profondeur nos habitudes de recherche d'informations, de formation, de travail et, progressivement, de vie quotidienne.
Jean-Paul Aimetti est diplômé de CentraleSupélec et docteur en mathématiques appliquées aux sciences humaines. Professeur émérite du CNAM, il est Président de l'Académie des sciences commerciales et de l'ISC, grande école de commerce.
Olivier Coppet est statisticien, diplômé de l'ISUP et titulaire d'un DEA de statistique mathématique de l'université de Paris. Cofondateur et président d'une société novatrice en analyse de données qui intégrera le groupe WWAV Rapp et Collins à Londres, il a enseigné à HEC.
Gilbert Saporta est professeur émérite de statistique appliquée au CNAM. Diplômé de CentraleSupélec et de l'ISUP, docteur es sciences en mathématiques, il est co-auteur du Que Sais-je Analyse des données (PUF, 9e édition, 2005) et auteur de Probabilités, analyse des données et statistique (Éditions Technip, 4e édition, 2024). -
Approches statistiques du risque
Jean-Jacques Droesbeke, Gilbert Saporta, Christine Thomas-agnan
- Technip
- Statistiques
- 1 Juillet 2014
- 9782710809654
L 'actualité nous renvoie tous les jours une facette du risque : crise financière, accidents d'avion, dérapages du changement climatique, etc.
Quel est le rôle joué par la statistique dans l'analyse de ces risques et quels sont les outils spécifiquement développés pour cela ?
Cet ouvrage est consacré à une présentation des fondements méthodologiques classiques mais aussi récents, et présente des applications à des domaines variés.
-
Model choice and model aggregation
Frédéric Bertrand, Jean-Jacques Droesbeke, Gilbert Saporta, Christine Thomas-agnan
- Technip
- Statistiques
- 28 Septembre 2017
- 9782710811770
For over fourty years, choosing a statistical model thanks to data consisted in optimizing a criterion based on penalized likelihood (H. Akaike, 1973) or penalized least squares (C. Mallows, 1973). These methods are valid for predictive model choice (regression, classification) and for descriptive models (clustering, mixtures). Most of their properties are asymptotic, but a non asymptotic theory has emerged at the end of the last century (Birgé-Massart, 1997). Instead of choosing the best model among several candidates, model aggregation combines different models, often linearly, allowing better predictions. Bayesian statistics provide a useful framework for model choice and model aggregation with Bayesian Model Averaging.
In a purely predictive context and with very few assumptions, ensemble methods or meta-algorithms, such as boosting and random forests, have proven their efficiency.
This volume originates from the collaboration of high-level specialists: Christophe Biernacki (Université de Lille I), Jean-Michel Marin (Université de Montpellier), Pascal Massart (Université de Paris-Sud), Cathy Maugis-Rabusseau (INSA de Toulouse), Mathilde Mougeot (Université Paris Diderot), and Nicolas Vayatis (École Normale Supérieure de Cachan) who were all speakers at the 16th biennal workshop on advanced statistics organized by the French Statistical Society. In this book, the reader will find a synthesis of the methodologies' foundations and of recent work and applications in various fields.
The French Statistical Society (SFdS) is a non-profit organization that promotes the development of statistics, as well as a professional body for all kinds of statisticians working in public and private sectors. Founded in 1997, SFdS is the heir of the Société de Statistique de Paris, established in 1860. SFdS is a corporate member of the International Statistical Institute and a founding member of FENStatS-the Federation of European National Statistical Societies.
-
Apprentissage statistique et données massives
Myriam Maumy-bertrand, Gilbert Saporta, Christine Thomas-agnan
- Technip
- Statistiques
- 26 Mai 2018
- 9782710811824
La numérisation du monde a pour conséquence la mise à disposition de masses de données inédites, notamment celles provenant du web.
La statistique qui s'est développée autrefois dans un contexte de rareté des données fait face à de nouveaux défis. Donner du sens aux données, développer des algorithmes prédictifs sans nécessairement avoir de modèle génératif, tels sont quelques-uns des objectifs de l'apprentissage statistique. L'apport d'autres disciplines - informatique et optimisation en particulier - est essentiel compte tenu de la nécessité de traiter rapidement les volumes de données impliqués.
On distingue l'apprentissage supervisé, où l'objectif est de prévoir une réponse à partir de prédicteurs, de l'apprentissage non supervisé, qui recherche des structures et des formes sans chercher à prévoir une réponse particulière. Depuis les réseaux de neurones jusqu'aux forêts aléatoires, en passant par les séparateurs à vaste marge (SVM), de nombreux algorithmes ont été développés, ne reposant que faiblement sur des hypothèses probabilistes. Dans ce contexte, la validation, la capacité de généralisation à de nouvelles données et le passage à l'échelle sont donc essentiels.
Cet ouvrage est le fruit de la collaboration entre spécialistes réputés. Sylvain Arlot (Université Paris Sud), Philippe Besse (INSA de Toulouse), Stéphane Canu (INSA de Rouen), Jean-Michel Poggi (Université Paris Descartes & LMO, Université Paris-Sud Orsay), Emmanuel Viennet (Université Paris 13) et Nathalie Villa-Vialaneix (INRA, Toulouse) réunis à l'occasion des 17es Journées d'étude en statistique organisées par la SFdS. Le lecteur y trouvera une synthèse des fondements et des travaux les plus récents dans le domaine de l'apprentissage statistique, avec des applications dans des domaines variés.