Journée de la Statistique 2015

Le Comité pour l’Avancement de la Statistique à l’Université Laval (CASUL) vous invite à la 28e édition de la Journée de la Statistique, qui se tiendra le 26 mars 2015.

Pendant tout l’après-midi de cette merveilleuse journée, vous pourrez assister à quatre remarquables conférences autour de la statistique.

L’activité est gratuite et ouverte à tous les intéressés. Afin de vous ressourcer, nous vous offrirons gracieusement un excellent café et de succulentes collations.

 

Les conférences seront présentées au local 3850 du pavillon Alexandre-Vachon à l’Université Laval. Voici la programmation de l’événement :

13h30 – Conférence de Thierry Badard, professeur au département des sciences géomatiques à l’Université Laval.
14h30 – Conférence de Maxime Caron, étudiant ayant complété une maîtrise à l’Université Laval.15h10 – Pause excellent café et succulentes collations.
15h30 – Conférence de Patrick Lagueux et Denis Ouellette, statisticiens à Desjardins groupe financier.
16h30 – Conférence de Sophie Baillargeon, étudiant au doctorat en génie informatique à l’Université Laval.
17h30 – Cocktail au Fou AÉLIES (Pavillon Desjardins-Pollack).

Nous vous attendons nombreux ! Inscrivez-vous en envoyant un sympathique courriel à casul@mat.ulaval.ca.


Résumé des conférences :

Thierry Badard – Enjeux et défis de la prise en compte de la localisation dans les systèmes d’analyse Big data.

Avec l’explosion de la téléphonie mobile et du web 2.0, l’avènement des réseaux sociaux, le développement de l’open data et la présence de plus en plus importante de capteurs, laissant présager du futur Internet des objets annoncé, une quantité de données colossale et toujours croissante, est générée chaque jour. Or, ces données revêtent de plus en plus un caractère stratégique pour bon nombre d’entreprises. Cependant, faire face à un tel déluge de données pose un certain nombre de challenges pour les entreprises. Les méthodes d’analyse et outils actuels ne permettent en effet pas de gérer de telles masses d’informations, bien souvent très variées, non structurées et arrivant en flux continu imposant aux systèmes d’analyse de les traiter avec une vélocité toujours croissante. Sont ainsi récemment apparues de nouvelles techniques et technologies de traitement de ces données massives, regroupées sous le nom de technologies Big data.

Parallèlement à l’éclosion de ces technologies Big data, les outils analytiques se sont dotés de méthodes, techniques et technologies de prise en compte de l’information de localisation permettant ainsi de rendre pleinement en compte toutes les composantes de l’information. On estime communément en effet qu’environ 80% de l’information renfermée dans les entrepôts de données d’entreprise peut se voir rattacher une information de localisation : adresse, code postal, adresse IP, numéro de téléphone, coordonnées GPS. Les systèmes BI (Business Intelligence ou d’intelligence d’affaires) qui traditionnellement traitaient la  composante temporelle afin d’extraire par croisement de données des tendances dans le temps, des patrons (patterns) se répétant dans le temps, sont maintenant de plus en plus capables de tenir compte de la localisation absolue mais aussi relative des entités du monde réel afin d’en comprendre les interactions et incidences, et ainsi rendre les entreprises au fait des impacts et facteurs géographiques dans certaines décisions ou compréhension de problème (ex. implantation d’un nouveau site, consolidation d’un réseau de distribution, proximité spatiale de certains acteurs, compétiteurs ou générateurs de trafic, ciblage de clientèle, prise en compte des réseaux et accessibilité, propagation spatio-temporelle d’une contamination ou d’un pathogène, …). La carte est devenue un medium d’analyse aussi courant que le tableau ou les graphiques dans les rapports et tableaux de bord produits par ces engins analytiques. On est passé du BI au GeoBI (Geospatial BI).

Néanmoins, si ces outils d’analyse/BI sont capables de traiter et analyser des volumes de données conséquents, ils s’appuient sur des principes et techniques qui ne leur permettent pas de faire face au déluge de données imposé par le Big data et donc ne permettent pas aux entreprises de faire face aux challenges et à la compétition de demain. De plus, ces technologies Big data n’incorporent pour l’heure aucune prise en compte de la dimension spatiale, pourtant cruciale dans l’analyse de nombreux problèmes comme la lutte contre la fraude, l’analyse de données d’accidentologie, les études de criminalité, les problèmes environnementaux et situations d’urgence, etc.

La présentation s’attachera ainsi, outre à tenter de bien définir ce qu’est le Big data, à mettre en exergue et faire un panorama des nombreux enjeux et défis tant technologiques, analytiques, computationnels, mathématiques et statistiques, que liés à la visualisation de la prise en compte pleine et entière de la composante spatiale dans l’écosystème Big data.

Maxime Caron – Génération de jeux de données synthétisés par forêts aléatoires pour des variables catégoriques.

Le traitement des données confidentielles est devenu primordial en statistique avec l’essor qu’a connu internet depuis quelques années. On fait cependant face à un conflit puisqu’on souhaite conserver le maximum d’utilité dans les données. Une méthode utilisée pour diminuer le risque de ré-identification et pour conserver une grande utilité est la génération de jeux de données partiellement synthétiques.
Cette présentation introduira les jeux de données partiellement synthétiques. Puis, la formule permettant de calculer la variance avec plusieurs jeux synthétiques sera présentée et un exemple montrera que celle-ci ne fonctionne pas toujours.
L’ajout de l’idée de la confidentialité différentielle à l’algorithme générant les jeux de données s’avère être le point important de la présentation. Cet ajout permettrait entre autres de garantir, à un certain niveau, la confidentialité d’une observation.
De plus, la confidentialité différentielle ne repose sur aucune hypothèse à propos de l’adversaire et de ses connaissances.

Patrick Lagueux et Denis Ouellette : L’intelligence d’affaires.

Cette présentation a pour objectif de permettre à l’auditoire de se familiariser avec certains concepts fondamentaux en intelligence d’affaires ainsi que de leur mise en application chez  Desjardins Assurances.
Par le biais d’exemples pratiques, les thèmes suivants seront abordés : la raison d’être de l’intelligence d’affaires,  les principaux éléments composant les systèmes d’information de gestion actuels ainsi que les avantages que retire une entreprise d’un système d’intelligence d’affaires en fonction du niveau de maturité de ce dernier.
Il s’en suivra d’une présentation de la mission de la Direction Principale en Intelligence d’Affaires chez Desjardins Assurances, de son écosystème de données et des principales activités réalisées par les membres de cette direction.

Sophie Baillargeon : Un diplôme en statistique, et après?

Le parcours professionnel de chaque diplômé en statistique est unique. Je vous présenterai le mien, qui est encore loin d’être terminé. Dans mon cas, tout s’est passé ici, à l’Université Laval. 15 ans à être d’abord étudiante, puis consultante, ensuite professionnelle de recherche et chargée de cours, pour aujourd’hui être étudiante de nouveau!
Par des exemples de projets que j’ai réalisés, j’illustrerai ce que peut être la consultation, l’enseignement et la recherche en statistique.