Artificial Intelligence - Big Data - Big Data, méthodes et solutions

Inter and intra-company training

Who is the training for?

Dataminers, chargés d'études statistiques, développeurs, chefs de projet, consultants en informatique décisionnelle.

Duration

5,00 day(s)

Language(s) of service

FR

Prerequisites

Connaissances de base des modèles relationnels, des statistiques et des langages de programmation. Connaissances de base des concepts de la Business Intelligence.

Goals

  • Comprendre les concepts et l'apport du Big Data par rapport aux enjeux métiers.
  • Comprendre l'écosystème technologique nécessaire pour réaliser un projet Big Data.
  • Acquérir les compétences techniques pour gérer des flux de données complexes, non structurés et massifs.
  • Implémenter des modèles d'analyses statistiques pour répondre aux besoins métiers.
  • Appréhender un outil de data visualisation pour restituer des analyses dynamiques.

Contents

Ce stage vous permettra de comprendre les enjeux et les apports du Big Data ainsi que les technologies pour le mettre en œuvre. Vous apprendrez à intégrer des volumétries massives de données structurées et non structurées via un ETL, puis à les analyser grâce à des modèles statistiques et des dashboards dynamiques.

Points covered

Comprendre les concepts et les enjeux du Big Data
  • Origines et définition du Big Data.
  • Les chiffres clés du marché dans le monde et en France.
  • Les enjeux du Big Data: ROI, organisation, confidentialité des données.
  • Un exemple d'architecture Big Data.
Les technologies du Big Data
  • Description de l'architecture et des composants de la plateforme Hadoop.
  • Les modes de stockage (NoSQL, HDFS).
  • Principes de fonctionnement de MapReduce, Spark, Storm...
  • Principales distributions du marché (Hortonworks, Cloudera, MapR, Elastic Map Reduce, Biginsights).
  • Installer une plateforme Hadoop.
  • Les technologies du datascientist.
  • Présentation des technologies spécifiques pour le Big Data (Tableau, Talend, Qlikview...).

Travaux pratiques: Installation d'une plateforme Big Data Hadoop (via Cloudera QuickStart ou autre).

Gérer les données structurées et non structurées
  • Principes de fonctionnement de Hadoop Distributed File System (HDFS).
  • Importer des données externes vers HDFS.
  • Réaliser des requêtes SQL avec HIVE.
  • Utiliser PIG pour traiter la donnée.
  • Le principe des ETL (Talend...).
  • Gestion de streaming de données massive (NIFI, Kafka, Spark, Storm...)

Travaux pratiques: Implémentation de flux de données massives.

L'univers NoSQL
  • Le théorème CAP
  • NoSQL
  • Les entrepôts clé­valeur
  • Les bases orientées documents
  • Les bases orientées colonnes
  • Le déluge des données
  • La diversité des sources
  • La diversité des formats

Travaux pratiques: Mise en place une base de données NoSQL.

Technique et méthodes Big data analytics
  • Machine Learning, une composante de l'intelligence artificielle.
  • Découvrir les trois familles: Régression, Classification et Clustering.
  • La préparation des données (data preparation, feature engineering).
  • Générer des modèles en R ou Python.
  • Ensemble Learning.
  • Découvrir les outils du marché: Jupyter Notebook, Dataïku, DataBricks, Amazon Machine Learning...

Travaux pratiques: Mise en place d'analyses avec une des outils étudiés.

Data visualisation et cas d'usage concrets
  • Définir le besoin de la data visualisation.
  • Analyse et visualisation des données.
  • Peut concerner tous les types de données dans la DataViz?
  • Les outils DataViz du marché.

Travaux pratiques: Installation et utilisation d'un outil de Data Visualisation pour constituer des analyses dynamiques.

Conclusion
  • Ce qu'il faut retenir.
  • Synthèse des bonnes pratiques.
  • Bibliographie.

Teaching methods

Notre méthode, adaptée à votre contexte, associe implication des participants et supports concrets.

Certificate, diploma

Attestation de présence

Mode of organisation

En présentiel ou en classe virtuelle.

These courses might interest you