Plan du cours
- Introduction à Scala Une introduction rapide à Scala Labs : Connaître les bases de Scala Spark Contexte et historique Concepts et architecture de Spark et Hadoop Spark Eco-système Spark (core, spark sql, mlib, streaming) Labs : Installer et exécuter Spark Premier aperçu de Spark Exécution de Spark dans mode local Spark web UI Spark Shell Analyse de l'ensemble de données - partie 1 Inspection des RDD Labs : Exploration du shell Spark RDD Concepts des RDD Partitions RDD Opérations / transformations Types de RDD Paire clé-valeur RDD MapReduce sur RDD Mise en cache et persistance Labs : création et inspection des RDD ; Mise en cache des RDD Programmation de l'API Spark Introduction à l'API Spark / API RDD Soumission du premier programme à Spark Débogage / journalisation Propriétés de configuration Labs : Programmation dans l'API Spark, Soumission de tâches Prise en charge de Spark SQL SQL dans Spark Dataframes Définition de tables et importation d'ensembles de données Interrogation de données frames utilisant SQL Formats de stockage : JSON / Parquet Labs : Création et interrogation de data frames ; évaluation des formats de données MLlib Introduction à MLlib Algorithmes MLlib Laboratoires : Écriture d'applications MLib GraphX Présentation de la bibliothèque GraphX Laboratoires des API GraphX : Traitement des données graphiques à l'aide de Spark Spark Streaming Présentation du streaming Évaluation des plateformes de streaming Opérations de streaming Opérations par fenêtre coulissante Labs : Écriture d'applications de streaming Spark Spark et Hadoop Hadoop Intro ( HDFS / YARN) Architecture Hadoop + Spark Exécution de Spark sur Hadoop YARN Traitement des fichiers HDFS à l'aide de Spark Spark Performances et réglage des variables de diffusion Accumulateurs Gestion de la mémoire et mise en cache Opérations Spark Déploiement de Spark en production Exemples de modèles de déploiement Configurations Surveillance Dépannage
Pré requis
PRÉ-REQUIS
familiarité avec le langage Java / Scala / Python (nos laboratoires en Scala et Python) connaissance de base de l'environnement de développement Linux (navigation en ligne de commande / édition de fichiers à l'aide de VI ou nano)
Nos clients témoignent (6)
Faire des exercices similaires de différentes manières aide vraiment à comprendre ce que chaque composant (Hadoop/Spark, standalone/cluster) peut faire individuellement et ensemble. Cela m'a donné des idées sur la façon dont je devrais tester mon application sur ma machine locale lorsque je développe par rapport au moment où elle est déployée sur un cluster.
Thomas Carcaud - IT Frankfurt GmbH
Formation - Spark for Developers
Traduction automatique
Ajay était très amical, serviable et également compétent sur le sujet qu'il discutait.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Formation - Spark for Developers
Traduction automatique
Ernesto did a great job explaining the high level concepts of using Spark and its various modules.
Michael Nemerouf
Formation - Spark for Developers
Traduction automatique
The trainer made the class interesting and entertaining which helps quite a bit with all day training.
Ryan Speelman
Formation - Spark for Developers
Traduction automatique
We know a lot more about the whole environment.
John Kidd
Formation - Spark for Developers
Traduction automatique
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
Kieran Mac Kenna
Formation - Spark for Developers
Traduction automatique