Skip to main content

Training Hadoop Developer With Spark

HADOOP DEVELOPER WITH SPARK
www.purnamaacademy.com , Hotline (Call/SMS/WA) :  0838-0838-0001 , Jakarta , Bandung, Bali

Syllabus Overview
Saat ini Industri banyak menggunakan Hadoop secara ekstensif untuk menganalisis kumpulan data yang mereka miliki ,  alasannya adalah bahwa framework Hadoop bekerja atas dasar pada model pemrograman sederhana (MapReduce) dan memungkinkan solusi komputasi yang terukur, fleksibel, toleransi kesalahan dan hemat biaya. Disini, yang menjadi perhatian utama adalah menjaga kecepatan dalam mengolah dataset besar dalam hal waktu tunggu antara Query  dan waktu tunggu untuk menjalankan program.
Spark diperkenalkan oleh Apache Software Foundation untuk mempercepat proses komputasi komputasi Hadoop
Tidak seperti yang kebanyakan orang kira bahwa Spark bukanlah versi modifikasi dari Hadoop dan sebenarnya juga tidak bergantung pada Hadoop karena memiliki manajemen cluster sendiri. Hadoop hanyalah salah bagian dalam implementasi Spark.
Spark menggunakan Hadoop dengan dua cara – Pertama adalah penyimpanan dan yang kedua adalah pemrosesan. Namun karena Spark memiliki perhitungan manajemen cluster sendiri maka Spark menggunakan Hadoop lebih kepada untuk tujuan penyimpanan saja.

Class Type           : Training
Duration              : 4 Days (09.00 – 17.00)
Venue / Price    : www.purnamaacademy.com 
Registration       : www.purnamaacademy.com  (Save up to 20% for Early Bird Registration !)

Topics include:

Introduction to Hadoop and the Hadoop Ecosystem
·         Problems with Traditional Large-scale Systems
·         Hadoop!
·         The Hadoop EcoSystem
Hadoop Architecture and HDFS
·         Distributed Processing on a Cluster
·         Storage: HDFS Architecture
·         Storage: Using HDFS
·         Resource Management: YARN Architecture
·         Resource Management: Working with YARN
Importing Relational Data with Apache Sqoop
·         Sqoop Overview
·         Basic Imports and Exports
·         Limiting Results
·         Improving Sqoop's Performance
·         Sqoop 2
Introduction to Impala and Hive
·         Introduction to Impala and Hive
·         Why Use Impala and Hive?
·         Comparing Hive to Traditional Databases
·         Hive Use Cases
Modeling and Managing Data with Impala and Hive
·         Data Storage Overview
·         Creating Databases and Tables
·         Loading Data into Tables
·         HCatalog
·         Impala Metadata Caching
Data Formats
·         Selecting a File Format
·         Hadoop Tool Support for File Formats
·         Avro Schemas
·         Using Avro with Hive and Sqoop
·         Avro Schema Evolution
·         Compression
Data Partitioning
·         Partitioning Overview
·         Partitioning in Impala and Hive
Capturing Data with Apache Flume
·         What is Apache Flume?
·         Basic Flume Architecture
·         Flume Sources
·         Flume Sinks
·         Flume Channels
·         Flume Configuration
Spark Basics
·         What is Apache Spark?
·         Using the Spark Shell
·         RDDs (Resilient Distributed Datasets)
·         Functional Programming in Spark
Working with RDDs in Spark
·         A Closer Look at RDDs
·         Key-Value Pair RDDs
·         MapReduce
·         Other Pair RDD Operations
Writing and Deploying Spark Applications
·         Spark Applications vs. Spark Shell
·         Creating the SparkContext
·         Building a Spark Application (Scala and Java)
·         Running a Spark Application
·         The Spark Application Web UI
·         Configuring Spark Properties
·         Logging
Parallel Programming with Spark
·         Review: Spark on a Cluster
·         RDD Partitions
·         Partitioning of File-based RDDs
·         HDFS and Data Locality
·         Executing Parallel Operations
·         Stages and Tasks
Spark Caching and Persistence
·         RDD Lineage
·         Caching Overview
·         Distributed Persistence
Common Patterns in Spark Data Processing
·         Common Spark Use Cases
·         Iterative Algorithms in Spark
·         Graph Processing and Analysis
·         Machine Learning
·         Example: k-means
Preview: Spark SQL
·         Spark SQL and the SQL Context
·         Creating DataFrames
·         Transforming and Querying DataFrames
·         Saving DataFrames
·         Comparing Spark SQL with Impala

Participants :  (Hadoop Developer , Big Data Analyst, IT Developer, DBA  )

Speaker  : Purnama Academy Trainer

#trainingbigdata  #hadoop #sparkhadoop #silabustraining #tempattraining  #pelatihan #jakarta  #bandung  #bali  #surabaya #makasar #jadwaltraining




Comments

Popular posts from this blog

Download JDK

Download Java Development Kit (JDK) Masuk ke situs http://java.sun.com/javase/downloads/index.jsp Pilih paket JDK terbaru (pada saat penulisan JDK sudah memasuki versi 6 update 5 seperti terlihat pada gambar di bawah ini). Klik tombol Download. Pilih paket sesuai sistem operasi yang kita gunakan. Untuk contoh, saya pilih Microsoft Windows. Klik "Accept" dan pilih link "Windows Offline Installation, Multi Language" Sering sekali kita masih diminta registrasi account di Sun untuk melanjutkan download. Apabila kita sudah memiliki account Sun kita tinggal login saja, tetapi apabila belum maka lakukan registrasi terlebih dulu. Download paket JDK. Instalasi JDK Jalankan setup program jdk-6u5-windows-i586-p.exe atau sesuai yang Anda download. Muncul dialog awal instalasi JDK Tekan Accept untuk menerima persetujuan lisensi dari Sun. Pilih semua fitur yang kita inginkan pada langkah Custom Setup Tekan next untuk melanjutkan. Perhatikan bahwa folder instalasi adalah di C:\Pro

Project Management With Primavera P6

Perencanaan proyek dengan Primavera P6 Professional Primavera P6 Professional adalah modul Client-Server Primavera P6 EPPM. Proyek berskala besar dan kompleks membutuhkan solusi manajemen proyek. Oracle Primavera P6 Professional dirancang dengan fokus pada proyek berskala besar, multidisiplin dan multi-aspek. Ini memberi manajer proyek dan perencana apa yang paling mereka butuhkan - kontrol. - Proyek besar, data ekstensif Primavera P6 Professional (penerus Primavera Project Planner yang terkenal, P3) adalah standar yang diakui untuk perangkat lunak manajemen proyek integral kinerja tinggi dan menggunakan teknologi ICT terbaru. Perangkat lunak Microsoft Windows ini dapat digunakan untuk beberapa proyek dengan 100.000 kegiatan dan sumber daya yang tidak terbatas. Banyak jenis data memerlukan alat yang canggih tetapi sangat fleksibel sehingga kegiatan, proyek, dan sumber daya dapat diatur, dipilih, dan disortir dengan cara yang berbeda, sehingga memberikan wawasan yang paling jelas ke dal

MS Project : Setting Up Overtime Pay Rates and Assigning Resource Overtime Hours

I will explain how can you assign overtime hours and overtime Pay Rate to Resource in MS PROJECT 2010 First I will add TASK 1 with 5 days duration: Now I will add Mary as a resource with $100/hour as standard pay rate, and $150 / hour as overtime pay rate: Now I will assign Mary to the TASK 1: You can see $400 in the Cost field (5 days X 8 hours/day X $100 / hour = $4.000) Now, I will choose the Gant chart view open the Task form ad a detailed view: I will click ANYWHERE in the Task Form and then I will click on the Format Tab, in the Details Group –> WORK: Now I will put 16 hours in the Overtime work field. It means that Mary will work 16 hours overtime: It seems like nothing happened in the Gant chart? I will now click anywhere in the Gantt chart portion of the screen and I will get: You can see that TASK 1 will have only 3 days duration. Why? Well, if you add overtime work on the task the same amount of work will be done but in shorter period. I will now close the Task form: