Skip to main content

Training Hadoop Developer With Spark

HADOOP DEVELOPER WITH SPARK
www.purnamaacademy.com , Hotline (Call/SMS/WA) :  0838-0838-0001 , Jakarta , Bandung, Bali

Syllabus Overview
Saat ini Industri banyak menggunakan Hadoop secara ekstensif untuk menganalisis kumpulan data yang mereka miliki ,  alasannya adalah bahwa framework Hadoop bekerja atas dasar pada model pemrograman sederhana (MapReduce) dan memungkinkan solusi komputasi yang terukur, fleksibel, toleransi kesalahan dan hemat biaya. Disini, yang menjadi perhatian utama adalah menjaga kecepatan dalam mengolah dataset besar dalam hal waktu tunggu antara Query  dan waktu tunggu untuk menjalankan program.
Spark diperkenalkan oleh Apache Software Foundation untuk mempercepat proses komputasi komputasi Hadoop
Tidak seperti yang kebanyakan orang kira bahwa Spark bukanlah versi modifikasi dari Hadoop dan sebenarnya juga tidak bergantung pada Hadoop karena memiliki manajemen cluster sendiri. Hadoop hanyalah salah bagian dalam implementasi Spark.
Spark menggunakan Hadoop dengan dua cara – Pertama adalah penyimpanan dan yang kedua adalah pemrosesan. Namun karena Spark memiliki perhitungan manajemen cluster sendiri maka Spark menggunakan Hadoop lebih kepada untuk tujuan penyimpanan saja.

Class Type           : Training
Duration              : 4 Days (09.00 – 17.00)
Venue / Price    : www.purnamaacademy.com 
Registration       : www.purnamaacademy.com  (Save up to 20% for Early Bird Registration !)

Topics include:

Introduction to Hadoop and the Hadoop Ecosystem
·         Problems with Traditional Large-scale Systems
·         Hadoop!
·         The Hadoop EcoSystem
Hadoop Architecture and HDFS
·         Distributed Processing on a Cluster
·         Storage: HDFS Architecture
·         Storage: Using HDFS
·         Resource Management: YARN Architecture
·         Resource Management: Working with YARN
Importing Relational Data with Apache Sqoop
·         Sqoop Overview
·         Basic Imports and Exports
·         Limiting Results
·         Improving Sqoop's Performance
·         Sqoop 2
Introduction to Impala and Hive
·         Introduction to Impala and Hive
·         Why Use Impala and Hive?
·         Comparing Hive to Traditional Databases
·         Hive Use Cases
Modeling and Managing Data with Impala and Hive
·         Data Storage Overview
·         Creating Databases and Tables
·         Loading Data into Tables
·         HCatalog
·         Impala Metadata Caching
Data Formats
·         Selecting a File Format
·         Hadoop Tool Support for File Formats
·         Avro Schemas
·         Using Avro with Hive and Sqoop
·         Avro Schema Evolution
·         Compression
Data Partitioning
·         Partitioning Overview
·         Partitioning in Impala and Hive
Capturing Data with Apache Flume
·         What is Apache Flume?
·         Basic Flume Architecture
·         Flume Sources
·         Flume Sinks
·         Flume Channels
·         Flume Configuration
Spark Basics
·         What is Apache Spark?
·         Using the Spark Shell
·         RDDs (Resilient Distributed Datasets)
·         Functional Programming in Spark
Working with RDDs in Spark
·         A Closer Look at RDDs
·         Key-Value Pair RDDs
·         MapReduce
·         Other Pair RDD Operations
Writing and Deploying Spark Applications
·         Spark Applications vs. Spark Shell
·         Creating the SparkContext
·         Building a Spark Application (Scala and Java)
·         Running a Spark Application
·         The Spark Application Web UI
·         Configuring Spark Properties
·         Logging
Parallel Programming with Spark
·         Review: Spark on a Cluster
·         RDD Partitions
·         Partitioning of File-based RDDs
·         HDFS and Data Locality
·         Executing Parallel Operations
·         Stages and Tasks
Spark Caching and Persistence
·         RDD Lineage
·         Caching Overview
·         Distributed Persistence
Common Patterns in Spark Data Processing
·         Common Spark Use Cases
·         Iterative Algorithms in Spark
·         Graph Processing and Analysis
·         Machine Learning
·         Example: k-means
Preview: Spark SQL
·         Spark SQL and the SQL Context
·         Creating DataFrames
·         Transforming and Querying DataFrames
·         Saving DataFrames
·         Comparing Spark SQL with Impala

Participants :  (Hadoop Developer , Big Data Analyst, IT Developer, DBA  )

Speaker  : Purnama Academy Trainer

#trainingbigdata  #hadoop #sparkhadoop #silabustraining #tempattraining  #pelatihan #jakarta  #bandung  #bali  #surabaya #makasar #jadwaltraining




Comments

Popular posts from this blog

Sewa Ruang Meeting Daerah Citarum Bandung

Sewa ruang meeting kantor, training di Bandung Hubungi 0816-4038-78. Lokasi Ruang Meeting berada di Jl.Pelajar Pejuang 45 No.23B 1. Paket per Jam      - Biaya : Rp.50.000 / org / jam     - Fasilitas : Snack & Drink 2. Paket Half-Day     - Waktu : 09.00 s/d 13.00 Wib     - Biaya : Rp.120.000 / org      - Fasilitas : Makan siang 1x, Snack & Drink 3. Paket Full Day     - Waktu : 09.00 s/d 16.00 Wib     - Biaya : Rp.170.000 / org      - Fasilitas : Makan siang 1x, Coffe break 2x, Snack & Drink 4. Lain-lain     - Sewa Proyektor : Rp.150.000/day     - Extra time : Rp.100.000/Jam Syarat dan Ketentuan : 1. Min. 3org dan Max. 7org 2. Pembayaran H-3 sebelum tgl pelaksanaan 3. Melebihi jam ketentuan dikenakan biaya tambahan Sewa Ruang Meeting Daerah Citarum Bandung Hubungi 0816-4038-78 Ruang meeting murah mulai 50.000 di Buah Batu, Pasteur, Sukajadi, Lengkong, Antapani, Uj...

How to Pass ISACA CGEIT Certification Exam Dumps Practice Test

ISACA CGEIT certification is mainly targeted to those candidates who want to build their future in IT Governance domain. CGEIT exam can provide those within an information technology related governance field with great benefits, both with potential employers, and unlock a network of like-minded individuals. ISACA's Certified in the Governance of Enterprise IT (CGEIT) exam certification is framework agnostic and the only IT governance certification for the individual. CGEIT can put you in the role of a trusted advisor to your enterprise. CGEITs maintain an adequate level of current knowledge and proficiency in the field of information systems audit, control and security. The technical skill requirement of CGEIT is that the candidate has relevant professional work experience supporting organizational enterprise information technology. CGEIT is a vendor-neutral enterprise IT governance certification which can help take your career to new heights. Free Exam Practice Question and Answer...

Jual Rumah di Prapanca Raya

Jual Rumah di Jalan Utama Prapanca Raya Rumah yang berlokasi di jalan utama Prapanca Raya ini sangat cocok digunakan selain sebagai hunian dapat juga digunakan untuk Cafe / Restaurant atau menjadi kantor. Bangunan dan struktur rumah sangat terawat rapih karena selalu ditempati keluarga Adapun spesifikasi singkat sebelum anda serius untuk mengetahui detail lebih lanjut dengan menghubungi kami adalah : Heritage house Luas Tanah :  378 m2 Luas Bangunan : 200m2 (dimana Lebar bangunan belakang lebih besar dari bangunan depan - ngantong Sertifikat Hak Milik (SHM) Listrik 10,000watt Telp 2 line Jumlah Lantai : 1 4 km tidur 2 km mandi + 1 km tidur & km mandi pembantu . Rumah 1 lantai. Air : Sumur pompa & PDAM Harga : Rp 29,9 Milyar (Tanpa Perantara) Rumah kami jual tanpa perantara , dan dengan segala hormat mohon untuk tidak menjadikan iklan ini sebagai peluang untuk menjadi perantara karena kami menginginkan proses tawar menawar dan transaksi penjualan rumah yang penuh i...