קורסים מקצועיים למתקדמים

דאטה ומסדי נתונים - Data

Streaming and Transporting Data into Apache Hadoop

מספר הקורס 3576

למה ללמוד בג'ון ברייס?
  • למידה חדשנית ודינמית עם כלים מתקדמים בשילוב סימולציות, תרגול וסביבות מעבדה
  • מגוון הכשרות טכנולוגיות עם תכנים המותאמים להתפתחות הטכנולוגית ולביקוש בתעשיית ההייטק
  • מובילים את תחום ההכשרות לעולם ההייטק והטכנולוגיה כבר 30 שנה, עם קהילה של עשרות אלפי בוגרים
  • אתם בוחרים איך ללמוד: פרונטאלית בכיתה, מרחוק ב- Live Class או בלמידה עצמית

המועדים הקרובים

קורס לקבוצות

הקורס נפתח במתכונת של קבוצה בלבד, בהתאמה אישית לארגונים.
לפרטים נוספים: Muzman@johnbryce.co.il

משך הקורס

שעות לימוד:

8

מספר מפגשים:

קורס בוקר:

1

מתכונת הקורס

הקורסים המוזמנים לארגונים מותאמים באופן אישי ומלא לצרכי הארגון, מערכי הלימוד גמישים וניתן לשלב בהם תכנים רלוונטיים וייעודיים.

Overview

Over the last few years, many organizations have made a strategic decision to turn into big data. At the heart of this challenge, there is the process of extracting data from many sources, transforming it, and then load it into your Data Warehouse for subsequent analysis. A process known as “Extract, Transform & Load” (ETL).

 

Apache Hadoop is one of the most common platforms for managing big data, and in this course, we’ll introduce you with three common methods of transporting and streaming your data into your Hadoop Data File System (HDFS):

 

  • Data transfer between Hadoop and relational databases using Apache Sqoop
  • Collecting, aggregating, and moving large amounts of streaming data into Hadoop using Apache Flume and Apache Kafka

Hand on exercises are included.

 

On Completion, Delegates will be able to

Who Should Attend

This course is mainly intended for System Administrators, Developers, Business Intelligence professionals, and other roles responsible for transferring data into Hadoop.

תכנית הלימודים

Full Syllabus
PDF להורדה

Working with Apache Sqoop

  • Introduction to Sqoop
  • Import Architecture
  • Transferring RDBMS tables into the HDFS
  • Integrating with Hive
  • Incremental Import
  • Export Architecture
  • Exporting data from HDFS into RDBMS

 

Working with Apache Flume

  • Introduction to Flume
  • Flume Architecture
  • Setting up Flume Agents

 

Working with Apache Kafka

  • Introduction to Kafka
  • Use Cases
  • Kafka in the Enterprise
  • Topics and Partitions
  • Brokers
  • Topic Replication Factor
  • Producers
  • Consumers
  • Zookeeper
  • Kafka Basic Configuration

 

Prerequisites
  • Working experience with Databases 
  • Prior knowledge of Hadoop, working experience with HDFS in particular.
  • Basic understanding of Apache Hive

 

 

Schedule Appointment

Fill out the form below, and we will be in touch shortly.

לא הצלחנו לאתר את הטופס.