קורסים מקצועיים למתקדמים

דאטה ומסדי נתונים

Hadoop Architecture Fundamentals

מספר הקורס 3531

למה ללמוד בג'ון ברייס?
  • למידה חדשנית ודינמית עם כלים מתקדמים בשילוב סימולציות, תרגול וסביבות מעבדה
  • מגוון הכשרות טכנולוגיות עם תכנים המותאמים להתפתחות הטכנולוגית ולביקוש בתעשיית ההייטק
  • מובילים את תחום ההכשרות לעולם ההייטק והטכנולוגיה כבר 30 שנה, עם קהילה של עשרות אלפי בוגרים
  • אתם בוחרים איך ללמוד: פרונטאלית בכיתה, מרחוק ב- Live Class או בלמידה עצמית

המועדים הקרובים

קורס לקבוצות

הקורס נפתח במתכונת של קבוצה בלבד, בהתאמה אישית לארגונים.
לפרטים נוספים: Muzman@johnbryce.co.il

ניתן לפתוח את הקורס בהתאמה אישית ומלאה לצרכי הארגון, במועדים ומערכי לימוד גמישים בשילוב תכנים ייעודים.

משך הקורס

שעות אקדמיות:

8

מספר מפגשים:

קורס בוקר:

1

מספר מפגשים:

קורס בוקר:

1

מתכונת הקורס

הקורסים המוזמנים לארגונים מותאמים באופן אישי ומלא לצרכי הארגון, מערכי הלימוד גמישים וניתן לשלב בהם תכנים רלוונטיים וייעודיים.

Overview

Apache Hadoop is an open-source distributed fault-tolerant system that leverages commodity hardware to achieve large-scale agile data storage and processing. Hadoop empowers applications to work with thousands of nodes and petabytes of data without exposing the complexity of clustering to the end user.

 

This course discusses the design principles behind Apache Hadoop and explains the architecture of its core sub-systems: HDFS and MapReduce

 

On Completion, Delegates will be able to

Understand the main Hadoop components and other open source software related to Hadoop. Understand how HDFS works and the concepts of map and reduce operations.

Who Should Attend

This course is intended for developers, architects and technical managers who wish to understand Hadoop’s architecture.

תכנית הלימודים

Full Syllabus
PDF להורדה

Module 1: Big Data Brief Overview

  • Big Data Characteristics and Use-Cases
  • New Data Categories
  • Big Data vs. Traditional Enterprise Relational Data

 

Module 2: Introduction to Hadoop

  • Hadoop vs. Traditional Large-Scale Data Storage and Processing
  • Introduction to Hadoop Ecosystem: HDFS, MapReduce, Pig, Hive, HBase
  • Hadoop Distributors: Cloudera, Hortonworks, MapR
  • Available Java Runtime Environments for Hadoop

 

 

Module 3: MapReduce

  • MapReduce Motivation and Core Concepts
  • How Does MapReduce Work?
  • Implementing Common MapReduce Patterns
  • Core Hadoop API Interfaces and Classes

 

Module 4: The Hadoop Distributed File System (HDFS)

  • How HDFS works?
  • Writing a File to HDFS
  • HDFS Command Line
  • Hadoop Cluster Architecture overview

 

Module 5: Hadoop Related Projects

  • Data Warehousing with Hive
  • Parallel Processing with Pig
  • Data Storage with HBase
  • Common Utilities: Sqoop, Flume, Zookeeper, etc.

 

 

Prerequisites

This course assumes no prior knowledge of Hadoop. Participants should be comfortable with Java code and familiar with DWH concepts

 

Schedule Appointment

Fill out the form below, and we will be in touch shortly.

לא הצלחנו לאתר את הטופס.

בודק...