page up
envelopeלהשארת פרטים
Streaming and Transporting Data into Apache Hadoopדאטה ומסדי נתונים

Streaming and Transporting Data into Apache Hadoop

מספר הקורס 3576
8 סה"כ שעות אקדמאיות
1 מפגשים
* מספר המפגשים והשעות למפגש עשויים להשתנות בין קורס לקורס
Group Icon

קורס לקבוצות

הקורס נפתח במתכונת של קבוצה בלבד, בהתאמה אישית לארגונים.
לפרטים נוספים:


Over the last few years, many organizations have made a strategic decision to turn into big data. At the heart of this challenge, there is the process of extracting data from many sources, transforming it, and then load it into your Data Warehouse for subsequent analysis. A process known as “Extract, Transform & Load” (ETL).


Apache Hadoop is one of the most common platforms for managing big data, and in this course, we'll introduce you with three common methods of transporting and streaming your data into your Hadoop Data File System (HDFS):


  • Data transfer between Hadoop and relational databases using Apache Sqoop
  • Collecting, aggregating, and moving large amounts of streaming data into Hadoop using Apache Flume and Apache Kafka

Hand on exercises are included.


Who Should Attend

  • System Administrator
  • Developers
  • BI
    • This course is mainly intended for System Administrators, Developers, Business Intelligence professionals, and other roles responsible for transferring data into Hadoop.

    • Working experience with Databases 
    • Prior knowledge of Hadoop, working experience with HDFS in particular.
    • Basic understanding of Apache Hive



    רוצה עוד מידע על קורס בהתאמה אישית לארגון שלך?
    רוצה עוד מידע על קורס בהתאמה אישית לארגון שלך?

    נשמח לייעץ, ללוות ולענות על כל השאלות

    אני מסכים/ה שג'ון ברייס הדרכה תשתמש במידע למטרות שיווק, דיוור ישיר ומשלוח פרסומות באמצעי הקשר שמסרתי, ותכלול אותו במאגר המידע של החברה, והכל בכפוף למדיניות הפרטיות של ג'ון ברייס הדרכה וקבוצת מטריקס הזמינה כאן.

    המידע שייאסף יישמר במאגר מידע מס' 700019285 הרשום בפנקס מאגרי המידע. להסרה בעתיד פנה/י לדוא"ל או לטלפון: 03-7100777.