page up
envelopeלהשארת פרטים
Streaming and Transporting Data into Apache Hadoopקורסים מקצועיים למתקדמים | דאטה ומסדי נתונים

Streaming and Transporting Data into Apache Hadoop

מספר הקורס 3576
8 סה"כ שעות אקדמאיות
1 מפגשים
* מספר המפגשים והשעות למפגש עשויים להשתנות בין קורס לקורס


Over the last few years, many organizations have made a strategic decision to turn into big data. At the heart of this challenge, there is the process of extracting data from many sources, transforming it, and then load it into your Data Warehouse for subsequent analysis. A process known as “Extract, Transform & Load” (ETL).


Apache Hadoop is one of the most common platforms for managing big data, and in this course, we'll introduce you with three common methods of transporting and streaming your data into your Hadoop Data File System (HDFS):


  • Data transfer between Hadoop and relational databases using Apache Sqoop
  • Collecting, aggregating, and moving large amounts of streaming data into Hadoop using Apache Flume and Apache Kafka

Hand on exercises are included.


Who Should Attend

  • System Administrator
  • Developers
  • BI
    • This course is mainly intended for System Administrators, Developers, Business Intelligence professionals, and other roles responsible for transferring data into Hadoop.

    • Working experience with Databases 
    • Prior knowledge of Hadoop, working experience with HDFS in particular.
    • Basic understanding of Apache Hive



     יש לך שאלות? רוצה עוד מידע?
    יש לך שאלות? רוצה עוד מידע?

    נשמח לייעץ, ללוות ולענות על כל השאלות

    סניף מועדף

    אני מסכים/ה שג'ון ברייס הדרכה תשתמש במידע למטרות שיווק, דיוור ישיר ומשלוח פרסומות באמצעי הקשר שמסרתי, ותכלול אותו במאגר המידע של החברה, והכל בכפוף למדיניות הפרטיות של ג'ון ברייס הדרכה וקבוצת מטריקס הזמינה כאן.

    המידע שייאסף יישמר במאגר מידע מס' 700019285 הרשום בפנקס מאגרי המידע. להסרה בעתיד פנה/י לדוא"ל או לטלפון: 03-7100777.