דאטה ומסדי נתונים - Data

Building with LLMs

From Foundations to Production-Ready Apps

מספר הקורס 3597

למה ללמוד בג'ון ברייס?
  • למידה חדשנית ודינמית עם כלים מתקדמים בשילוב סימולציות, תרגול וסביבות מעבדה
  • מגוון הכשרות טכנולוגיות עם תכנים המותאמים להתפתחות הטכנולוגית ולביקוש בתעשיית ההייטק
  • מובילים את תחום ההכשרות לעולם ההייטק והטכנולוגיה כבר 30 שנה, עם קהילה של עשרות אלפי בוגרים
  • אתם בוחרים איך ללמוד: פרונטאלית בכיתה, מרחוק ב- Live Class או בלמידה עצמית

המועדים הקרובים

calendar-1.svg 07/09/2025
קורס בוקר
calendar-1.svg 11/09/2025
קורס ערב

ניתן לפתוח את הקורס בהתאמה אישית ומלאה לצרכי הארגון, במועדים ומערכי לימוד גמישים בשילוב תכנים ייעודים.

משך הקורס

שעות לימוד:

40

מספר מפגשים:

Overview

This intensive 5-day hands-on course is designed for developers who want to move beyond the hype and truly understand how Large Language Models (LLMs) work, while gaining the practical skills to build real-world LLM-powered applications.

Starting with the foundations of transformer-based architectures, tokenization and prompting strategies, participants will then dive into building advanced LLM pipelines using cutting-edge tools like LangChain, LangGraph, RAG architectures, and multi-tool agents.

Each day includes hands-on coding labs and guided mini-projects, culminating in a full-featured intelligent assistant application by the end of the course.

The course will equip participants with the technical knowledge to integrate LLMs with APIs, databases, and enterprise workflows, preparing them for real-world AI deployments.

מטרות הקורס

Who Should Attend

Python developers looking to enter the world of generative AI and LLMs

Data scientists or ML engineers seeking to build full-stack LLM applications

Software engineers integrating LLMs into production systems, chatbots, or automation tools

AI/ML practitioners interested in Retrieval-Augmented Generation (RAG), agents, and tool-based LLM pipelines

Technical teams exploring LLM-powered solutions for internal knowledge bots, workflow automation, or decision support systems

תכנית הלימודים

Course Contents

Goal: Understand how LLMs “think” and operate internally.

Foundations of LLMs

  • What are LLMs? (Short history: GPT, open models, key milestones)
  • Real-world capabilities and limitations

Tokenization Fundamentals

  • Tokenization techniques (BPE, Word Piece, Sentence Piece)
  • Token limits and context windows

Core Architecture of LLMs

  • Transformers: Self-Attention, Multi-Head Attention
  • Feedforward networks, layer stacking, positional encoding
  • Embeddings and vector representations

Prompting Fundamentals

  • Zero-shot, few-shot, and Chain-of-Thought (CoT) prompting
  • System prompts and instruct-tuning

Survey of Major LLM Models and Vendors

  • Open AI (GPT family)
  • Gemini (Google DeepMind)
  • Claude (Anthropic)
  • DeepSeek
  • Open-source models (e.g., Llama by Meta)
Prerequisites
  • Fluency in Python programming
  • Familiarity with JSON and REST APIs
  • (Optional but useful) Understanding of basic machine learning concepts (e.g., embeddings, model training)
  • No prior experience with Transformers or LLMs is required — all foundational concepts will be covered from scratch with a practical, hands-on focus.
קורסים מקצועיים למתקדמים