AIDD Foundation · Module 01

Nền tảng & Khái niệm cơ bản

LLM · Token · Prompt · Context · AI Agent · MCP · Multi-Agent Systems — bộ từ vựng tối thiểu để bước vào kỷ nguyên Agent.

Lessons5 + Quiz
Mục tiêuVocab nền tảng
AudiencePM · BrSE · QA · Dev
01 / 20
Roadmap

Bạn sẽ đi qua những gì?

02 / 20
Learning Objectives

Sau Module 1, bạn sẽ làm được gì?

01 · LLM & Token

Hiểu cách LLM "tính tiền"

Phân biệt Input · Output · Reasoning Token. Ước lượng chi phí và tối ưu token budget.

02 · Prompt & Context

Phân biệt rõ 2 khái niệm

Prompt là input người dùng; Context là toàn bộ thông tin model "thấy".

03 · Context Window

Đo & quản lý working memory

Hiểu đơn vị token, biết lịch sử mở rộng từ 4K → 2M+ và ý nghĩa thực tế.

04 · AI Agent & MCP

Kiến trúc & chuẩn mở

Brain + Tool Use + Memory. Hiểu MCP và vai trò của MCP Server.

05 · Multi-Agent Systems

Sub-Agent vs Agent Team — chọn đúng pattern

Biết khi nào nên dùng cái nào, hiểu rule of thumb để không over-engineer.

03 / 20
Lesson 1.1 · LLM

LLM là "bộ não" của AI hiện đại

Large Language Model — mô hình AI huấn luyện trên lượng dữ liệu văn bản khổng lồ, có khả năng hiểu & sinh ngôn ngữ tự nhiên ở mức rất cao.

Sản phẩm tiêu biểu

ChatGPT · Claude

Tích hợp ecosystem

Gemini · Copilot

Vai trò trong AI Agent

"Brain" — module suy luận & ra quyết định

04 / 20
Lesson 1.1 · Token

Token — đơn vị xử lý & đơn vị tính tiền

Token có thể là 1 ký tự, 1 phần của từ (sub-word), hoặc 1 từ hoàn chỉnh. Mỗi LLM có giới hạn riêng cho số token xử lý đồng thời.

Conversion rule ≈ 0.75

từ tiếng Anh trên mỗi token. 100 tok ≈ 75 words

Chi phí Token-based

Hầu hết LLM API tính tiền theo input + output token tiêu thụ.

Implication Kiểm soát

Khi thiết kế Agent: tối ưu context = tối ưu chi phí chất lượng.

05 / 20
Lesson 1.1 · Input vs Output

Hai loại Token cần phân biệt

▼ Đầu vào

Input Token

  • Token được đưa vào làm đầu vào cho LLM
  • Gồm prompt, system prompt, context, history
  • Giá thường thấp hơn output token
▲ Đầu ra

Output Token

  • Token model sinh ra để trả về
  • Bao gồm cả Reasoning Token (sinh tạm khi suy luận)
  • Giá thường cao hơn input token
⚡ Cost insight Reasoning Token vẫn được tính phí dù không xuất hiện trong câu trả lời cuối — mô hình "nghĩ ra giấy nháp" vẫn tốn tiền.
06 / 20
Lesson 1.2 · Khái niệm

Prompt  ≠  Context

Prompt

Câu lệnh / câu hỏi / đoạn text người dùng nhập vào để hướng dẫn LLM thực hiện nhiệm vụ.

→ Là kênh giao tiếp chính giữa human ↔ LLM.

Context

Mọi thông tin được cung cấp cho mô hình trong quá trình xử lý:

  • Mô tả nhiệm vụ (system + user prompt)
  • Documents, code, examples liên quan
  • Lịch sử hội thoại
  • Kết quả từ tools, memory, retrieval
07 / 20
Lesson 1.2 · Nguyên lý cốt lõi

LLM chỉ "biết" đúng 2 thứ

01 · Kiến thức huấn luyện

What it learned

Tri thức nén trong weights — có thể lỗi thời hoặc không cụ thể với domain của bạn.

02 · Những gì trong Prompt

What you provide

Toàn bộ Context bạn đưa vào ngay tại runtime — phần bạn kiểm soát được.

💡 Takeaway Vì vậy chất lượng Context quyết định trực tiếp chất lượng output — và đó là tiền đề cho cả ngành Context Engineering.
08 / 20
Lesson 1.2 · Context Window

Bộ nhớ làm việc — đo bằng token

Context Window đã tăng ≈ 500x trong 3 năm. Dung lượng lớn hơn = hành vi Agent phức tạp hơn trở nên khả thi.

4 KChatGPT lúc ra mắt — GPT-3.5 (2022)
16 KGPT-3.5 Turbo
8 K / 32 KGPT-4 (default / variant)
128 KGPT-4 Turbo · GPT-4o
200 KClaude 2.1 / 3.x · OpenAI o-series
1 MGemini 1.5/2.5 Pro · GPT-4.1 · Claude Sonnet 4
2 M+Grok 4 Fast & thế hệ mới
09 / 20
Lesson 1.3 · Tầm quan trọng

3 lý do Context quyết định chất lượng

01 · Coherence

Mạch lạc

Hội thoại dài / tài liệu lớn — model "nhớ" toàn bộ luồng để trả lời không mâu thuẫn.

02 · Accuracy

Chính xác

Càng nhiều context liên quan → câu trả lời đúng hơn, ít hallucinate hơn.

03 · Deep understanding

Hiểu sâu

Nắm bắt mối quan hệ phức tạp & phụ thuộc ngữ nghĩa trải dài trên văn bản lớn.

🔑 Insight Cùng một model, context tốt hơn ⇒ kết quả tốt hơn rõ rệt. Đây là nền móng cho Context Engineering ở Module 2 trở đi.
10 / 20
Lesson 1.4 · AI Agent

AI Agent = Brain + Tools + Memory

Chương trình tự chủ: Perceive → Plan → Act để đạt mục tiêu đã xác định. Nếu LLM là "bộ não", AI Agent là thực thể hoàn chỉnh sử dụng bộ não đó để hành động.

🧠

Brain (LLM)

Suy luận, ra quyết định, lập kế hoạch

🔧

Tool Use

Gọi function / API / shell để thực thi hành động

💾

Memory

Short-term (in-context) & long-term (persistent storage)

11 / 20
Lesson 1.4 · MCP

MCP — chuẩn mở để Agent kết nối thế giới

Định nghĩa

Model Context Protocol

Giao thức Anthropic công bố cuối 2024 — chuẩn chung để cấp Context cho model một cách hiệu quả & tái sử dụng được.

Đang được nhiều LLM tiên tiến hỗ trợ.

Vai trò

MCP Server = cầu nối

  • Gọi API · ghi file · thao tác DB
  • Đọc file · query DB · fetch web
  • Đóng gói capability dạng plug-in
⚡ Why care Nắm MCP = mở rộng năng lực Agent từ "nói chuyện" sang thực sự "làm việc".
12 / 20
Lesson 1.5 · Multi-Agent

Khi single agent không còn đủ

01

Context Bloat

1 agent ôm hết exploration + planning + execution → context window phình to nhanh chóng.

02

Specialization

Agent vạn năng kém hơn nhiều agent chuyên môn hoá.

03

Parallel work

Nhiều subtask độc lập có thể chạy song song → tiết kiệm wall-time.

04

Cost

Model rẻ (Haiku) cho subtask, model mạnh (Opus) cho task chính.

→ Là lý do Multi-Agent Systems (MAS) trở thành mainstream giai đoạn 2025–2026.

13 / 20
Lesson 1.5 · Định nghĩa MAS

Multi-Agent System = nhiều agent phối hợp

Hệ thống có nhiều AI Agent phối hợp để giải bài toán phức tạp. Mỗi agent có thể có vai trò, năng lực, và context riêng — giao tiếp/điều phối qua một orchestration pattern nhất định.

Vai trò

Role-based

Mỗi agent có chuyên môn riêng — researcher, implementer, reviewer, tester…

Năng lực

Capability subset

Tools, permissions, model riêng cho từng agent — kiểm soát chính xác.

Context

Isolated workspace

Mỗi agent giữ context riêng — main không bị flooded bởi noise.

→ Hai instantiation phổ biến nhất của MAS: Sub-AgentsAgent Teams.

14 / 20
Lesson 1.5 · So sánh

Sub-Agent  vs  Agent Team

Throwaway · single session

Sub-Agent

  • Spawn → làm task → terminate
  • Own context window (isolated)
  • Custom system prompt + tool subset + permissions
  • Chỉ trả summary về main agent → main không bị flooded
  • Pattern: Orchestrator-Subagent
Persistent · across sessions

Agent Team

  • Members persist, không terminate
  • Mỗi member: role riêng, context riêng, expertise riêng
  • Coordinate qua shared queue / message bus
  • Tích luỹ domain expertise → performance tốt dần theo thời gian
  • Pattern: Coordinator + Persistent Workers
15 / 20
Lesson 1.5 · Sub-Agent in practice

Khi nào nên spawn Sub-Agent?

01 · Noise isolation

Tách noise khỏi main

Subtask tạo nhiều output rác (search results, log, file dump) mà main agent không cần xem.

02 · Scoped permission

Limit tools/permissions

Giới hạn capability cho 1 subtask cụ thể — tăng safety, giảm rủi ro hành động ngoài ý muốn.

03 · Cost optimization

Mix model tiers

Model rẻ (Haiku) cho subtask đơn giản, giữ model mạnh (Opus) cho task chính.

🤖 Built-in Subagents · Claude Code Explore — search codebase  ·  Plan — planning  ·  general-purpose — default. Developer cũng có thể tạo custom subagent qua file convention.
16 / 20
Lesson 1.5 · Agent Team in practice

Một team điển hình trông như thế nào?

Use case: 1 feature lớn, kéo dài vài giờ → vài ngày — chia cho team 4 members persistent, mỗi member có role & expertise riêng, accumulate context theo thời gian.

🔍 Member 1

Researcher

Khám phá codebase, đọc docs, gather context. Output: research reports cho team.

🔨 Member 2

Implementer

Viết code chính theo plan. Own production files, follow conventions.

🔎 Member 3

Reviewer

Adversarial review — soi security, edge cases, false assumptions trước khi merge.

🧪 Member 4

Tester

Write/run tests, coverage analysis, regression check. Owns test files.

→ Members persist across nhiều session → performance cải thiện dần theo domain expertise.

17 / 20
Lesson 1.5 · Rule of thumb

Khi nào dùng cái nào?

Default cho simple

Single Agent

Task đơn giản, linear, không cần specialization. Đừng over-engineer.

★ Default cho multi-agent

Sub-Agent

Subtask isolated, throwaway context (dùng xong là bỏ). Phù hợp cho phần lớn use case.

Long-running parallel

Agent Team

Nhiều subtask parallel, kéo dài (phút → giờ), cần specialization theo role.

⚡ Start here Bắt đầu với Single Agent. Khi gặp context bloat / cần specialization → tách Sub-Agent. Chỉ nâng cấp lên Agent Team khi có nhu cầu parallel long-running thực sự.
18 / 20
Module 01 · Quiz

7 câu hỏi — bạn nhớ được bao nhiêu?

19 / 20
Module 01 · Recap

5 ý chốt bạn cần mang sang Module 2

Token economics

Token là đơn vị xử lý & đơn vị tính phí. 100 tok ≈ 75 từ EN. Input rẻ hơn Output (gồm Reasoning Token).

Prompt vs Context

Prompt = input người nhập; Context = tất cả những gì model "thấy". LLM chỉ biết: weights + Context.

Context Window

Bộ nhớ làm việc, đo bằng token. Đã tăng 4K → 2M+ trong 3 năm.

AI Agent & MCP

Agent = Brain + Tools + Memory. MCP = chuẩn mở để Agent gọi thế giới ngoài (file · API · DB).

Multi-Agent default

Single → khi cần isolation/parallel/specialization → Sub-Agent. Chỉ lên Agent Team khi long-running thực sự.

▸ Next: Module 02 — Từ Prompt Engineering đến Context Engineering

20 / 20