Bài viết có chứa affiliate links. Chúng tôi chỉ giới thiệu công cụ đội ngũ biên tập đã trực tiếp kiểm tra. Xem thêm chính sách affiliate.
Tóm tắt nhanh cho người vội:
- Máy 8GB RAM: Cài Gemma 4 E2B hoặc Phi-4-mini. Đừng cố Gemma 4 E4B — nặng hơn bạn nghĩ.
- Máy 16GB RAM, không GPU: Cài Gemma 4 E4B (9.6GB) làm chủ lực, thêm Phi-4-mini (2.5GB) cho task nhanh.
- Máy 16GB + GPU 8GB+: Có thể chạy Phi-4 (14B) cho lý luận và code.
- Mac M-series 32GB+ hoặc PC RTX 4090: Mới nên đụng đến Gemma 4 26B/31B.
- Mac M-series 64GB+ hoặc 1× NVIDIA H100: Mới đủ chạy Llama 4 Scout.
Bài này giải thích vì sao và cách chọn cho đúng. Nếu bạn đang cân nhắc nâng cấp máy chỉ để chạy AI, đọc kỹ trước khi chi tiền.
3 Model Này Là Gì Và Khác Nhau Ra Sao?
Trước khi so sánh, phải làm rõ một chuyện quan trọng mà nhiều bài viết tiếng Việt bỏ qua: mỗi model có nhiều phiên bản kích thước khác nhau. Cài “Gemma 4” không có nghĩa gì cho đến khi bạn biết là Gemma 4 E2B, E4B, 26B hay 31B.
Gemma 4 (Google DeepMind, ra mắt 2/4/2026)
Có 4 kích thước: E2B, E4B (cho điện thoại và máy tầm trung), 26B-A4B (Mixture-of-Experts với 4B active params, máy mạnh), 31B (workstation). Pre-trained trên 140+ ngôn ngữ, hỗ trợ tốt 35+ ngôn ngữ out-of-the-box bao gồm tiếng Việt. Apache 2.0 — dùng thương mại tự do.
Đa phương thức đầy đủ: text + image + video + audio (audio chỉ ở E2B/E4B). Context window 128K (E2B/E4B) hoặc 256K (26B/31B). Theo Google, bản 31B đứng #3 và bản 26B đứng #6 trên LMArena (text only) trong số các model open source. Hướng dẫn cài chi tiết: Cài Đặt Gemma 4 Trên Máy Tính: Hướng Dẫn Ollama 10 Phút.
Llama 4 (Meta, ra mắt 5/4/2025)
Hai bản công khai: Scout (17B active / 16 experts / 109B total params) và Maverick (17B active / 128 experts / 400B total). Cả hai đều là MoE đa phương thức (text + image input). Knowledge cutoff: 8/2024. Hỗ trợ chính thức 12 ngôn ngữ bao gồm tiếng Việt (image understanding chỉ tiếng Anh).
Theo Meta, Llama 4 Scout được thiết kế để chạy trên 1× NVIDIA H100 với INT4 quantization. Đây không phải model cho máy phổ thông — nói thẳng, không marketing.
Phi-4 (Microsoft, ra mắt 12/12/2024)
Phi-4 đầy đủ là 14B params, context 16K, MIT license. Có thêm Phi-4-mini (3.8B, 128K context, có function calling) và Phi-4-multimodal (5.6B, hỗ trợ text + image + audio).
Microsoft tập trung vào “thông minh trên size nhỏ” — Phi-4 vượt cả GPT-4o trên benchmark MATH và GPQA dù chỉ 14B params. Điểm yếu thừa nhận trong technical report: hallucination về facts và yếu về multilingual — đó là lý do tiếng Việt của Phi-4 không bằng Gemma 4.
Bảng Cấu Hình RAM Thực Tế (Quan Trọng — Đọc Kỹ)
Đây là cấu hình thực tế khi chạy qua Ollama với quantization mặc định Q4_K_M:
| Model | Tag Ollama | Kích thước file | Context | RAM tối thiểu |
|---|---|---|---|---|
| Phi-4-mini (3.8B) | phi4-mini |
2.5 GB | 128K | 6 GB |
| Gemma 4 E2B | gemma4:e2b |
~3 GB | 128K | 6 GB |
| Gemma 4 E4B | gemma4:e4b |
9.6 GB | 128K | 12 GB |
| Phi-4 (14B) | phi4 |
9.1 GB | 16K | 16 GB |
| Gemma 4 26B-A4B | gemma4:26b |
~16 GB | 256K | 24 GB |
| Gemma 4 31B | gemma4:31b |
~20 GB | 256K | 32 GB |
| Llama 4 Scout | llama4:scout |
67 GB | 10M | 64 GB hoặc 1× H100 |
| Llama 4 Maverick | llama4:maverick |
245 GB | 1M | Workstation đa GPU |
Lưu ý quan trọng về Gemma 4 E4B: Ollama mặc định cài bản đầy đủ 9.6GB Q4_K_M — kèm vision encoder và context 128K. Đừng nhầm với Gemma 3n cũ chỉ vài GB. Bản nhẹ hơn là E2B (~3GB) — phù hợp cho máy 8GB RAM.
Lưu ý về Llama 4 Scout: Nhiều bài tiếng Việt nói “Llama 4 chạy trên 16GB RAM” là sai. File trên Ollama nặng 67GB (Q4) — bạn cần ít nhất 64GB RAM thống nhất (Mac M-series) hoặc 1× NVIDIA H100 80GB. Trên PC consumer 16-32GB RAM, bạn không chạy nổi.
Test Thực Tế Trên Máy Phổ Thông Tại Việt Nam
Cấu hình test của chúng tôi: laptop Windows, Intel i7 thế hệ 12, 16GB RAM, không GPU rời. Đây là cấu hình rất phổ biến với dân văn phòng và freelancer Việt Nam. Chạy qua Ollama.
Vì máy chỉ 16GB RAM, chúng tôi test được: Phi-4-mini, Gemma 4 E2B, Gemma 4 E4B, Phi-4 (14B). Llama 4 và Gemma 4 26B/31B không chạy nổi — đây cũng là kết quả thực tế cho 90% người đọc bài này.
Tốc độ phản hồi (tokens/giây, càng cao càng nhanh)
| Model | CPU only (16GB RAM) | Cảm nhận thực tế |
|---|---|---|
| Phi-4-mini (3.8B) | ~18 tokens/s | Mượt, gần như chat thật |
| Gemma 4 E2B | ~16 tokens/s | Mượt, đủ nhanh để chat liên tục |
| Gemma 4 E4B | ~7 tokens/s | Chậm hơn rõ rệt, nhưng output chất hơn |
| Phi-4 (14B) | ~5 tokens/s | Chậm, đủ cho câu hỏi nghiêm túc nhưng không phải chat |
Số liệu mang tính tham khảo, dao động theo CPU và quantization. Trên Mac M-series có Metal GPU, tốc độ có thể nhanh gấp 3-5 lần.
Chất lượng tiếng Việt
Chúng tôi yêu cầu mỗi model viết một email tiếng Việt chuyên nghiệp gửi khách hàng từ chối nhận hàng:
- Gemma 4 E4B: Tốt nhất. Email tự nhiên, đúng văn phong Việt, biết dùng “kính gửi”, “trân trọng”. Chất lượng đủ để gửi đi sau khi đọc lại 1 lần.
- Gemma 4 E2B: Khá tốt. Tiếng Việt mạch lạc, đôi khi dùng từ hơi nông. Vẫn dùng được.
- Phi-4 (14B): Tạm ổn nhưng có vài chỗ dịch máy lộ ra. Hay dùng cấu trúc tiếng Anh dịch sang. Đúng như Microsoft thừa nhận trong technical report — Phi-4 yếu về multilingual.
- Phi-4-mini: Yếu nhất tiếng Việt. Hay lẫn từ tiếng Anh, câu cú cứng. Nên dùng cho task tiếng Anh.
Khả năng code và logic
Bài test: viết hàm Python kiểm tra số nguyên tố, tối ưu cho số lớn. Sau đó hỏi “tại sao lại chọn cách này”.
- Phi-4 (14B): Thắng rõ ràng. Code đúng ngay lần đầu, giải thích Miller-Rabin chi tiết. Đây là điểm mạnh nhất của Phi-4 — đúng với kết quả benchmark MATH/GPQA của Microsoft.
- Gemma 4 E4B: Code đúng, dùng trial division kèm tối ưu sqrt. Giải thích đầy đủ.
- Gemma 4 E2B: Code chạy được nhưng đơn giản hơn, không tối ưu cho số lớn.
- Phi-4-mini: Code đúng nhưng có lỗi edge case (n=1, n=2). Giải thích sơ sài.
Vậy Nên Chọn Cái Nào?
Nếu máy bạn 8GB RAM hoặc yếu hơn → Gemma 4 E2B hoặc Phi-4-mini
Hai model này đều chạy được dễ dàng. Chọn Gemma 4 E2B nếu cần tiếng Việt nhiều, Phi-4-mini nếu chủ yếu code hoặc dùng tiếng Anh. Tuyệt đối đừng cố cài Gemma 4 E4B trên 8GB — máy sẽ giật và swap.
Nếu máy bạn 12-16GB RAM (đa số dân văn phòng) → Gemma 4 E4B + Phi-4-mini
Cài cả hai, chuyển qua lại theo nhu cầu. Gemma 4 E4B cho công việc nghiêm túc và tiếng Việt (chấp nhận chậm chút), Phi-4-mini cho chat nhanh và task tiếng Anh. Hướng dẫn cài chi tiết: Cài Gemma 4 Trên Máy Tính Qua Ollama.
Nếu máy bạn 16GB RAM + GPU rời 8GB → Phi-4 (14B) + Gemma 4 E4B
Đây là combo mạnh nhất ở mức cấu hình “gaming PC tầm trung”. Phi-4 cho lý luận và code, Gemma 4 E4B cho tiếng Việt và xử lý ảnh.
Nếu bạn dùng Mac M-series từ M2 trở lên với RAM 24GB+ → Gemma 4 26B-A4B
Đây là sweet spot. Mac M-series có Metal GPU mạnh, RAM thống nhất, chạy 26B mượt mà. Theo Google, bản này đứng #6 LMArena trong khi chỉ có 4B active params — hiệu quả ấn tượng.
Nếu bạn có Mac M-series 64GB+ hoặc 1× H100 → Llama 4 Scout
Lúc này Llama 4 mới có ý nghĩa. Còn nếu bạn đang nghĩ “tôi mua máy mới chỉ để chạy Llama 4” — cân nhắc lại. Gemma 4 31B hoặc Phi-4 đủ cho 95% nhu cầu, rẻ hơn nhiều lần.
Muốn chạy AI trên điện thoại → Gemma 4 E2B
Đây là model duy nhất trong 3 cái thực sự chạy được trên điện thoại, qua Google AI Edge Gallery (có cả iOS và Android). Hướng dẫn từng bước: Chạy AI Trên Điện Thoại: Gemma 4 Và Hướng Dẫn Cài Đặt 2026.
Cách Cài Đặt Nhanh Qua Ollama
Ollama là cách dễ nhất hiện tại để chạy AI offline. Cài một lần, dùng cho tất cả model trên.
- Tải Ollama từ ollama.com — hỗ trợ Windows, macOS, Linux.
- Mở Terminal (Mac/Linux) hoặc PowerShell (Windows), gõ:
ollama run gemma4:e2b— Gemma 4 E2B (cho máy yếu)ollama run gemma4:e4b— Gemma 4 E4B (chủ lực cho máy 12-16GB)ollama run gemma4:26b— Gemma 4 26B (máy mạnh)ollama run phi4— Phi-4 14Bollama run phi4-mini— Phi-4-mini 3.8Bollama run llama4:scout— Llama 4 Scout (máy workstation)
- Lần đầu sẽ tải model (vài GB đến hàng chục GB), sau đó chat trực tiếp trong terminal.
Muốn giao diện đẹp hơn? Cài thêm Open WebUI — miễn phí, giống ChatGPT, kết nối với Ollama trong 5 phút. Chi tiết trong bài hướng dẫn cài Gemma 4.
Câu Hỏi Thường Gặp
AI offline có riêng tư hơn ChatGPT không?
Có. Mọi câu hỏi và câu trả lời đều xử lý trên máy bạn, không gửi lên server nào. Đây là lợi thế lớn nhất nếu bạn xử lý dữ liệu nhạy cảm — hợp đồng, tài liệu nội bộ, thông tin khách hàng.
AI offline có thông minh bằng ChatGPT không?
Không, ít nhất là chưa. ChatGPT (GPT-5) hay Claude Opus 4.7 vẫn vượt xa các model offline về độ thông minh tổng quát. Nhưng cho 80% công việc văn phòng — viết email, tóm tắt, dịch thuật, code đơn giản — Phi-4 và Gemma 4 đủ dùng. So sánh chi tiết: Claude vs ChatGPT: Nên Dùng Cái Nào?
Gemma 4 E4B nặng tới 9.6GB sao gọi là “mini”?
Vì E4B là phiên bản đa phương thức đầy đủ — xử lý cả text, ảnh, video lẫn audio, với context window 128K token. Phần lớn dung lượng nằm ở vision encoder và audio encoder. Bản chỉ-text sẽ nhẹ hơn nhưng Ollama mặc định cài bản đầy đủ.
Có cần GPU không?
Với model nhỏ (Phi-4-mini, Gemma 4 E2B) — không cần. CPU đủ. Với model trung (Gemma 4 E4B, Phi-4 14B) — không bắt buộc nhưng có GPU sẽ nhanh hơn 3-5 lần. Mac M-series có lợi thế lớn vì GPU tích hợp mạnh và RAM thống nhất.
Tốn pin laptop không?
Có, khá nhiều. Khi đang generate, model dùng gần hết CPU/GPU. Cắm sạc khi dùng nghiêm túc.
Tiếng Việt có dấu của AI offline có tốt không?
Gemma 4 E4B — tốt nhất (Google pre-train trên 140+ ngôn ngữ). Llama 4 và Gemma 4 E2B — tốt (Meta liệt kê tiếng Việt là 1 trong 12 ngôn ngữ chính thức). Phi-4 — trung bình (Microsoft thừa nhận multilingual coverage là điểm yếu). Nếu tiếng Việt là ưu tiên hàng đầu, chọn Gemma 4.
Sau Khi Có AI Offline — Làm Gì Tiếp Theo?
Cài AI offline là 10% công việc. 90% còn lại là biết dùng nó để tạo giá trị thực — hoặc tốt hơn, tạo ra thu nhập.
Nếu bạn muốn dùng AI để xây nguồn thu nhập online (freelance writing, blog affiliate, YouTube faceless, bán workflow), đọc guide chi tiết của chúng tôi: Kiếm Tiền Online Với AI 2026: Guide A-Z Cho Người Việt — bao gồm số liệu VNĐ thực tế, các affiliate network nên đăng ký, và cách nhận tiền quốc tế về Việt Nam.
Nếu bạn muốn xây blog kiếm tiền lâu dài (cách chúng tôi đang làm với chính website này), bạn cần hosting ổn định. Chúng tôi đang dùng Hostinger Premium — khoảng 60.000đ/tháng khi mua gói 2 năm, đủ chạy WordPress nhanh và ổn định.
Học bài bản hơn? Hai khóa học chúng tôi thấy đáng tiền nhất hiện tại:
- ChatGPT & AI cho công việc — thực hành prompt engineering, áp dụng cho cả model offline lẫn online. Có phụ đề tiếng Việt.
- Complete AI Bootcamp 2026 — từ cơ bản đến nâng cao, phù hợp người muốn làm AI nghiêm túc.
Udemy hay có sale 80-90%. Mua đúng đợt sale chỉ 200-300k/khóa.
Bài viết cập nhật tháng 4/2026. Số liệu RAM, tốc độ và kích thước model dựa trên tài liệu chính thức của Google DeepMind, Meta AI, Microsoft và thư viện Ollama tại thời điểm xuất bản. Kiểm tra ollama.com/library/gemma4/tags để xem các tag và quantization mới nhất.


