ข้ามไปยังเนื้อหา
KoishiAI
EN

บทความในหมวด

#moe

เครื่องทดสอบจริงของ KoishiAI — workstation แบบเปิดฝา ใส่ RTX 5090 (ด้านบน) และ Zotac RTX 5080 (ด้านล่าง) พร้อมไฟ RGB และพัดลมเสริมที่โต๊ะ ถ่ายในประเทศไทย
local-llm benchmark qwen3

ทดสอบ LLM ในเครื่องบน Dual-GPU 48 GB: รุ่นไหนใช้ได้จริงในปี 2026

เราทดสอบ Qwen3 27B, 32B, 35B-A3B, และ 80B บนเครื่อง RTX 5090 + 5080 ของเราเอง เพื่อหาจุดคุ้มค่าจริงสำหรับรัน AI ในเครื่องปี 2026 นี่คือรุ่นที่เราเก็บไว้ใช้ — และรุ่นที่ปลดระวาง

· 26 นาทีในการอ่าน
Dynamic 3D render of abstract geometric data paths with colorful blocks representing data flow.
moe llm ai-architecture

Mixture-of-Experts (MoE): เหตุใด LLMs ในปี 2026 จึงเลือกประสิทธิภาพ

ค้นพบเหตุผลที่ Mixture-of-Experts (MoE) เข้ามาแทนที่โมเดลแบบหนาแน่นในปี 2026 เรียนรู้ว่าสถาปัตยกรรม MoE ช่วยเพิ่มประสิทธิภาพของ LLM และลดต้นทุนการอนุมานได้อย่างไร

· 35 นาทีในการอ่าน