ข้ามไปยังเนื้อหา
KoishiAI
EN

บทความในหมวด

#local-llm

ภาพประกอบ local AI research stack สำหรับ fintech ไทย
case-study fintech trading

Case Study: Local AI Research Infrastructure สำหรับ Fintech ไทย — สัญญาณลับไม่รั่วไป Cloud

Scenario สมมติ — Fintech ไทยจะรัน AI วิเคราะห์ตลาดและ reasoning ภายในบน position ลับได้อย่างไรโดยไม่ส่งข้อมูลแม้แต่จุดเดียวไป cloud LLM

· 33 นาทีในการอ่าน
ภาพประกอบเวิร์กช็อป Local AI แบบ hands-on สำหรับทีม IT ไทย
case-study workshop training

Case Study: Workshop 2 วัน Local AI สำหรับทีม IT ภายในของบริษัทไทย

Scenario สมมติ — บริษัทเทคไทยขนาดกลางส่งทีม IT 10 คนเข้าเวิร์กช็อป 2 วันเพื่อเลิกพึ่ง agency แล้วรัน Local AI เองได้ภายใน 3 เดือน

· 26 นาทีในการอ่าน
ภาพประกอบระบบ local RAG สำหรับการตรวจสัญญาในสำนักกฎหมายไทย
case-study legal-tech rag

Case Study: Local RAG สำหรับสำนักกฎหมายไทย — ตรวจสัญญาด้วย AI โดยคงสิทธิ์ attorney-client

Scenario สมมติว่าสำนักกฎหมายไทยขนาดกลางจะใช้ AI ช่วยตรวจสัญญาลูกความได้อย่างไรโดยไม่ส่งอะไรไป cloud API ที่จะทำลายสิทธิ์ทนายและ PDPA

· 27 นาทีในการอ่าน
ภาพประกอบการติดตั้ง local AI triage chatbot แบบถูก PDPA ในคลินิกไทย
case-study pdpa healthcare

Case Study: Local AI Triage Chatbot สำหรับคลินิกไทย ภายใต้ PDPA

Case study แบบ illustrative ว่าคลินิก 5 หมอในไทยจะติดตั้ง AI triage chatbot ที่ถูก PDPA บนเครื่องของตัวเองได้อย่างไร — ข้อมูลไม่ออกจาก LAN, ไม่พึ่ง cloud API, เริ่มต้นประมาณ 30,000 บาทสำหรับติดตั้ง

· 25 นาทีในการอ่าน
เครื่องทดสอบจริงของ KoishiAI — workstation แบบเปิดฝา ใส่ RTX 5090 (ด้านบน) และ Zotac RTX 5080 (ด้านล่าง) พร้อมไฟ RGB และพัดลมเสริมที่โต๊ะ ถ่ายในประเทศไทย
local-llm benchmark qwen3

ทดสอบ LLM ในเครื่องบน Dual-GPU 48 GB: รุ่นไหนใช้ได้จริงในปี 2026

เราทดสอบ Qwen3 27B, 32B, 35B-A3B, และ 80B บนเครื่อง RTX 5090 + 5080 ของเราเอง เพื่อหาจุดคุ้มค่าจริงสำหรับรัน AI ในเครื่องปี 2026 นี่คือรุ่นที่เราเก็บไว้ใช้ — และรุ่นที่ปลดระวาง

· 26 นาทีในการอ่าน