โลกของ AI กำลังเปลี่ยนเฟสอย่างชัดเจน: จากโมเดลที่ “ตอบคำถามเป็นครั้ง ๆ” ไปสู่เอเจนต์ (agent) ที่ “อยู่กับงาน” ได้จริง ทำงานต่อเนื่อง รับทริกเกอร์จากเหตุการณ์ภายนอก ใช้เครื่องมือหลายชนิด และทำงานในสภาพแวดล้อมของตัวเองเหมือนมี workspace ส่วนตัว บทสนทนานี้เห็นภาพชัดผ่าน 3 ความเคลื่อนไหวสำคัญในช่วงเวลาไล่เลี่ยกัน ได้แก่
- Anthropic ทดสอบเอเจนต์ always-on ตัวใหม่ชื่อ Claude Conway ที่มีลักษณะ persistent และมีระบบ extensions + connectors + webhooks ในตัว
- Z.ai เปิดตัว GLM-5V Turbo โมเดลวิชันสำหรับงานเขียนโค้ดที่ “รู้ว่ามีอะไรอยู่บนหน้าจอ” และถูกออกแบบให้เข้ากับเวิร์กโฟลว์แบบเอเจนต์อย่าง OpenClaw และ Claude Code
- Alibaba ปล่อย Qwen 3.6 Plus พร้อมคอนเท็กซ์ต์มหาศาล 1 ล้านโทเคน โฟกัสงาน agentic coding และการ deploy ในโลกจริงระดับองค์กร
บทความนี้จะพาไล่เรียงว่าแต่ละฝั่งกำลังดันอะไร เหตุผลที่มัน “สำคัญกว่าเดโม” และมันกำลังพาเราไปสู่ยุคที่ AI อาจทำหน้าที่ใกล้เคียง “แอป” หรือ “ผู้ปฏิบัติงานดิจิทัล” มากขึ้นเรื่อย ๆ
1) Anthropic และ “Conway”: จาก Claude ในแชต สู่เอเจนต์ที่มีสภาพแวดล้อมของตัวเอง
Conway คืออะไร และทำไมคำว่า “instance” ถึงน่าจับตา
Anthropic กำลังทดสอบเอเจนต์ตัวใหม่ชื่อ Conway ซึ่งภาพรวมไม่ใช่แค่ “โหมดแชต” แต่ดูเหมือนเป็น สภาพแวดล้อมแยกต่างหากที่สร้างรอบ Claude คล้ายมี “ระบบปฏิบัติการย่อย” สำหรับเอเจนต์ AI
จุดที่บ่งบอกความต่างชัดคือ เมื่อเข้าใช้งาน Conway จะมีตัวเลือกในแถบด้านข้างของตัวเอง และเมื่อคลิกเข้าไป ระบบเรียกสิ่งนั้นว่า “Conway instance” ซึ่งสื่อว่าไม่ใช่ session ชั่วคราว แต่เป็นสิ่งที่ คงอยู่ต่อเนื่อง (persistent)

นัยสำคัญ: เอเจนต์ที่ persistent ทำให้ “งาน” ไม่ต้องรีเซ็ตทุกครั้งที่เราเปิดหน้าต่างใหม่ และเป็นพื้นฐานของการทำงานแบบ always-on ในอนาคต
ภายใน Conway: workspace จริงจัง ไม่ใช่แค่หน้าต่างคุย
ใน Conway ผู้ใช้ไม่ได้แค่พิมพ์คุย แต่กำลังทำงานกับ agent workspace ที่มี UI แยกส่วน เช่น
- Search (ดูเหมือนเชื่อมกับ hotkey เชิงทดลอง)
- Chat (การคุยกับโมเดลตามปกติ)
- System (ส่วนที่ “เริ่มจริงจัง” เพราะใช้จัดการทั้ง instance ได้)
โดยเฉพาะแท็บ System เป็นเหมือนแผงควบคุมที่ทำให้ Conway กลายเป็น “แพลตฟอร์ม” มากกว่าหน้าต่างสนทนา
2) Extensions, Connectors, Tools และไฟล์ CNW ZIP: Claude กำลังกลายเป็นแพลตฟอร์ม

Extensions: สัญญาณของ ecosystem แบบ “App Store”
Conway มีส่วน extensions ที่เปิดให้:
- ติดตั้งเครื่องมือแบบกำหนดเอง
- เพิ่มแท็บ UI ใหม่
- กำหนด context handlers เพื่อจัดการบริบท/ข้อมูลที่เอเจนต์ใช้
รูปแบบแพ็กเกจที่พูดถึงคือไฟล์ CNW ZIP ซึ่งโดยภาพรวมชวนให้นึกถึงการสร้าง ecosystem ส่วนขยาย คล้ายแนวคิด app/plugin marketplace
ผลลัพธ์เชิงกลยุทธ์: Claude ไม่ได้เป็นแค่โมเดลให้คุย แต่กำลังถูกยกระดับเป็น platform ที่นักพัฒนามา “เสียบปลั๊ก” ความสามารถเพิ่มได้
Connectors และ Tools: อินทิเกรตระบบภายนอกได้โดยตรง
ระบบแสดงรายการไคลเอนต์ที่เชื่อมต่อ และเครื่องมือที่แต่ละตัวเปิดให้ใช้ หมายความว่า Conway สามารถเชื่อมกับระบบภายนอกได้จริงจัง
มีรายละเอียดที่น่าสนใจมากคือ สวิตช์ให้ Claude ที่รันอยู่ใน Chrome เชื่อมเข้ากับ Conway ได้โดยตรง ทำให้เบราว์เซอร์กลายเป็นส่วนหนึ่งของ loop การทำงานของเอเจนต์
ตัวอย่างภาพการใช้งาน (เชิงปฏิบัติ):
- Conway รับงาน “ติดตามสถานะ issue”
- เชื่อม Chrome เพื่อเปิดหน้า dashboard / ticketing
- ดึงข้อมูล/อัปเดต/สรุปผล แล้วส่งรายงานกลับมาใน workspace โดยไม่ต้องให้คนไล่คลิกเองทุกครั้ง
3) Webhook ในตัว: ก้าวสำคัญสู่เอเจนต์แบบ Always-on

จุดเปลี่ยนเกมของ Conway คือมีระบบ webhook แบบเต็มรูปแบบอยู่ในตัว:
- ระบบให้ public URL เพื่อให้บริการภายนอกเรียกได้
- เมื่อเกิดการเรียก webhook จะ “ปลุก” เอเจนต์ให้ตื่นขึ้นมาทำงาน
นี่ทำให้ Conway ไม่จำเป็นต้อง “รอให้ผู้ใช้เปิด” แต่สามารถทำงานเบื้องหลัง รับ event แล้วเริ่ม workflow ได้ทันที—ใกล้เคียงแนวคิด always-on agent อย่างแท้จริง
ตัวอย่างเหตุการณ์ที่มักใช้ webhook ในโลกจริง:
- มี pull request ใหม่ใน Git repo
- มี incident ใหม่จากระบบ monitoring
- มีฟอร์มลูกค้าถูกส่งเข้ามา
- มีไฟล์ใหม่ถูกอัปโหลดเข้า storage
ถ้า Conway ผูกกับเหตุการณ์เหล่านี้ได้ ก็เท่ากับ AI เริ่มกลายเป็น “ผู้ปฏิบัติงานอัตโนมัติ” ที่ทำงานตาม trigger
4) Epitaxy, Claude Code และทิศทาง “agentic workflow” ของ Anthropic
สคริปต์ยังโยง Conway เข้ากับสิ่งที่ Anthropic ทำอยู่แล้ว เช่น Claude Code และอินเทอร์เฟซที่เคยถูกพบก่อนหน้านี้ชื่อ Epitaxy ซึ่งมีการอ้างอิงอยู่ภายใน Conway ด้วย
ภาพรวมที่เริ่มชัดคือ Anthropic กำลังวาง Claude ให้เป็น “ผู้ปฏิบัติงาน” ที่:
- รันได้ต่อเนื่อง
- มีสภาพแวดล้อมของตัวเอง
- เชื่อมเครื่องมือภายนอก
- ทำงานแบบหลายสเต็ปได้คล่อง
และแน่นอน มันไปชนกับแนวทางของ OpenClaw โดยตรง เพียงแต่ Anthropic กำลังสร้างแบบ native และอินทิเกรตลึกกับโมเดลของตัวเอง
5) Claude Code “no flicker” + mouse support: รายละเอียด UX ที่บอกว่า “เขาจะพาไปใช้งานจริง”

นอกจากฝั่ง platform/agent Anthropic ยังปรับประสบการณ์นักพัฒนาในระดับหน้างานด้วย โดย Claude Code เพิ่ม “โหมด no flicker” เพื่อแก้ปัญหาเทอร์มินัลกะพริบ/กระโดด และ performance แย่ลงเมื่อ session ยาว ๆ
no flicker ทำงานอย่างไร (แนวคิด)
แทนการเรนเดอร์ซ้ำทั้งหน้าจอ โหมดใหม่ใช้แนวทางแบบ full-screen buffer คล้ายเครื่องมืออย่าง Vim หรือ HTOP
- อัปเดตเฉพาะส่วนที่มองเห็น
- ลดการกะพริบ
- ทำให้ CPU/Memory คงที่ขึ้น แม้คุยยาวหรือทำ multi-agent workflow
เปิดใช้ได้ด้วยตัวแปรสภาพแวดล้อม:
CLAUDE_CODE_NO_FLICKER=1
ฟีเจอร์นี้มาในเวอร์ชัน 2.1.88 และยังเป็น experimental
mouse support: เทอร์มินัลที่เริ่มเหมือน GUI
สิ่งที่ “เกินคาด” คือรองรับเมาส์เต็มรูปแบบ เช่น
- คลิกเพื่อวางเคอร์เซอร์
- คลิกเพื่อขยายผลลัพธ์จาก tool
- คลิกลิงก์เพื่อเปิด URL
- คลิก path ไฟล์เพื่อเปิดใน editor
- ลากเพื่อเลือกข้อความแล้วคัดลอกเข้า clipboard อัตโนมัติ
- สกอลล์ดูประวัติยาว ๆ ได้ลื่น
- ดับเบิลคลิกเลือกคำ / ทริปเปิลคลิกเลือกทั้งบรรทัด
- บนเทอร์มินัลขั้นสูงอย่าง Kitty หรือ WezTerm กด Ctrl+C อาจคัดลอกแทนการยกเลิก selection
นัยสำคัญ: เมื่อ Anthropic ลงรายละเอียด UX ระดับนี้ แปลว่าเขากำลังดัน Claude Code ให้เป็น “เครื่องมือทำงานจริงทุกวัน” ไม่ใช่ของเล่นทดลอง
6) Z.ai และ GLM-5V Turbo: โมเดลที่ “มองหน้าจอ” แล้วแปลงเป็นโค้ด/การกระทำได้

อีกแกนหนึ่งของเทรนด์เอเจนต์คือ multimodal coding—AI ที่ไม่ได้อ่านแค่ข้อความ แต่เข้าใจ “สิ่งที่อยู่บนหน้าจอ” ซึ่งเป็นข้อมูลจริงในชีวิตการทำงาน (UI พัง ๆ, mockup หยาบ ๆ, PDF เละ ๆ, วิดีโออธิบายบั๊ก)
ปัญหาคลาสสิก: โมเดลที่เก่งภาพ มักไม่เก่งโค้ด (และกลับกัน)
Z.ai ชี้ว่าความท้าทายคือทำให้โมเดล “เก่งทั้งสองอย่างพร้อมกัน” เพราะปกติอีกด้านจะดรอปเมื่ออีกด้านดีขึ้น แต่ GLM-5V Turbo ถูกวางตำแหน่งให้รับมือทั้ง vision + coding ในตัวเดียว
ออกแบบมาเพื่ออินพุตโลกจริง: ภาพ, วิดีโอ, UI layout, เอกสารหนาแน่น
แทนการ “ดูภาพ → อธิบายเป็นข้อความคร่าว ๆ → แล้วค่อย reasoning” โมเดลนี้ตั้งเป้าให้เข้าใจภาพแบบตรงกว่า เพื่อรับมือกับงานที่ข้อมูลไม่สะอาด เช่น
- สกรีนช็อต error ที่มีรายละเอียดเล็ก ๆ
- PDF ตารางแน่น ๆ
- UI layout ที่ซับซ้อน
- วิดีโอบันทึกขั้นตอนที่บั๊กเกิด
เทคโนโลยีใต้ฝาก: CogVIT + MTP และคอนเท็กซ์ต์ 200K
Z.ai ระบุว่าใช้
- CogVIT Vision Encoder เพื่อคงรายละเอียดภาพและโครงสร้างเลย์เอาต์
- MTP (multi-token prediction) เพื่อเพิ่มความเร็วและรองรับเอาต์พุตยาว ๆ
พร้อมคอนเท็กซ์ต์ 200,000 โทเคน รองรับเอกสารยาว โค้ดเบสใหญ่ และเวิร์กโฟลว์ที่ยาวแบบ multimodal
ทำไมมันถูกผลักไปทาง OpenClaw และ Claude Code
GLM-5V Turbo ถูกปรับให้เหมาะกับ OpenClaw เพื่อทำงานผ่านสภาพแวดล้อมภาพจริง ไล่ตั้งค่า วิเคราะห์สิ่งบนจอ และทำงานแบบเดียวกับคนใช้คอมพิวเตอร์
และยังทำงานร่วมกับ Claude Code ได้: นักพัฒนาสามารถส่งสกรีนช็อตบั๊ก UI หรือ mockup แล้วให้โมเดลเสนอแนวทางโค้ดจาก “สิ่งที่เห็น” ได้ ซึ่งเป็น workflow ที่ธรรมชาติมาก เพราะคนทำงานจริงมักพูดว่า “ตรงนี้มันผิด” พร้อมชี้หน้าจอ มากกว่าจะเขียนสเปกเทคนิคยาว ๆ
7) Alibaba และ Qwen 3.6 Plus: 1M context เพื่อทำ “agentic coding” ระดับ repository และ deploy ได้จริง

ถ้า Conway คือภาพของเอเจนต์ always-on และ GLM-5V Turbo คือภาพของเอเจนต์ที่ “เห็นหน้าจอ” ฝั่ง Alibaba คือการทำให้เอเจนต์ “ทำงานใหญ่” ได้จริงในระดับโปรเจ็กต์
“Capability loop” แบบครบวงจร: รับรู้-คิด-ลงมือทำ

Alibaba บอกว่า Qwen 3.6 Plus ถูกสร้างรอบแนวคิด “ลูปความสามารถ” ที่เชื่อมกันใน workflow เดียว:
- รับรู้ (perceive)
- ให้เหตุผล (reason)
- ลงมือทำ (act)
ไม่ใช่ตอบแล้วจบ แต่แตกงานเป็นขั้น ๆ ไล่ทำ ทดสอบ ปรับปรุง แล้วเดินต่อจนได้ผลลัพธ์ใช้งานได้
Repository-level engineering: ไม่ใช่แค่โค้ด snippet
Qwen 3.6 Plus โฟกัสงานเขียนโค้ดระดับ repository-level คือทำงานข้ามทั้งโปรเจ็กต์ได้—เหมาะกับงานจริงที่ต้องแตะหลายไฟล์ หลายโมดูล ต้องเข้าใจโครงสร้างรวม และต้องไม่หลุดบริบท
จุดขายใหญ่: คอนเท็กซ์ต์ 1 ล้านโทเคน (1M)
นี่คือไฮไลต์: 1 ล้านโทเคนโดยดีฟอลต์
ความหมายเชิงปฏิบัติสำหรับเอเจนต์คือ “ความจำในการทำงาน” ดีขึ้นมาก เช่น
- ใส่เอกสารใหญ่ ๆ หลายชุดพร้อมกัน
- อ่านโค้ดเบสหลายไฟล์ในครั้งเดียว
- ติดตามสิ่งที่ทำไปแล้ว/เครื่องมือที่ใช้ไปแล้ว/สิ่งที่ต้องทำต่อได้ยาวกว่า
- ลดปัญหา “หลุดประเด็น” ในงานหลายสเต็ป
Alibaba ยังปล่อยพรีวิวบน OpenRouter และอย่างน้อยช่วงหนึ่งให้เข้าถึงได้ฟรีพร้อมคอนเท็กซ์ต์เต็ม 1M ช่วยให้ dev ทดลองได้ง่ายขึ้น
Deploy จริง: เข้า ecosystem องค์กร และทำงานร่วมเครื่องมือยอดนิยม
Qwen 3.6 Plus ถูกวางให้เข้าไปอยู่ใน ecosystem ของ Alibaba รวมถึง Wukong (แพลตฟอร์มองค์กรสำหรับทำงานอัตโนมัติด้วย multi-agent) และยังทำงานร่วมกับ OpenClaw, Claude Code, Klein ได้ด้วย
ฝั่ง multimodal ก็ถูกกล่าวถึงว่า:
- พาร์สเอกสารหนาแน่น
- วิเคราะห์ภาพโลกจริง
- ให้เหตุผลจากวิดีโอยาว
- ดูสกรีนช็อต UI / ไวร์เฟรมวาดมือ / mockup แล้วแปลงเป็นโค้ด frontend ใช้งานได้
8) ภาพใหญ่ของอุตสาหกรรม: จาก “Chatbot” สู่ “AI ที่อยู่กับงานได้”
เมื่อเอาสามชิ้นนี้มาวางรวมกัน จะเห็นแพตเทิร์นเดียวกันชัดมาก:
- Always-on / event-driven: Conway มี webhook ปลุกเอเจนต์ได้
- Multimodal grounding: GLM-5V Turbo เน้นเข้าใจ “หน้าจอจริง” และ workflow จริง
- Long-context + repository-level: Qwen 3.6 Plus ทำให้เอเจนต์ทำงานยาวและใหญ่ได้จริง
ทั้งหมดนี้กำลังพา AI จากบทบาท “ผู้ช่วยตอบ” ไปเป็น “ผู้ช่วยทำ” และในบางงานอาจใกล้เคียง “ผู้ปฏิบัติงานแทนคน” มากขึ้นเรื่อย ๆ
บทสรุป: Key Takeaways ที่ควรจำ
- Claude Conway ทำให้เห็นทิศทางใหม่ของ Anthropic: เอเจนต์ที่ persistent, มี workspace, มี extensions/connectors, และมี webhook เพื่อก้าวสู่ always-on agent
- Claude Code ไม่ได้พัฒนาแค่ความฉลาดของโมเดล แต่ลงลึกถึง UX การใช้งานจริงผ่าน no flicker และ mouse support ทำให้การทำงานยาว ๆ เสถียรขึ้น
- Z.ai GLM-5V Turbo ชูแนวคิด “มองหน้าจอแล้วทำงานได้” ลดช่องว่างระหว่างภาพ/วิดีโอ/เลย์เอาต์ กับการเขียนโค้ดและการกระทำใน workflow แบบเอเจนต์
- Alibaba Qwen 3.6 Plus ผลัก agentic coding สู่ระดับโปรเจ็กต์ด้วย 1M context และการวางตำแหน่งเพื่อ deploy ในโลกจริง พร้อมเชื่อม ecosystem เครื่องมืออย่าง OpenClaw และ Claude Code
คำถามปลายเปิดที่น่าสนใจ (และเป็นแกนของการแข่งขันถัดไป) คือ:
เอเจนต์ AI จะวิวัฒน์จน “มาแทนแอป” บางประเภทได้จริงไหม—หรือสุดท้ายจะเป็นแค่เลเยอร์อัตโนมัติที่ช่วยให้เราใช้แอปเดิมได้เก่งขึ้น?
ไม่ว่าคำตอบจะไปทางไหน สัญญาณตอนนี้ชัดเจนว่าอุตสาหกรรมกำลังมุ่งไปสู่ AI ที่ “ทำงานต่อเนื่อง เห็นโลกจริง และเชื่อมเครื่องมือได้” มากกว่าแค่คุยเก่งในหน้าต่างแชต
📍 หากไม่อยากพลาดความรู้ดี ๆ แบบนี้ สามารถติดตาม Prompt Expert ตามช่องทางด้านล่างได้เลย
Website: prompt-expert.co
Facebook Page: Prompt-Expert





