ภาพหน้าจอแล็ปท็อปแสดงข้อความ Claude Conway แพลตฟอร์ม AI ทำงานต่อเนื่อง บนพื้นหลังสีม่วง

Claude Conway เอเจนต์ Always-on มาแล้ว? เมื่อ AI ขยับจาก “แชตบอต” สู่ “แพลตฟอร์มทำงานต่อเนื่อง”

เนื้อหาในบทความ

โลกของ AI กำลังเปลี่ยนเฟสอย่างชัดเจน: จากโมเดลที่ “ตอบคำถามเป็นครั้ง ๆ” ไปสู่เอเจนต์ (agent) ที่ “อยู่กับงาน” ได้จริง ทำงานต่อเนื่อง รับทริกเกอร์จากเหตุการณ์ภายนอก ใช้เครื่องมือหลายชนิด และทำงานในสภาพแวดล้อมของตัวเองเหมือนมี workspace ส่วนตัว บทสนทนานี้เห็นภาพชัดผ่าน 3 ความเคลื่อนไหวสำคัญในช่วงเวลาไล่เลี่ยกัน ได้แก่

  • Anthropic ทดสอบเอเจนต์ always-on ตัวใหม่ชื่อ Claude Conway ที่มีลักษณะ persistent และมีระบบ extensions + connectors + webhooks ในตัว
  • Z.ai เปิดตัว GLM-5V Turbo โมเดลวิชันสำหรับงานเขียนโค้ดที่ “รู้ว่ามีอะไรอยู่บนหน้าจอ” และถูกออกแบบให้เข้ากับเวิร์กโฟลว์แบบเอเจนต์อย่าง OpenClaw และ Claude Code
  • Alibaba ปล่อย Qwen 3.6 Plus พร้อมคอนเท็กซ์ต์มหาศาล 1 ล้านโทเคน โฟกัสงาน agentic coding และการ deploy ในโลกจริงระดับองค์กร

บทความนี้จะพาไล่เรียงว่าแต่ละฝั่งกำลังดันอะไร เหตุผลที่มัน “สำคัญกว่าเดโม” และมันกำลังพาเราไปสู่ยุคที่ AI อาจทำหน้าที่ใกล้เคียง “แอป” หรือ “ผู้ปฏิบัติงานดิจิทัล” มากขึ้นเรื่อย ๆ

1) Anthropic และ “Conway”: จาก Claude ในแชต สู่เอเจนต์ที่มีสภาพแวดล้อมของตัวเอง

Conway คืออะไร และทำไมคำว่า “instance” ถึงน่าจับตา

Anthropic กำลังทดสอบเอเจนต์ตัวใหม่ชื่อ Conway ซึ่งภาพรวมไม่ใช่แค่ “โหมดแชต” แต่ดูเหมือนเป็น สภาพแวดล้อมแยกต่างหากที่สร้างรอบ Claude คล้ายมี “ระบบปฏิบัติการย่อย” สำหรับเอเจนต์ AI

จุดที่บ่งบอกความต่างชัดคือ เมื่อเข้าใช้งาน Conway จะมีตัวเลือกในแถบด้านข้างของตัวเอง และเมื่อคลิกเข้าไป ระบบเรียกสิ่งนั้นว่า “Conway instance” ซึ่งสื่อว่าไม่ใช่ session ชั่วคราว แต่เป็นสิ่งที่ คงอยู่ต่อเนื่อง (persistent)

หน้าจอระบบ Conway Instance แสดงเมนู Extensions และ Webhooks สำหรับจัดการ AI บนอินเทอร์เฟซสีเข้ม

นัยสำคัญ: เอเจนต์ที่ persistent ทำให้ “งาน” ไม่ต้องรีเซ็ตทุกครั้งที่เราเปิดหน้าต่างใหม่ และเป็นพื้นฐานของการทำงานแบบ always-on ในอนาคต

ภายใน Conway: workspace จริงจัง ไม่ใช่แค่หน้าต่างคุย

ใน Conway ผู้ใช้ไม่ได้แค่พิมพ์คุย แต่กำลังทำงานกับ agent workspace ที่มี UI แยกส่วน เช่น

  • Search (ดูเหมือนเชื่อมกับ hotkey เชิงทดลอง)
  • Chat (การคุยกับโมเดลตามปกติ)
  • System (ส่วนที่ “เริ่มจริงจัง” เพราะใช้จัดการทั้ง instance ได้)

โดยเฉพาะแท็บ System เป็นเหมือนแผงควบคุมที่ทำให้ Conway กลายเป็น “แพลตฟอร์ม” มากกว่าหน้าต่างสนทนา

2) Extensions, Connectors, Tools และไฟล์ CNW ZIP: Claude กำลังกลายเป็นแพลตฟอร์ม

หน้าจอ System ของ Conway แสดง Extensions, Connectors และ Webhooks สำหรับจัดการเครื่องมือ AI อินเทอร์เฟซสีเข้ม

Extensions: สัญญาณของ ecosystem แบบ “App Store”

Conway มีส่วน extensions ที่เปิดให้:

  • ติดตั้งเครื่องมือแบบกำหนดเอง
  • เพิ่มแท็บ UI ใหม่
  • กำหนด context handlers เพื่อจัดการบริบท/ข้อมูลที่เอเจนต์ใช้

รูปแบบแพ็กเกจที่พูดถึงคือไฟล์ CNW ZIP ซึ่งโดยภาพรวมชวนให้นึกถึงการสร้าง ecosystem ส่วนขยาย คล้ายแนวคิด app/plugin marketplace

ผลลัพธ์เชิงกลยุทธ์: Claude ไม่ได้เป็นแค่โมเดลให้คุย แต่กำลังถูกยกระดับเป็น platform ที่นักพัฒนามา “เสียบปลั๊ก” ความสามารถเพิ่มได้

Connectors และ Tools: อินทิเกรตระบบภายนอกได้โดยตรง

ระบบแสดงรายการไคลเอนต์ที่เชื่อมต่อ และเครื่องมือที่แต่ละตัวเปิดให้ใช้ หมายความว่า Conway สามารถเชื่อมกับระบบภายนอกได้จริงจัง

มีรายละเอียดที่น่าสนใจมากคือ สวิตช์ให้ Claude ที่รันอยู่ใน Chrome เชื่อมเข้ากับ Conway ได้โดยตรง ทำให้เบราว์เซอร์กลายเป็นส่วนหนึ่งของ loop การทำงานของเอเจนต์

ตัวอย่างภาพการใช้งาน (เชิงปฏิบัติ):

  • Conway รับงาน “ติดตามสถานะ issue”
  • เชื่อม Chrome เพื่อเปิดหน้า dashboard / ticketing
  • ดึงข้อมูล/อัปเดต/สรุปผล แล้วส่งรายงานกลับมาใน workspace โดยไม่ต้องให้คนไล่คลิกเองทุกครั้ง

3) Webhook ในตัว: ก้าวสำคัญสู่เอเจนต์แบบ Always-on

หน้าจอ Webhooks แสดงการตั้งค่า Slack notifications สถานะยังไม่ยืนยัน บนอินเทอร์เฟซระบบ Conway

จุดเปลี่ยนเกมของ Conway คือมีระบบ webhook แบบเต็มรูปแบบอยู่ในตัว:

  • ระบบให้ public URL เพื่อให้บริการภายนอกเรียกได้
  • เมื่อเกิดการเรียก webhook จะ “ปลุก” เอเจนต์ให้ตื่นขึ้นมาทำงาน

นี่ทำให้ Conway ไม่จำเป็นต้อง “รอให้ผู้ใช้เปิด” แต่สามารถทำงานเบื้องหลัง รับ event แล้วเริ่ม workflow ได้ทันที—ใกล้เคียงแนวคิด always-on agent อย่างแท้จริง

ตัวอย่างเหตุการณ์ที่มักใช้ webhook ในโลกจริง:

  • มี pull request ใหม่ใน Git repo
  • มี incident ใหม่จากระบบ monitoring
  • มีฟอร์มลูกค้าถูกส่งเข้ามา
  • มีไฟล์ใหม่ถูกอัปโหลดเข้า storage

ถ้า Conway ผูกกับเหตุการณ์เหล่านี้ได้ ก็เท่ากับ AI เริ่มกลายเป็น “ผู้ปฏิบัติงานอัตโนมัติ” ที่ทำงานตาม trigger

4) Epitaxy, Claude Code และทิศทาง “agentic workflow” ของ Anthropic

สคริปต์ยังโยง Conway เข้ากับสิ่งที่ Anthropic ทำอยู่แล้ว เช่น Claude Code และอินเทอร์เฟซที่เคยถูกพบก่อนหน้านี้ชื่อ Epitaxy ซึ่งมีการอ้างอิงอยู่ภายใน Conway ด้วย

ภาพรวมที่เริ่มชัดคือ Anthropic กำลังวาง Claude ให้เป็น “ผู้ปฏิบัติงาน” ที่:

  • รันได้ต่อเนื่อง
  • มีสภาพแวดล้อมของตัวเอง
  • เชื่อมเครื่องมือภายนอก
  • ทำงานแบบหลายสเต็ปได้คล่อง

และแน่นอน มันไปชนกับแนวทางของ OpenClaw โดยตรง เพียงแต่ Anthropic กำลังสร้างแบบ native และอินทิเกรตลึกกับโมเดลของตัวเอง

5) Claude Code “no flicker” + mouse support: รายละเอียด UX ที่บอกว่า “เขาจะพาไปใช้งานจริง”

ภาพกราฟิกคำว่า NO_FLICKER พร้อมไอคอนสีส้มบนพื้นหลังโทนแดงสไตล์ดิจิทัล

นอกจากฝั่ง platform/agent Anthropic ยังปรับประสบการณ์นักพัฒนาในระดับหน้างานด้วย โดย Claude Code เพิ่ม “โหมด no flicker” เพื่อแก้ปัญหาเทอร์มินัลกะพริบ/กระโดด และ performance แย่ลงเมื่อ session ยาว ๆ

no flicker ทำงานอย่างไร (แนวคิด)

แทนการเรนเดอร์ซ้ำทั้งหน้าจอ โหมดใหม่ใช้แนวทางแบบ full-screen buffer คล้ายเครื่องมืออย่าง Vim หรือ HTOP

  • อัปเดตเฉพาะส่วนที่มองเห็น
  • ลดการกะพริบ
  • ทำให้ CPU/Memory คงที่ขึ้น แม้คุยยาวหรือทำ multi-agent workflow

เปิดใช้ได้ด้วยตัวแปรสภาพแวดล้อม:

  • CLAUDE_CODE_NO_FLICKER=1
    ฟีเจอร์นี้มาในเวอร์ชัน 2.1.88 และยังเป็น experimental

mouse support: เทอร์มินัลที่เริ่มเหมือน GUI

สิ่งที่ “เกินคาด” คือรองรับเมาส์เต็มรูปแบบ เช่น

  • คลิกเพื่อวางเคอร์เซอร์
  • คลิกเพื่อขยายผลลัพธ์จาก tool
  • คลิกลิงก์เพื่อเปิด URL
  • คลิก path ไฟล์เพื่อเปิดใน editor
  • ลากเพื่อเลือกข้อความแล้วคัดลอกเข้า clipboard อัตโนมัติ
  • สกอลล์ดูประวัติยาว ๆ ได้ลื่น
  • ดับเบิลคลิกเลือกคำ / ทริปเปิลคลิกเลือกทั้งบรรทัด
  • บนเทอร์มินัลขั้นสูงอย่าง Kitty หรือ WezTerm กด Ctrl+C อาจคัดลอกแทนการยกเลิก selection

นัยสำคัญ: เมื่อ Anthropic ลงรายละเอียด UX ระดับนี้ แปลว่าเขากำลังดัน Claude Code ให้เป็น “เครื่องมือทำงานจริงทุกวัน” ไม่ใช่ของเล่นทดลอง

6) Z.ai และ GLM-5V Turbo: โมเดลที่ “มองหน้าจอ” แล้วแปลงเป็นโค้ด/การกระทำได้

ภาพหน้าจอ Z.ai และ GLM-5V Turbo แสดง AI แปลงภาพหน้าจอเป็นโค้ดบนอินเทอร์เฟซโปรแกรมมิ่ง

อีกแกนหนึ่งของเทรนด์เอเจนต์คือ multimodal coding—AI ที่ไม่ได้อ่านแค่ข้อความ แต่เข้าใจ “สิ่งที่อยู่บนหน้าจอ” ซึ่งเป็นข้อมูลจริงในชีวิตการทำงาน (UI พัง ๆ, mockup หยาบ ๆ, PDF เละ ๆ, วิดีโออธิบายบั๊ก)

ปัญหาคลาสสิก: โมเดลที่เก่งภาพ มักไม่เก่งโค้ด (และกลับกัน)

Z.ai ชี้ว่าความท้าทายคือทำให้โมเดล “เก่งทั้งสองอย่างพร้อมกัน” เพราะปกติอีกด้านจะดรอปเมื่ออีกด้านดีขึ้น แต่ GLM-5V Turbo ถูกวางตำแหน่งให้รับมือทั้ง vision + coding ในตัวเดียว

ออกแบบมาเพื่ออินพุตโลกจริง: ภาพ, วิดีโอ, UI layout, เอกสารหนาแน่น

แทนการ “ดูภาพ → อธิบายเป็นข้อความคร่าว ๆ → แล้วค่อย reasoning” โมเดลนี้ตั้งเป้าให้เข้าใจภาพแบบตรงกว่า เพื่อรับมือกับงานที่ข้อมูลไม่สะอาด เช่น

  • สกรีนช็อต error ที่มีรายละเอียดเล็ก ๆ
  • PDF ตารางแน่น ๆ
  • UI layout ที่ซับซ้อน
  • วิดีโอบันทึกขั้นตอนที่บั๊กเกิด

เทคโนโลยีใต้ฝาก: CogVIT + MTP และคอนเท็กซ์ต์ 200K

Z.ai ระบุว่าใช้

  • CogVIT Vision Encoder เพื่อคงรายละเอียดภาพและโครงสร้างเลย์เอาต์
  • MTP (multi-token prediction) เพื่อเพิ่มความเร็วและรองรับเอาต์พุตยาว ๆ
    พร้อมคอนเท็กซ์ต์ 200,000 โทเคน รองรับเอกสารยาว โค้ดเบสใหญ่ และเวิร์กโฟลว์ที่ยาวแบบ multimodal

ทำไมมันถูกผลักไปทาง OpenClaw และ Claude Code

GLM-5V Turbo ถูกปรับให้เหมาะกับ OpenClaw เพื่อทำงานผ่านสภาพแวดล้อมภาพจริง ไล่ตั้งค่า วิเคราะห์สิ่งบนจอ และทำงานแบบเดียวกับคนใช้คอมพิวเตอร์

และยังทำงานร่วมกับ Claude Code ได้: นักพัฒนาสามารถส่งสกรีนช็อตบั๊ก UI หรือ mockup แล้วให้โมเดลเสนอแนวทางโค้ดจาก “สิ่งที่เห็น” ได้ ซึ่งเป็น workflow ที่ธรรมชาติมาก เพราะคนทำงานจริงมักพูดว่า “ตรงนี้มันผิด” พร้อมชี้หน้าจอ มากกว่าจะเขียนสเปกเทคนิคยาว ๆ

7) Alibaba และ Qwen 3.6 Plus: 1M context เพื่อทำ “agentic coding” ระดับ repository และ deploy ได้จริง

ภาพโปรโมต Qwen3.6 Plus แสดงความสามารถ AI ด้านโค้ดและมัลติโหมด พร้อมโลโก้ Qwen และตัวละครกราฟิก

ถ้า Conway คือภาพของเอเจนต์ always-on และ GLM-5V Turbo คือภาพของเอเจนต์ที่ “เห็นหน้าจอ” ฝั่ง Alibaba คือการทำให้เอเจนต์ “ทำงานใหญ่” ได้จริงในระดับโปรเจ็กต์

“Capability loop” แบบครบวงจร: รับรู้-คิด-ลงมือทำ

ภาพโลโก้ Qwen 3.6 Plus พร้อมคำว่า Perceive Reason Act แสดงความสามารถ AI บนพื้นหลังดิจิทัล

Alibaba บอกว่า Qwen 3.6 Plus ถูกสร้างรอบแนวคิด “ลูปความสามารถ” ที่เชื่อมกันใน workflow เดียว:

  • รับรู้ (perceive)
  • ให้เหตุผล (reason)
  • ลงมือทำ (act)
    ไม่ใช่ตอบแล้วจบ แต่แตกงานเป็นขั้น ๆ ไล่ทำ ทดสอบ ปรับปรุง แล้วเดินต่อจนได้ผลลัพธ์ใช้งานได้

Repository-level engineering: ไม่ใช่แค่โค้ด snippet

Qwen 3.6 Plus โฟกัสงานเขียนโค้ดระดับ repository-level คือทำงานข้ามทั้งโปรเจ็กต์ได้—เหมาะกับงานจริงที่ต้องแตะหลายไฟล์ หลายโมดูล ต้องเข้าใจโครงสร้างรวม และต้องไม่หลุดบริบท

จุดขายใหญ่: คอนเท็กซ์ต์ 1 ล้านโทเคน (1M)

นี่คือไฮไลต์: 1 ล้านโทเคนโดยดีฟอลต์
ความหมายเชิงปฏิบัติสำหรับเอเจนต์คือ “ความจำในการทำงาน” ดีขึ้นมาก เช่น

  • ใส่เอกสารใหญ่ ๆ หลายชุดพร้อมกัน
  • อ่านโค้ดเบสหลายไฟล์ในครั้งเดียว
  • ติดตามสิ่งที่ทำไปแล้ว/เครื่องมือที่ใช้ไปแล้ว/สิ่งที่ต้องทำต่อได้ยาวกว่า
  • ลดปัญหา “หลุดประเด็น” ในงานหลายสเต็ป

Alibaba ยังปล่อยพรีวิวบน OpenRouter และอย่างน้อยช่วงหนึ่งให้เข้าถึงได้ฟรีพร้อมคอนเท็กซ์ต์เต็ม 1M ช่วยให้ dev ทดลองได้ง่ายขึ้น

Deploy จริง: เข้า ecosystem องค์กร และทำงานร่วมเครื่องมือยอดนิยม

Qwen 3.6 Plus ถูกวางให้เข้าไปอยู่ใน ecosystem ของ Alibaba รวมถึง Wukong (แพลตฟอร์มองค์กรสำหรับทำงานอัตโนมัติด้วย multi-agent) และยังทำงานร่วมกับ OpenClaw, Claude Code, Klein ได้ด้วย

ฝั่ง multimodal ก็ถูกกล่าวถึงว่า:

  • พาร์สเอกสารหนาแน่น
  • วิเคราะห์ภาพโลกจริง
  • ให้เหตุผลจากวิดีโอยาว
  • ดูสกรีนช็อต UI / ไวร์เฟรมวาดมือ / mockup แล้วแปลงเป็นโค้ด frontend ใช้งานได้

8) ภาพใหญ่ของอุตสาหกรรม: จาก “Chatbot” สู่ “AI ที่อยู่กับงานได้”

เมื่อเอาสามชิ้นนี้มาวางรวมกัน จะเห็นแพตเทิร์นเดียวกันชัดมาก:

  • Always-on / event-driven: Conway มี webhook ปลุกเอเจนต์ได้
  • Multimodal grounding: GLM-5V Turbo เน้นเข้าใจ “หน้าจอจริง” และ workflow จริง
  • Long-context + repository-level: Qwen 3.6 Plus ทำให้เอเจนต์ทำงานยาวและใหญ่ได้จริง

ทั้งหมดนี้กำลังพา AI จากบทบาท “ผู้ช่วยตอบ” ไปเป็น “ผู้ช่วยทำ” และในบางงานอาจใกล้เคียง “ผู้ปฏิบัติงานแทนคน” มากขึ้นเรื่อย ๆ

บทสรุป: Key Takeaways ที่ควรจำ

  • Claude Conway ทำให้เห็นทิศทางใหม่ของ Anthropic: เอเจนต์ที่ persistent, มี workspace, มี extensions/connectors, และมี webhook เพื่อก้าวสู่ always-on agent
  • Claude Code ไม่ได้พัฒนาแค่ความฉลาดของโมเดล แต่ลงลึกถึง UX การใช้งานจริงผ่าน no flicker และ mouse support ทำให้การทำงานยาว ๆ เสถียรขึ้น
  • Z.ai GLM-5V Turbo ชูแนวคิด “มองหน้าจอแล้วทำงานได้” ลดช่องว่างระหว่างภาพ/วิดีโอ/เลย์เอาต์ กับการเขียนโค้ดและการกระทำใน workflow แบบเอเจนต์
  • Alibaba Qwen 3.6 Plus ผลัก agentic coding สู่ระดับโปรเจ็กต์ด้วย 1M context และการวางตำแหน่งเพื่อ deploy ในโลกจริง พร้อมเชื่อม ecosystem เครื่องมืออย่าง OpenClaw และ Claude Code

คำถามปลายเปิดที่น่าสนใจ (และเป็นแกนของการแข่งขันถัดไป) คือ:
เอเจนต์ AI จะวิวัฒน์จน “มาแทนแอป” บางประเภทได้จริงไหม—หรือสุดท้ายจะเป็นแค่เลเยอร์อัตโนมัติที่ช่วยให้เราใช้แอปเดิมได้เก่งขึ้น?

ไม่ว่าคำตอบจะไปทางไหน สัญญาณตอนนี้ชัดเจนว่าอุตสาหกรรมกำลังมุ่งไปสู่ AI ที่ “ทำงานต่อเนื่อง เห็นโลกจริง และเชื่อมเครื่องมือได้” มากกว่าแค่คุยเก่งในหน้าต่างแชต

 

📍 หากไม่อยากพลาดความรู้ดี ๆ แบบนี้ สามารถติดตาม Prompt Expert ตามช่องทางด้านล่างได้เลย

Website: prompt-expert.co

Facebook Page: Prompt-Expert

RELATED POST
ภาพแสดงคำถาม "Vector Database คืออะไร? เกี่ยวกับ AI อย่างไร" พร้อมภาพผลไม้บนกราฟสามมิติ สื่อถึงการจัดเก็บข้อมูลเชิงเวกเตอร์ในฐานข้อมูล และความสัมพันธ์กับปัญญาประดิษฐ์ (AI)

Vector Database คืออะไร? เกี่ยวกับ AI อย่างไร?

ในยุคที่ข้อมูลมีการเติบโตอย่างรวดเร็วและมีความซับซ้อนมากขึ้น การจัดการข้อมูลจึงกลายเป็นเรื่องที่ท้าทาย โดยเฉพาะเมื่อพูดถึงการสร้างแอปพลิเคชัน

อ่านต่อ »

ส่งต่อบทความดีๆ ได้ที่นี่

Scroll to Top

Discover more from Learn prompt expert

Subscribe now to keep reading and get access to the full archive.

Continue reading