18 Apr 2025 - 1 min read
ผมเพิ่งได้อ่าน Blog Model Context Protocol (MCP) x Gemini: อธิบายการทำงาน พร้อมตัวอย่างโค้ดแบบ Deep-Dive (แนะนำให้อ่าน) พบว่าเราสามารถเชื่อมต่อกับบริการภายนอกกับ Gemini ได้ง่ายๆ ผ่าน function call ผมเห็นเมนู function call อยู่นานละ แต่ยังนึกไม่ออกว่ามันจะไปกดเล่นยังไง เพราะกด view code ใน AI Studio มันไม่เป็นมีอะไรออกมา ก็เลยไม่ได้สนใจ
พอมาอ่าน Blog ข้างต้น กับไปอ่าน AI for Developer ก็เข้าใจเลยว่า การที่ Google ใส่ function call มาให้ Gemini แบบนี้ ทำให้เราสามารถสร้าง AI Agent ได้ยืดหยุ่นมากๆ คุณสามารถเชื่อมต่อกับ External Service อะไรก็ได้ รวมไปถึงเครื่องมือ (tool) ต่างๆ ที่มีใน MCP Server ด้วย
ลองมาดูภาพข้างล่าง
คุณจะพบว่า AI Agent Application จะรู้อยู่แล้วว่า App มีความสามารถอะไร และสามารถเลือกใช้ tool ที่ระบุได้ด้วยการตัดสินใจของ LLM โดยที่เราไม่ต้องไป เตรียม system prompt บอกใบ้ให้ก่อน ซึ่งเป็นวิธีการ implement ที่น่าสนใจ จากที่ยังคาใจเรื่อง A2A ของ Google พอวิเคราะห์เรื่อง Architecture ก็เข้าใจได้เลยว่า การออกแบบในลักษณะนี้ "ฉลาดมาก" และถ้ามองระยะยาวการใช้ AI Model (ไม่เฉพาะกับ Google) จะเพิ่มมากขึ้นจาก AI Agent จริงๆ
อัพเดทเพิ่มเติมอีกนิด MCP vs Function Calling แนะนำให่ไปอ่านเพิ่มเติม แม้จะคนละแนวคิด แต่ก็ไปในแนวทางเดียวกัน