Image may be NSFW.
Clik here to view.
Clik here to view.

หลังจากที่ใช้งาน Dagger สำหรับการสร้าง workflow และ CI/CD ด้วยการเขียน code
โดยทำงานใน container-based เป็นหลัก
แต่มีอีก feature ที่น่าสนใจคือ LLM Bindings
ที่ทำงานร่วมกับ LLM provider ต่าง ๆ
จากนั้นทำการเลือก tool/function ที่จะ run ใน dagger ให้เองเลย
มันคือ AI Agent ตัวหนึ่งนั่นเอง
มาลองใช้งานกัน
โดย LLM provider ที่สนับสนุนประกอบไปด้วย
- OpenAI
- Anthropic
- Google Gemini
- Azure OpenAI
- Ollama
ตัวอย่างการใช้งานผ่าน Dagger shell
เป็นการติดตั้ง Python และ library ต่าง ๆ ใน Alpine container
[gist id="1688aebc24d3f43e342b41a40a11edcd" file="1.txt"]ตัวอย่างการเขียน Dagger ให้เป็นเป็น Agent สำหรับ Generate code เป็นภาษา Go
[gist id="1688aebc24d3f43e342b41a40a11edcd" file="2.txt"]จากนั้นทำการ run ใน Dagger shell เหมือนเดิม
[gist id="1688aebc24d3f43e342b41a40a11edcd" file="3.txt"]สิ่งที่น่าสนใจคือ มีการจัดการ caching ของ prompt ที่ส่งไปยัง LLM provider ให้อีกด้วย
ตรงนี้ช่วยลด cost ไปเยอะเหมือนกัน
ลองเล่นกันดู สนุกดีครับ
เพิ่มอีกนิด ลอลให้สร้าง REST API ด้วยภาษา Go + Echo fromework ได้ดังนี้
[gist id="1688aebc24d3f43e342b41a40a11edcd" file="4.go"]ลองดูตัวอย่างการใช้งานเพิ่มเติมได้ที่ AI Agent Examples