Quantcast
Viewing latest article 7
Browse Latest Browse All 2063

ลองใช้งาน LLM Bindings ใน Dagger

Image may be NSFW.
Clik here to view.

Image may be NSFW.
Clik here to view.

หลังจากที่ใช้งาน Dagger สำหรับการสร้าง workflow และ CI/CD ด้วยการเขียน code
โดยทำงานใน container-based เป็นหลัก
แต่มีอีก feature ที่น่าสนใจคือ LLM Bindings
ที่ทำงานร่วมกับ LLM provider ต่าง ๆ
จากนั้นทำการเลือก tool/function ที่จะ run ใน dagger ให้เองเลย
มันคือ AI Agent ตัวหนึ่งนั่นเอง
มาลองใช้งานกัน

โดย LLM provider ที่สนับสนุนประกอบไปด้วย

  • OpenAI
  • Anthropic
  • Google Gemini
  • Azure OpenAI
  • Ollama

ตัวอย่างการใช้งานผ่าน Dagger shell

เป็นการติดตั้ง Python และ library ต่าง ๆ ใน Alpine container

[gist id="1688aebc24d3f43e342b41a40a11edcd" file="1.txt"]

ตัวอย่างการเขียน Dagger ให้เป็นเป็น Agent สำหรับ Generate code เป็นภาษา Go

[gist id="1688aebc24d3f43e342b41a40a11edcd" file="2.txt"]

จากนั้นทำการ run ใน Dagger shell เหมือนเดิม

[gist id="1688aebc24d3f43e342b41a40a11edcd" file="3.txt"]

สิ่งที่น่าสนใจคือ มีการจัดการ caching ของ prompt ที่ส่งไปยัง LLM provider ให้อีกด้วย
ตรงนี้ช่วยลด cost ไปเยอะเหมือนกัน
ลองเล่นกันดู สนุกดีครับ

เพิ่มอีกนิด ลอลให้สร้าง REST API ด้วยภาษา Go + Echo fromework ได้ดังนี้

[gist id="1688aebc24d3f43e342b41a40a11edcd" file="4.go"]

ลองดูตัวอย่างการใช้งานเพิ่มเติมได้ที่ AI Agent Examples


Viewing latest article 7
Browse Latest Browse All 2063

Trending Articles