Quantcast
Channel: cc :: somkiat
Viewing all articles
Browse latest Browse all 2069

มาลองใช้งาน LlamaEdge สำหรับ run LLM บนเครื่องแบบเบา ๆ

$
0
0

เห็นว่า WasmeEdge นั้นสนับสนุน opensource LLM แล้ว (เป็นภาษา Rust)
ชื่อ project คือ LlamaEdge
ซึ่งช่วยให้ง่าย และ ทำงานรวดเร็วมาก ๆ ทั้งการ run และ fine tune mode บน local นั่นเอง
มาลองใช้งานกันดู

เริ่มที่เป้าหมายของ LlamaEdge

  • program จะมีขนาดเล็ก เป็น MB ซึ่งมีการเปรียบเทียบกับ Python และ Go ด้วยนะ
  • สนับสนุนการทำงานบน hardware ต่าง ๆ รวมทั้งเน้นเรื่องของ performance ที่สูง
  • สนับสนุน LLM model ต่าง ๆ ซึ่งดู model ได้ หรือที่ Hugging Face ก็ได้

มาลองติดตั้งและใช้งาน LLM บน local ดีกว่า

[gist id="092bfb8ade545b3b3d2e5a2cf9724c71" file="1.txt"]

เพียงเท่านี้ก็สามารถใช้งาน Local LLM ได้แล้ว
โดยที่ยังมี API server ให้อีกด้วย มีทั้ง HTTP และ WebSocket
ซึ่งจะ compatibility กับ OpenAI API ดังนั้นการปรับเปลี่ยนจึงสะดวกยิ่งขึ้น

มาลอง Start API Server กัน

[gist id="092bfb8ade545b3b3d2e5a2cf9724c71" file="2.txt"]

จากนั้นก็ลองเขียน code ใช้งานผ่าน openai library กัน

[gist id="092bfb8ade545b3b3d2e5a2cf9724c71" file="hello.py"]

เพียงเท่านี้ก็ใช้งานได้แล้ว
ลองใช้งานกันดูครับ


Viewing all articles
Browse latest Browse all 2069

Trending Articles