最近在研究 LLM 的應用程式開發,最有感的就是 LLM 已經有能力解析自然語言的意圖,轉為精確的 API 呼叫 (包含呼叫哪個 API,以及從上下文解析出需要的參數) 這段過程了。這是 agent 代理程式自動化的關鍵功能。
之前我做了 GPTs, 這段解析是發生在 Chat GPT server side, 呼叫我的 API; 也做過 Semantic Kernel 版本, 這段解析在 GPT4 模型內, 但是判讀結果跟真正呼叫 API 是在 client side ( SK 內 )。用的工具手段不同,但是關鍵的 LLM -> API 這段是一樣的
看來在社群,已經有多位 MVP 也觀察到這改變了,紛紛分享了各種應用的案例,因此我重新分享我這篇文章 (講了很多背後的想法),同時也在這 FB PO 文整理一下相關的實作分享連結
整理一下有幾種不同領域的應用, 以及實作的方式:
- LLM -> API ( SK / GPTs + API )
- LLM -> SQL ( SK )
- LLM -> Knowledge Search ( SK + API + GPTs )
第一個案例, @[100063895742755:2048:‧NET Walker 大內行者] 靠 SK 呼叫本地的 function, 董大偉老師上周寫了一段範例, 很貼切的示範這功能, 值得一看, 有興趣的人可以細讀。我覺得這環節打開了一連串改革的開關,大家可以趁現在,好好思考一下這個關鍵未來會帶來多少變化。
第二個案例, @[100044593262144:2048:黑暗執行緒] 前幾天另一個認識多年的 MVP 好友黑大, 不約而同的也給了一個範例,是用自然語言自動產生 SQL 處理資料的應用,同樣核心觀念,不同應用場合,不同情境 ( API 跟 SQL 的差別 ),也是值得一看的範例
第三個案例, @[100063744608911:2048:安德魯的部落格] 我自己也補了一個: 安德魯的部落格 GPTs
自然語言除了自動呼叫 API, 自動執行 SQL 之外, 我也在嘗試怎麼自動檢索知識庫, 其實結果就是典型的 RAG, 只是我想要實際體驗。我同樣拿進入門檻最低的 Chat GPTs, 搭配 Microsoft Kernel Memory 這開源專案 (基於 Semantic Kernel + .NET 7 開發的獨立服務), 做了一個 “安德魯的部落格 GPTs”, 你可以把它當作已經熟讀我 327 篇文章的老手,直接問他問題 (找文章,解釋,應用,翻譯都行)。
這三個案例的連結,我放在第一筆 comments
https://columns.chicken-house.net/2024/02/10/archview-int-app/