
我對本課程有興趣
課程資訊
開課日期
2025-11-08
學習時程
30 小時
上課時間
週六
上課時段
上午,下午
適用對象
1. 在企業擔任資訊人員(IT)、AI軟體開發、AI模型運用、AI程式應用等工程師等研發從業人員。
2. 有興趣欲投入資通訊產業之轉職人士。
課程特色
深入理解大型語言模型的核心原理與應用場景,掌握 Transformer 架構、訓練方法、
Gemini API、Hugging Face及本地部署工具,逐步建構LLM技術基礎,為實務開發打下根基。
特色二、實作導向,打造可運行的智慧應用專案
從提示詞工程、RAG 檢索式生成、微調技巧(LoRA、PEFT)到Function Calling
AI Agent整合,全方位實作LLM應用開發流程,最終以Gradio打造一個可互動的智慧應用。
詳細內容
日期 |
課程單元 |
課程內容 |
時數 |
11/8(六) |
單元一 大語言模型基礎 |
1. 大語言模型原理與簡介 -認識大語言模型LLM發展歷程與背景 -Transformer 架構核心概念 -LLM 的訓練方式(預訓練與微調) -大語言模型的應用場景與限制 2. 大語言模型的操作 -控制生成行為 (temperature、top-k、top-p 等參數介紹) -Token 與輸出長度的概念與限制 -使用 API 操作語言模型(Gemini) -Hugging face模型操作 -本地端的大語言模型部屬平台 (Ollama、LM-Studio) |
6hr |
11/15(六) |
單元二 檢索增強生成RAG |
3. 提示詞工程 -提示詞設計原則 -常見提示詞技巧 -多輪對話中的提示詞設計 -提示詞調試技巧 4. RAG基本概念 -為何需要RAG:語言模型與知識庫關聯 -檢索型模型 vs 生成型模型 -RAG 的工作流程 -向量資料庫簡介 -RAG系統實作 5. Langchain簡介 -LangChain 框架概述 -使用LangChain建立RAG系統示範 |
6hr |
11/22(六) |
單元三 大語言模型 微調與實戰 |
6. 大語言模型微調 -LoRA(Low-Rank Adaptation)、PEFT 等輕量化微調技術介紹 -開源模型微調流程 (使用 Hugging Face Transformers) -訓練資料準備與格式 (Instruction Tuning / SFT) -實作:微調小型語言模型進行特定任務 7. 大語言模型動手實作 -本單元將以工作坊形式進行,鼓勵學員將 前兩日所學整合,利用Grdaio來親手打造 一個具體的大語言模型應用系統 |
6hr |
11/29(六) |
單元四 Tools/Function 功能擴充 |
8. LLM工具功能擴充概念 -工具使用(Tools)與函式調用(Function Calling)的應用背景 -為什麼語言模型需要工具:LLM 的推論限 制與外部功能需求 -工具調用 vs 插件系統 vs Agent Framework 9. Function Calling 機制實作 -Google Gemini Tool Use 概念解析 -函式定義與 JSON Schema 規範介紹 -範例實作:自定義函式供模型呼叫 -多工具整合技巧與錯誤處理設計 10.工具應用場景實作 -串接外部 API -搭配Gradio建立互動式多功能應用介面 -動手練習:建構一個支援多工具呼叫的智慧助手 |
6hr |
12/6(六) |
單元五 AI Agent |
11.AI Agent 核心概念 -什麼是 AI Agent:從單一回應到自主行動 的轉變 -ReAct(Reasoning + Acting)架構與 Agent Thought 模型解析 -Agent 與工具的整合:計劃、決策與執行 流程 -知識記憶與狀態管理概念 (Short-term vs Long-term memory) 12.MCP -MCP 簡介與核心概念 -MCP 架構與元件解析 -MCP 的實作與開發 13.實作與綜合演練 -分組實作一個具備多工具與任務管理能力的 AI Agent |
6hr |
※ 主辦單位保留講師及課程變更之權利 |
師資介紹
陳講師
- 現任:台灣人工智能產業協會講師、實踐大學推廣中心講師等
- 專長:機器學習、影像識別、大型語言模型、生成式AI、數位電路與嵌入式系統、程式設計
- 經歷:中原大學電子所博士、中央研究院資訊科學所博士後研究員,曾任資深工程師與資料科學家,並擁有豐富授課經驗,擔任公協會講師多年