★影像辨識系統及生成模型於ADAS與自駕車實作(職業)(資訊)【工研院
開課日期 | |
隨時開課 |
課程費用 | |
線上洽詢 |
開課地點 | |
台中市大雅區中科路6號(中科管理局_工商服務大樓4樓或9樓教室)及webex線上同步 |
| 適合職務 | |
隨時開課
12小時
週三,週五
上午,下午
對深度學習尤其是自動駕駛、生成模型或是影像辨識系統有興趣的研發、設計與開發、部門工程師及主管。
#影像辨識 × #生成式AI × #ADAS × #自駕車 × 實作教學
✅ 旅居瑞典自動駕駛深度學習專家親自授課
✅ 歐美自駕車最新自動駕駛模型核心技術剖析
✅ 影像辨識及生成模型PyTorch模型實作
|
單元
|
課程內容
|
|
單元一
ADAS/自駕車影像辨識系統之原理與實作
(6小時)
|
◆ADAS/AD相關資料集與量化指標
◆2D物件偵測:從YOLOv1-v10
◆2D物件偵測模型實作: 使用BDD100K資料集
◆語義分割模型: 從FCN到DeepLabv3+
◆語義分割模型實作: 使用BDD100K資料集
◆骨幹共享物件偵測與語義分割模型實作: 使用BDD100K資料集
◆基於Transformer的2D物件偵測模型: DETR
◆基於Transformer之跨攝影機3D物件偵測模型: DETR3D, PETR
|
|
單元二
生成模型原理及其在ADAS/自駕車之應用
(6小時)
|
◆生成式對抗網路原理以及量化指標
◆成對與非成對影像轉換:透過Pix2Pix與CycleGAN將白天影像轉換成夜間影像。
◆結構一致日夜街景影像轉換:運用Cycle-Object Edge Consistency將白天街景轉為夜晚並維持結構
◆基於Stable Diffusion之影像編輯與實作:運用Instruct-Pix2Pix直接修改影像情境(晝夜霧雨之情境互轉)
◆運用Diffusion Engine從物件偵測標記資料直接生成對應影像
◆Stable Diffusion之四大微調技巧(Controlnet, Dreambooth, LORA, Textual Inversion)
|
☀本課程歡迎企業包班~請來電洽詢 課程承辦人陳小姐(Zoe) 04-25685000#7131。
☀本課程為計畫補助課程,歡迎報名。