電機工程學系
Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/85
歷史沿革
本系成立宗旨在整合電子、電機、資訊、控制等多學門之工程技術,以培養跨領域具系統整合能力之電機電子科技人才為目標,同時配合產業界需求、支援國家重點科技發展,以「系統晶片」、「多媒體與通訊」、與「智慧型控制與機器人」等三大領域為核心發展方向,期望藉由學術創新引領產業發展,全力培養能直接投入電機電子產業之高級技術人才,厚植本國科技產業之競爭實力。
本系肇始於民國92年籌設之「應用電子科技研究所」,經一年籌劃,於民國93年8月正式成立,開始招收碩士班研究生,以培養具備理論、實務能力之高階電機電子科技人才為目標。民國96年8月「應用電子科技學系」成立,招收學士班學生,同時間,系所合一為「應用電子科技學系」。民國103年8月更名為「電機工程學系」,民國107年電機工程學系博士班成立,完備從大學部到博士班之學制規模,進一步擴展與深化本系的教學與研究能量。
News
Browse
13 results
Search Results
Item 應用強化式學習策略之分數階比例積分微分控制於X-Y-Y棒狀線性馬達定位平台(2024) 楊祐銓; YANG, YU-CHUANItem Item 基於深度學習之即時異常操作程序監控系統(2022) 李作庭; Li, Tso-Ting本論文提出一任務監控系統,以確保人員操作程序與標準作業程序一致,避免意外或操作不當的情況發生,包含:影像目標偵測模組、手部動作辨識模組、用於穩定辨識結果之濾波器、以及程序比對演算法。作法係使用 SlowFast 動作辨識演算法,根據影像的取樣頻率,將輸入拆分為slow pathway 以及fast pathway,前者用於取得空間特徵,後者則增強對於時間特徵上之提取,使得模型可以取得更多時空間之資訊,進而實現精細動作的辨識,解決傳統動作辨識演算法只專注在單一取樣頻率進行空間特徵提取,不利於應用在連續動作辨識的限制。為了將該系統有效地實踐在實際應用場景,本論文亦使用YOLOv4偵測目標影像,濾除非目標事件之場景,當目標影像收集足夠的影像數量時,啟用SlowFast進行人員操作目標物之動作辨識,再使用一改良的濾波器用以降低辨識結果不穩定之情形,建立手部與施作工件等目標物件之相依動作行為之動作庫(action base)。隨後,利用一預先建立之標準作業程序動作庫,包含了操作物件以及相對應的動作,利用一比對演算法進行任務行為之檢測,判別人員操作程序流程是否符合規範。為驗證系統之性能,本論文將所提出之任務監控系統以一小型工作坊人機協作進行即時判斷,監督操作員的操作程序是否符合正確規範。Item 基於改良式時序動作提名生成網路之即時動作偵測(2022) 陳怡君; Chen, Yi-Chun大多數的動作辨識(Action Recognition)方法在應用於連續動作辨識時,會有不穩定的預測,這是因為該些方法大都利用只有單一動作的短視頻(Short Video Clip)去訓練,如果輸入是連續讀入的即時影像時,由於無法取樣到動作開始與結束的幀,造成輸入模型的影像序列與訓練資訊大相逕庭,造成辨識的錯誤。為解決上述問題,本論文提出一即時動作偵測(Online Action Detection)方法,在串流影像當中找出動作的開始與結束,作法是先以Inflated 3D ConvNet (I3D)提取出RGB及Optical Flow影像的特徵,再利用Boundary Sensitive Network (BSN)中的Temporal Evaluation Module (TEM)模組,來找出動作開始、動作結束的機率。此外,本文改良了傳統BSN,使其從離線運行轉變成可以即時運行來找出開始與結束的機率,以得到目標動作較有可能發生的區間。在動作開始後,本文應用動態取樣方法來獲得有效樣本並送入I3D以進行動作識別。實驗結果顯示,所提出的方法可以更好地處理各種連續時間的目標動作影片,提高串流影片中動作辨識的準確度。Item 使用人工智慧晶片實作之自動樂譜辨識與打擊樂演奏系統(2022) 陳建豪; Chen, Jian-Hao近幾年的神經網路研究,針對高解析度光學影像辨識系統已達到成熟階段,然而龐大的卷積神經網路(Convolutional Neural Network, CNN)架構往往有著極大的計算成本,如何維持可接受的正確率並降低計算負擔是一個值得研究的方向。因此本論文使用專精電腦視覺任務的人工智慧晶片替換龐大的目標偵測CNN來偵測音符位置,並以自行設計之輕量CNN辨識音階資訊。將複雜的任務分配給兩個輕量CNN來實現一套光學樂譜辨識系統。本論文亦設計控制程式整合光學樂譜辨識與Delta機械手臂控制。透過鏡頭偵測與辨識拍攝到的紙本樂譜,並且以通用非同步收發傳輸器(Universal Asynchronous Receiver/Transmitter, UART)取得辨識結果。接著以辨識結果確定演奏順序後,驅動Delta機械手臂自動演奏鐵琴。最後以紙本樂譜實際測試本論文提出之光學樂譜辨識系統,驗證此系統的辨識正確率。Item 基於生成對抗式網路的人臉影像身分重建(2021) 屈軒宇; Chiu, Daniel基於卷積神經網路的人臉辨識技術已經達成極高的準確率並且廣泛應用於各種場域,然而在特定的應用場合人臉辨識技術還是有很大的挑戰,特別是影像品質不佳的監控設備環境下,人會與鏡頭有較大的距離,導致人臉影像解析度過低造成人臉身分難以辨識,為此我們提出一個新穎的基於生成對抗式網路的人臉影像重建網路,藉由學習低解析度的人臉影像與高解析度的人臉影像之映射關係,我們可以從低解析度人臉影像重建出高解析度人臉影像,此外我們使用Feature Embedding的方法從網路的輸出層得到人臉身分特徵,並且利用三元組損失計算人臉身分特徵用以訓練神經網路,使神經網路可以藉由人臉身分特徵表達做相應的高解析度人臉影像重建,實驗階段我們使用了公開的人臉資料集CASIA-WebFaces進行訓練,並與近年來基於深度學習所提出的底解析度人臉重建方法作為比較並稱為傳統方法。實驗結果表明我們所提出的極低解析度人臉重建網路在大倍率放大的影像品質與辨識率優於傳統方法。Item 基於深度學習發展自動車道置中控制應用於多車交通情況之自主駕駛(2021) 黃美琳; Huang, Mei-Lin近年來,自駕車已展現出在道路安全方面帶來重大改進的潛力。同時,許多基於人工智慧的自動駕駛技術被提出,用於從人類數據中學習駕駛任務。然而,針對複雜交通情況下的無人車,要達到人類水平的可靠性和安全反應是一項挑戰。 本文提出了一種自動車道對中系統的深度學習系統,該系統能夠處理多車互動場景。為了避免學習良好駕駛策略的障礙,尤其是在現有端到端方法中使用有限的專家駕駛數據的情況下,我們的系統將自動駕駛控制分為速度和轉向規劃器。此外,為了應對由於高度動態的交通場景和道路用戶交互而造成的複雜性,本論文使用強化學習架構來訓練這兩個規劃器,即使從其真實環境中收集到的數據有限,也可以有效地改善自動駕駛策略。本研究主要目標為,開發的自動車道居中系統可以通過練習新收集的數據和更新駕駛技術表示來模仿駕駛員的行為,從而提高其性能。為此,本研究使用CarSim車輛模擬軟體以及Python進行協同模擬,用於從人類駕駛員模型中學習複雜的駕駛技能的過程。實驗結果驗證了該方法在多車輛交通場景中的良好性能。實驗表明,在具有不同車輛和路況的不同軌道上,車道置中控制具有穩定而準確的性能。Item 以深度學習為基礎之多人即時動作辨識系統(2020) 蔡仁凱; Tsai, Jen-Kai隨著人工智慧領域快速的發展,人類動作辨識技術在近年來獲得極大關注,應用也非常廣泛,例如在長照中心對受照護者提供即時活動偵測,在工廠環境及公共環境中提供異常行為之偵測等,都能藉由動作辨識的結果實現提醒、警示、紀錄等智慧監控之功能,預防意外的發生,也解決人力資源短缺的問題。因此,如何利用穩健的動作辨識達到即時智慧監控的目的,實為一重要議題。本文提出一套以深度學習為基礎之多人即時動作辨識系統,以達到智慧型監控的目的,並應用於長照環境中。本系統結合YOLOv3與Deep SORT演算法,能從影片中同時偵測多個人物,並進行追蹤。在人物面對鏡頭時,還能透過FaceNet架構辨識人物身份姓名。對於遠距離人物而言,我們開發一套zoom in方法,根據人物框選的大小自動使用高解析度畫面以獲得更好的辨識效果。為了提升系統的穩健性,在將畫面輸入I3D前,我們會先模糊人物以外區域,減少背景帶來的影響。最後,利用非最大值抑制方法,降低因多個滑動視窗所造成的不穩定情形。實驗結果顯示,本文所提出的方法能夠實現一套即時多人之動作辨識系統。Item 應用於自動化生產及分揀之物件姿態估測系統(2020) 陳薪鴻; Chen, Hsin-Hung近幾年來,產業為了提升生產效率,大量使用自動化生產設備取代人力,透過電腦視覺與機器運動控制的整合搭配,已大幅增加自動化生產的效率。受惠於GPU計算平台的普及,不論機器學習或是深度學習技術紛紛出現於各種應用場景之中,以往使用電腦視覺方法不能或是難以解決的問題,透過引進深度學習都有出色的表現。本文主要研究內容可分為三部分:第一部分利用輝達(Nvidia)所提出之基於深度學習單攝影機物件姿態估測演算法(Deep Object Pose Estimation, DOPE),其中包含產生物件的立體模型,再匯入Unreal Engine遊戲引擎並搭配輝達深度學習資料集合成器(Nvidia Deep learning Dataset Synthesizer, NDDS)套件,產生訓練數據,用來對神經網路進行權重訓練,完成後即可用來對物件姿態進行估測;第二部分使用加拿大Kinova公司所生產之Jaco 2四軸機械手臂並透過機器人作業系統(Robot Operating System, ROS)完成物件夾取功能;第三部分運用PyQt設計一圖形使用者介面(Graphical User Interface, GUI)整合前兩部分,讓使用者透過單一介面即可獲得物件估測和手臂執行資訊,也可透過其進行參數調整。模擬於生產線上應用,用以輔助加工與分類之程序,達成自動化生產製造之目的。Item 自動樂譜辨識與打擊樂機器人系統(2020) 黃朝慶; HUANG, Chao-Ching光學樂譜辨識系統是一套針對樂譜影像進行影像辨識的系統,在樂譜影像中,音符是用以記錄音階和節拍的資訊,在過去許多的研究和實驗當中,針對高解析度的樂譜辨識系統已經達到成熟的階段。然而,基於相機影像的樂譜辨識會受到環境光線、角度和模糊的影響,故仍有進一步研究的必要,我們初次嘗試將深度學習架構應用在基於相機影像的樂譜辨識系統。首先,我們使用線偵測演算法在即時攝影畫面中自動偵測樂譜影像,並找出樂譜當中的五線譜範圍,因為我們只專注於五線譜當中的音符資訊,為了完成這個任務,我們使用霍夫線偵測演算法並取得每一行五線譜的範圍。接下來,為偵測、切割及辨識每一個音符,我們將每一行獨立的五線譜送至基於Darknet53網路之YOLO v3的檢測模型當中,目前可以辨識六類的音符分類名稱分別為全音符、二分音符、四分音符、八分音符、四分休止符和二分休止符,再者,將YOLO v3所偵測到的音符根據樂譜中的位置進行排序,並送至卷積神經網路用以辨識音階,現階段我們可以辨識C3到F4共十一類的音階,最後我們透過RS232連接Delta機械手臂進行樂器的演奏。在光學樂譜辨識的發展中,我使用霍夫線偵測樂譜中每行的五線譜範圍,如此我們可以避免歌詞或圖案的雜訊,減少辨識的錯誤。不僅如此,透過自動化五線譜偵測所取得的樂譜影像使用深度學習的架構進行辨識,並在介面上顯示音階和節拍,至終,我們使用機械手臂進行演奏。