前言
人工智能的概念在1956年達特茅斯學術會議中首次被提出。經過半個多世紀的發展,人工智能從簡單的計算智能過渡到感知智能,一直發展到現在的認知智能。于是,讓計算機“聽懂”或“看懂”人的心聲或意圖,受到了無數優秀學者和科研人員的關注,這背后的技術最終發展為計算機科學及人工智能領域的一個重要分支——深度學習。
如今,深度學習已經取得了長足的進展,并且它已經滲透到人們生活的方方面面。人們平時常用的人臉識別、車牌識別、自動駕駛等功能,都是以深度學習為核心的人工智能產品。同時,隨著計算機及相關技術的發展和算力的提高,人工智能已經進入深度學習時代。越來越多的深度學習技術趨于成熟并顯現出巨大的商業價值。
·圖像分類:圖像分類是指給定一張圖像或一段視頻判斷圖像或視頻中包含什么類別的目標。目前,圖像分類在很多領域有著廣泛的應用,包括安防領域的人臉識別和智能視頻分析等、交通領域的交通場景識別等。
·目標檢測:目標檢測的任務是找出圖像中指定的目標(物體),確定它們的類別和位置,是計算機視覺領域的核心研究問題之一。
·文本生成:文本生成是指系統接收非語言形式的信息作為輸入,生成可讀寫的文字。目前,文本生成的應用有文本摘要、古詩詞生成和文本復述等。
隨著神經網絡和深度學習的不斷發展,國內外深度學習應用型人才的缺口也逐年增大。究其原因,一方面,近幾年各行業對深度學習領域人才的需求快速增加;另一方面,深度學習是人工智能的核心技術,涉及高等數學、線性代數、信息學、生物學、計算機科學等眾多學科,因此其入門門檻較高,需要掌握人工智能相關的多種理論基礎和模型算法。市面上大多數與深度學習相關的書籍注重理論知識的講解,而講解深度學習案例的書籍相對較少。雖然理論知識是深度學習必不可少的基礎,但案例實戰是幫助讀者更好地理解理論知識的最佳方式。為此,達內時代科技集團將以往與深度學習相關的項目經驗、產品應用和技術知識整理成冊,通過本書來總結和分享深度學習的實踐成果。編著者衷心希望本書能為讀者開啟深度學習之門!
本書內容
本書圍繞神經網絡的基本概念(單層神經網絡、多層神經網絡),深度學習的基礎技術(卷積神經網絡、循環神經網絡)、核心技術(目標檢測、文本生成),編碼器-解碼器模型等內容進行講解,并詳細介紹了多元時間序列神經網絡、注意力機制、Transformer模型等相關技術,最后結合項目案例介紹了生成對抗網絡的內容。本書注重理論聯系實際,采用大量豐富案例,講解力求深入淺出,幫助讀者快速理解深度學習相關模型和算法的基本原理與關鍵技術。本書既適合高等職業院校和本科院校的學生學習使用,也適合不同行業的深度學習愛好者閱讀。在內容編排上,本書的每章內容都具備一定獨立性,可以幫助讀者掌握使用機器學習算法和深度學習算法處理同一類問題并獨立地解決一類實際問題的能力,建議讀者根據自身情況選擇性閱讀。各章之間循序漸進、形成有機整體,使全書內容不失系統性與完整性。本書分為4個部分。
·第1部分(第1~4章):深度學習基礎算法與應用。首先介紹神經網絡和深度學習的相關概念。然后介紹多層神經網絡的基本原理和具體應用。最后詳細介紹卷積神經網絡的原理、項目案例實現,以及優化算法與模型管理。
·第2部分(第5~9章):深度學習進階算法與應用。首先介紹經典的深度卷積神經網絡模型。然后介紹ResNet、DenseNet和MobileNet,并結合項目案例完成違規駕駛行為的識別。最后介紹目標檢測的基本概念和常見算法及循環神經網絡的基本概念和具體應用。
·第3部分(第10~14章):時空數據模型與應用。首先介紹CNN-LSTM混合模型的基本概念和具體應用。然后介紹多元時間序列神經網絡和注意力機制,并使用DCRNN和MTGNN實現交通流量預測。最后介紹Transformer的基本結構和具體應用,并結合歷史軌跡數據完成車輛行駛軌跡的預測。
·第4部分(第15~16章):生成對抗網絡及其應用。首先介紹生成對抗網絡的基本概念及其模型的結構和訓練過程,并使用 TecoGAN 模型實現視頻超分辨率。然后介紹使用檢測模型、識別模型對車牌進行檢測與識別。
書中理論知識與項目案例的重點和難點部分均采用微視頻的方式進行講解,讀者可掃描每章中的二維碼觀看視頻、查看作業與練習的答案。
另外,更多的視頻等數字化教學資源及最新動態,讀者可以關注以下微信公眾號,或添加小書童獲取資料與答疑等服務。
致謝
本書是達內時代科技集團人工智能研究院團隊通力合作的結果。全書由韓少云、馮華和刁景濤策劃、組織并負責統稿,參與本書編寫工作的有達內集團及眾多院校的老師,他們對相關章節內容的組織與選編做了大量細致的工作,在此對各位編著者的辛勤付出表示由衷的感謝!
感謝電子工業出版社的老師們對本書的重視,他們一絲不茍的工作態度保證了本書的質量。
為讀者呈現準確、翔實的內容是編著者的初衷,但由于編著者水平有限,書中難免存在不足之處,敬請專家和讀者給予批評指正。
編著者
2023年3月