2018年11月18日下午,西安電子科技大學計算機科學與技術學部主任、人工智能學院焦李成教授在成都參加了由中國人工智能學會主辦的人工智能大講堂并做特邀報告,焦李成教授在報告中回顧了深度神經網絡發(fā)展歷程,闡述了復雜影像的智能解譯與識別問題,并激勵大家在人工智能領域勇攀學術高峰,以下為報告記錄。
焦李成:很高興有這個機會跟大家一起交流。今天的演講是命題作文,人工智能學會今年開始做人工智能大講堂,學會理事會將其作為重要的品牌在做,以前是到各個學校去做,現在拿到高峰論壇來做是第一次。上午的也是張院長的命題作文,一定要談人工智能,人才的培養(yǎng),我覺得很高興有這個機會,跟大家一起交流。
一個名字,深度神經網絡,兩句話大家記住了,李院士講的是深度學習不是萬能的,但是離開深度學習是萬萬不能的。這件事情作為我們內行人來講,今年講的也比較多,內行人也很自然能理解,給我們行業(yè)內講是不講這個事的,但是給一般的聽眾講,包括給政府機關、百千萬人才、長江杰青大講堂都講了這句話,這句話的意思是只要是能夠結構化的、只要是能夠有規(guī)則的、只要你是有數據的,那么這個問題,你不要企圖和人工智能去拼。圍棋就是這樣,象棋也是這樣,它們是封閉、完備的,在這些問題上你算不過人工智能,沒有它算得快,同時這些規(guī)則在短時間內的實施性,人做不到,人有感情,機器沒有感情,它下錯一步,你說它怎么這么臭,它并不正視你,而是繼續(xù)下,人工智能一秒鐘算三千步,三萬步,而人看三十步已經很偉大了。
這兩個視頻,一個是我學生做的,西安英卓未來公寓,另外一個是曠視做的。英卓未來公寓從房門開啟一直到最后的離開都是通過智能完成的。當然你見不著人,但是人通過智能給了你最好的服務。所以他們開了第四家酒店,讓大眾能夠體驗到智能家居的生活、享受到智能的品質。曠視在做人臉識別這件事情,最早做這個事是商湯的Mark,我的學生、也是湯曉鷗老師的第一個學生,他做了20年的人臉識別,20年的堅守厚積薄發(fā),去年的7月份到9月份,三個月內機場、高鐵、銀行全都用了他的技術。
大家都知道,這是波士頓動力狗。大家看,它的三級跳,人都不一定能夠做得到,就是這么靈活,整個機器人經過這么幾代以后,智能的行為、協(xié)調、所有的動作做的很棒,我覺得對我們人類是一種挑戰(zhàn)。在反恐、排爆、探險,救險這些領域當中,這些技術是非常有用且必要的。我的學生做了一款為漸凍人服務的眼球控制智能出行及家居生活的輪椅系統(tǒng),做了三代,正好有一位漸凍人“泰山英雄”,他的腿動不了,手也不能完全控制,但他靠著手登上了泰山、華山,所以公眾叫他“泰山英雄”,有媒體聯系到了我們,那么我們將贈送一臺智能輪椅給他,人工智能確實能夠改變我們人在某些情況下的不方便,我個人感覺還是一件非常有意義的事。這套輪椅系統(tǒng)能讓漸凍人及其他肌肉或骨骼受損的人不僅在室外能自己走,跟剛才說的智能公寓結合起來,通過眼睛的控制,能完成從開門到開關燈、開關窗簾、洗澡間等所有的智能生活起居。在杭州的一個比賽中,這套系統(tǒng)也很轟動,得到了大家的認可,拿了一個獎項。當然回來了我們認識了“泰山英雄”,能讓他有了適合他的輪椅、能切切實實的幫到漸凍人,這是更重要的,我和我的學生都感到非常高興。
大家可能看不見,這是星載的,就是照相機和雷達裝在衛(wèi)星上然后拍攝地面的視頻,船在動、高速上面的車在動、然后機場的飛機在起飛,這是衛(wèi)星的視頻。衛(wèi)星視頻數據量非常大也非常高維,我們同時做到了在衛(wèi)星視頻數據量級上的艦船、飛機、車輛的監(jiān)測、跟蹤和分類,就是你傳送多少、運動速度多少、未知的信息全部能夠同時的實時識別出來。
將來首先失業(yè)的有可能是播音員,為什么呢?現在的語音合成技術完全可以和董卿一樣、和李梓萌一樣,聽上去有感情,但是聲音是合成的。(視頻)這樣的話就可以全天候的進行播音。剛才舉的波士頓動力、漸凍人的輪椅和智能工藝的結合、播音員的語音合成等例子都是活生生正在發(fā)生的。所以教育部也很重視人工智能,教育部各個專家組+咨詢組31個人,整個分布在十幾個高校。
其實我國的人工智能發(fā)展計劃歸結為三步走,四大任務,五大智能技術方向。三步走我們怎么跟、四大任務我們怎么去完成,還有五大方向我們在科研人才的培養(yǎng)上怎樣去進行匹配,這是我們需要考慮的問題。我認為可以從四個部分考慮,一是基礎理論,二是共性技術,第三是基礎支撐平臺,第四是智能化基礎設施,智能基礎設施建設怎么和物聯網和云計算的基礎設施的建設相互協(xié)調起來,是我們需要思考的。
工信部的《新一代人工智能產業(yè)發(fā)展三年行動計劃》大家應該去看,目標很清楚,產品要出來,核心技術要突破,實際上是為整個智能社會和2025智能制造做準備,這件事大家一定要去做,要思考互聯網、大數據、人工智能三個支撐體系和基礎設施怎么樣相互協(xié)同,相互協(xié)調,共同促進,你跟不上,你一定會落后。人工智能對全社會來講是共性的技術、普適的技術,對教育來講同樣是共性的、普適的課程,這一點我們現在都無法去想象,人工智能對于教育或者是智慧教育帶來的挑戰(zhàn),我希望大家一定要去關注。
高校的行動計劃,今年教育部連發(fā)五文,時間規(guī)劃涉及到2020年、2025年、2030年,內容涉及創(chuàng)新體系,人才培養(yǎng)體系,成果轉化和示范應用的基地,它的目標是想干什么?對于高校教師,寫寫論文,帶帶學生已經不夠了。人工智能的方向有什么呢?李院士講了,這是經過多少次爭論后列出來的主要方向,6到8個,要根據各個不同的學校、不同的單位,不同的特色去建相應的方向,一定要有特色而不能同質化。
圍繞基礎理論的研究基金委是有布局的,也經過了專家組充分的論證。人工智能的理論研究從56年到現在,一直在爭論也一直在斗爭,但不管你是三起三落還是八起八落,搞學術的人都得搞。別人不做的時候我們在做,別人不待見的時候我們也在做,高潮來的時候,該怎么樣還怎么樣,做學術的人就要初心不改做自己的事。所以人工智能從誕生之初到現在,從需要模擬人的基本智能,推理、知識、規(guī)劃、學習、交流、感知到移動和操作物體的能力,始終在延伸,始終在往前走,水平在不斷的去提高。人工智能不是人的智能,而是希望能夠像人那樣去思考,像自然演化那樣去學習和進化。另外,進化計算和自然計算結合起來有一些挑戰(zhàn)和問題,我覺得這兩個之間的概括需要有人去做,我已經講過幾回,今天先不講,未來希望有機會也跟大家聊一聊進化計算和自然計算的結合。
智能的兩條道,學習和感知、優(yōu)化和識別的能力什么時候都需要、什么時候都是智能的主體,怎么樣能夠把這兩個結合起來?我認為這個時代說對了一部分,這部分就是可以用梯度算法去做,另外一部分是,進化計算在結構優(yōu)化上一定是比BP強的,梯度從哪兒求這件事情我覺得還是值得思考,無法獲得梯度怎么辦?人工智能從開始的符號、聯結、行為、貝葉斯到類推,人怎么認知、自然怎么學習演化、人是怎么想的、怎么看的、怎么聽的、怎么說的、怎么走的、怎么動的……神經網絡都做到了嗎?我想說的是,從專家系統(tǒng)到中間基于特征的,再到聲音、語言,文字、圖像以及現在的感知行動結合起來,這件事上是值得我們去走的。
我個人認為人工智能四大挑戰(zhàn),無教師的學習何時能來?無監(jiān)督的學習深度何時能做?機器人能夠像人一樣去感知和理解這個世界嗎?機器的情感在哪里?前面說的這些都是網絡范式去做的,而人是在環(huán)境、場景中、運動中去感知,首先是感知這個世界,然后理解這個世界,之后去指揮自己的行為,最后再做一系列的事情。所以最終人工智能要對環(huán)境、對場景、對情感去感知和理解,形成動力系統(tǒng)。更進一步,人工智能的發(fā)展最重要的還是人,這個時候帶來的倫理、法律、道德、宗教等等深刻的社會問題我們怎么去思考它、怎么去理解它以及怎么去面對它。
美國白宮成立了人工智能研究中心,這是絕無僅有的,MIT結合AI成立新的計算機學院。這件事情我覺得對我們整個改革學校的教育,改革下一代的教育都有影響,我們要思考這意味著什么。人工智能改造了計算機的教育,斯坦福始終在創(chuàng)新引領的前沿,我們要思考他們做什么事情,我們要做以人為中心的人工智能的教育和改革。這件事情上,我們教育部的官員和教育工作者都要去好好學習,更要去看別人怎么去做。
所以說到對人工智能的戰(zhàn)略投資,包括對社會的變革、長期的革命,MIT這件事情拿了10億美金,CMU創(chuàng)辦了世界上第一個人工智能本科專業(yè),我知道在紐約辦了一個藝術學院與人工智能的結合,他們用6.4億美金,專門辦了一個藝術學院。我們不能只知道人家做了這件事,更要看這件事的內容是什么,要眼光面向全世界,要看清楚怎么去做,我們要去引領。我就覺得這三件事情都是今年的,都是剛剛發(fā)生的事,所以這件事情上,我覺得美國還是清醒的,站在這個制高點,不能說我們人工智能計劃已經很完美。當然國內的布局也很快,這件事情應該說叫做“順勢而為,趁勢而上”,但我們千萬不要說吃了一碗面條,我們腦子就很聰明,好像不是那么回事,要懂得做全局優(yōu)化。
我想再強調一下,人工智能、機器學習和深度學習我們內行人應該要搞清楚。現在當然說沒有比深度學習更有效的機器學習的辦法,人工智能當然要去做事,肯定得靠深度學習,因為你面對的是黑箱、不完全的數據,而且宏觀上是大數據,微觀上對問題來講又是小樣本。所以對于深度學習,我們內行人離不開他但也不要起哄。在傳統(tǒng)的體系結構下,機器學習和深度學習是什么?這個對話不在一個頻道上。
有監(jiān)督、無監(jiān)督、半監(jiān)督和強化的算法怎么用要看是什么情況,我們自己做這個內行的人,千萬不要說你那個能干什么,這個能干什么,用的場合和問題不一樣,你可能在不同的場合,不同的任務,不同的問題需要用不同的方法去解決。我現在就害怕大家陷入一個坑,我們再回到神經網絡,最早1990年我出的書里神經網絡的四個范式,反饋網絡就是現在大家通常講的網絡,或者是遞歸反饋的。還有自組織網,以及沒有體現的完全無監(jiān)督的學習。
大數據就講一句,我們所有處理的問題、深度學習的方法,機器學習的方法都一定是面向大數據的問題,但是單個問題拿到的又只是小樣本,一定得記住這一點,這個意義上來講,是大數據小樣本再加學習,這件事情上我們一定要把它結合起來做。面對大數據,面對海量數據,面對結構和非結構的數據大部分深度神經網絡是不可解釋的、是黑箱的。大數據處理的很多方法,同樣是不可解釋的,因為我們現在處理這些數據時只講大、只講海,但處理數據其實也是物理過程,應當像人的認知過程那樣是有生物意義和物理意義的,這個層面上來講,你把那兩個意義丟掉了,拿一堆數據就玩、算法遞歸迭代,最后什么都不解釋,人的經驗、規(guī)則哪里去了呢?你沒有用上。我經常講的,過馬路的時候,對面有一個大美女,打了一個手機,還接了一個領導的電話,大車也穿過來了,旁邊還有一個小偷跟著你,你怎么處理?肯定保命要緊,先過馬路再說,人會分輕重緩急,而且是協(xié)同去做。回過頭來,我認為最初研究神經網絡的幾個人是要提的。通過學習的概念,通過學習感知的思想,通過學習優(yōu)化的思想,這個是神經網絡的精髓。然后在這個基礎上再去做。中間需要把任務完成得好,就要優(yōu)化去做這件事情。所以說一定是學習、優(yōu)化、協(xié)同、控制和數據結合的。
我的印象應該是在1988年Lippman的文章,所有神經網絡做模式識別邊界的分析,邊界是那個時候劃出來的。大家第一次知道,非線性的問題變得如此簡單。那個時候才出來三層神經網絡,但三層神經網絡可以逼近任意函數,是理論上證明的,不是今天才做的。之后結構的設計、算法的構造,使得方法變得更加有效、實用,離問題更近。以前是數據不夠、訓練方法欠缺,同時人們的要求也沒有那么迫切,硬件的運行也沒有那么好,而現在這四個條件,大概相對30年前已經有了巨大的改善,我第一次看神經網絡大概是83年,那個時候在成都聽加州大學伯克利分校的蔡少棠講了學一個月,講的非線性和混沌,那時因為客觀條件所限,研究發(fā)展不像現在那么迅速,而大數據的出現是應景了,這兩者是契合了。這個意義上來講,在具備了有利客觀條件的今天,我們要把問題研究得更透徹,你怎么去進行感知、判斷、決策,哪一個是決策者、哪一個是訓練層、哪一個是推理層、哪一個是優(yōu)化層得搞清楚了。非線性的嵌套是有結構的。從簡單的特征,到特征的表征,到特征的學習,特征的表征與學習,現在演變成特征的表征學習,神經網絡的演化進程是有脈絡、有邏輯的。
關于神經網絡和專家系統(tǒng),專家系統(tǒng)三個要點要記?。褐R的表示,知識的學習,知識的推理。早期推理知識的辦法不多、表征的框架不多、手段不多。神經網絡給了大家思想和方法,我希望大家記住對神經網絡真正有貢獻的是這些人,43年Hebb規(guī)則和MP模型。1962年Widrow和他的學生提出了LMS。第一臺PC機是他發(fā)明的,其算法奠定了自適應信號處理和自適應控制技術基礎。這個是俄羅斯籍的斯坦福的教授,這個人記住,其貌不揚,我覺得大家都應該記住他Werbos,BP算法是他提出來的,1974年在哈佛大學拿博士學位的時候,就發(fā)表了一篇論文就沒有論文了,但是博士學位是拿到了,真正的BP算法是他提出來的,使三層神經網絡可學習。整個大概十幾年的時間很紅火,而且是自己也做過世界神經網絡學會的主席和先驅,加州工學院Hopfield,三篇文章奠定了他的基礎。另外一個記住一個C.Mead,美國的三院院士,世界第一塊神經網絡的芯片是他做的,這個人在集成電路一直是明星,大家一定要記住這件事情,神經網絡不僅是今天。這個是芬蘭皇家科學院的院長T.Kohonen教授,他來過很多回,提出了自組織特征映射網。徑向基神經網絡出自Billing手,因為他是用基函數來做這件事情,做控制的人全部是用的,很高效。支撐向量機,這些都是神經網絡模型,而且都是學習機,大家不要認為是完全跟神經網絡沒有關系,只是說那一陣跟神經網絡“劃清界限”。淺層到深層的學習,大家要明白,本質性上改變的是什么?你說前面的網絡淺,那在哪里深呢?規(guī)模深、特征深、還是機理深?還是怎么做的呢?我說理解深度的時候,我們要去做深在什么地方,對數據的匹配在哪些上面是做了本質性的突破和改變,這件事情上我們一定要去做的。
我還是把他們列在一起,你記住所謂深度大咖的時候,別忘了上面這些人,這些人是他們的祖師爺。
中國神經網絡的發(fā)展也是有一個過程的。
我們一直不說,但是路一直在走。簡單的數據到了具體的對象,到了圖像,從小波變換到了小波網絡,從伸縮平移到了方向,到了圖像旋轉變換。所以說包括從地上到了天上,到了空中機載的。對象在變,需求在變,神經網絡也好,機器學習也好,方法也在不斷的往前走。所以我們是把這個結合起來在走。剛才為什么說我希望講一下這些道理,因為進化計算的第一篇文章,不叫人工智能,是優(yōu)化和學習在走,包括免疫的學習優(yōu)化,包括我們用到多目標上面去做,包括做協(xié)同的、量子的,而且用到了真正目標的識別上,我們都做了。這個過程我們回過頭來說,對于人工智能人才的培養(yǎng),為什么我們心里面不太慌,經過了十四五年的實踐和培養(yǎng),反正我們也出了這些書,不敢說水平有多高,但是研究生,本科的教材是有參考的,我自己寫的,我也在不斷的更新。我們幾十本書,應了人才培養(yǎng)教材之需,去年就包括做量子的,光學的,紅外的,包括到認知的,稀疏的,一直到高分辨遙感,老先生一定要改成雷達圖像,我們一路走過來,今年完成的是量子計算,計算智能,簡明人工智能等七八本,大概也有好幾十萬字。計算智能還有模式識別,反正都是在50、60萬字以上,還有自然計算的前沿,就是相當于深度學習的前沿,還有一個大數據智能挖掘的。
從第一代到第二代,一直到現在的第三代神經網絡,變化在什么地方,本質在什么地方,做這件事情,我們一定要去。第一個是卷積神經網絡,我理解的跟別人理解的卷積神經網絡不一樣,很簡單就是內積。然后在電路里面,在學習信息里面,很簡單,怎么走?一卷不就出來了嘛,卷積的概念大家知道是從數字信號處理出來的概念,物理概念和描述很清楚。其實最開始的時候,卷積也不火,不像現在牛哄哄的。
遞歸神經網絡,一定有聯想記憶的。其實模式識別,以前叫做聯想記憶,聯想記憶學習優(yōu)化。這四件事情,要是在神經網絡里實現了,你的功能就比單純的卷積去做要強大得多。所以遞歸同樣是可以做這件事情。
深度置信網提供的思想一定要記住,我能夠通過概率的判斷做某件事情。我通過概率的判斷和生成,能夠使這個神經網絡的構造性設計更加合理和有效。這是置信網的貢獻。其實現在更熱的是貝葉斯網絡學習。貝葉斯的分布。
分布完了以后,參數少。接下來就是可學習,這個參數我們可以學出來,學習關鍵的參數,那么這個分布就找到了,或者優(yōu)化的分布就找到了。實際上就是做了一個分布的估計。貝葉斯的描述、表征,估計和深度結合起來,這是貝葉斯網絡火起來最重要的原因。很自然,大家好不容易抓住一個貝葉斯分布,而且可以去做。深度可以給你學,何樂而不為,大家一定要找到一個結合點!
才能做這件事情。
主辦單位:中國電力發(fā)展促進會 網站運營:北京中電創(chuàng)智科技有限公司 國網信通億力科技有限責任公司 銷售熱線:400-007-1585
項目合作:400-007-1585 投稿:63413737 傳真:010-58689040 投稿郵箱:yaoguisheng@chinapower.com.cn
《 中華人民共和國電信與信息服務業(yè)務經營許可證 》編號:京ICP證140522號 京ICP備14013100號 京公安備11010602010147號
2018年11月18日下午,西安電子科技大學計算機科學與技術學部主任、人工智能學院焦李成教授在成都參加了由中國人工智能學會主辦的人工智能大講堂并做特邀報告,焦李成教授在報告中回顧了深度神經網絡發(fā)展歷程,闡述了復雜影像的智能解譯與識別問題,并激勵大家在人工智能領域勇攀學術高峰,以下為報告記錄。
焦李成:很高興有這個機會跟大家一起交流。今天的演講是命題作文,人工智能學會今年開始做人工智能大講堂,學會理事會將其作為重要的品牌在做,以前是到各個學校去做,現在拿到高峰論壇來做是第一次。上午的也是張院長的命題作文,一定要談人工智能,人才的培養(yǎng),我覺得很高興有這個機會,跟大家一起交流。
一個名字,深度神經網絡,兩句話大家記住了,李院士講的是深度學習不是萬能的,但是離開深度學習是萬萬不能的。這件事情作為我們內行人來講,今年講的也比較多,內行人也很自然能理解,給我們行業(yè)內講是不講這個事的,但是給一般的聽眾講,包括給政府機關、百千萬人才、長江杰青大講堂都講了這句話,這句話的意思是只要是能夠結構化的、只要是能夠有規(guī)則的、只要你是有數據的,那么這個問題,你不要企圖和人工智能去拼。圍棋就是這樣,象棋也是這樣,它們是封閉、完備的,在這些問題上你算不過人工智能,沒有它算得快,同時這些規(guī)則在短時間內的實施性,人做不到,人有感情,機器沒有感情,它下錯一步,你說它怎么這么臭,它并不正視你,而是繼續(xù)下,人工智能一秒鐘算三千步,三萬步,而人看三十步已經很偉大了。
這兩個視頻,一個是我學生做的,西安英卓未來公寓,另外一個是曠視做的。英卓未來公寓從房門開啟一直到最后的離開都是通過智能完成的。當然你見不著人,但是人通過智能給了你最好的服務。所以他們開了第四家酒店,讓大眾能夠體驗到智能家居的生活、享受到智能的品質。曠視在做人臉識別這件事情,最早做這個事是商湯的Mark,我的學生、也是湯曉鷗老師的第一個學生,他做了20年的人臉識別,20年的堅守厚積薄發(fā),去年的7月份到9月份,三個月內機場、高鐵、銀行全都用了他的技術。
大家都知道,這是波士頓動力狗。大家看,它的三級跳,人都不一定能夠做得到,就是這么靈活,整個機器人經過這么幾代以后,智能的行為、協(xié)調、所有的動作做的很棒,我覺得對我們人類是一種挑戰(zhàn)。在反恐、排爆、探險,救險這些領域當中,這些技術是非常有用且必要的。我的學生做了一款為漸凍人服務的眼球控制智能出行及家居生活的輪椅系統(tǒng),做了三代,正好有一位漸凍人“泰山英雄”,他的腿動不了,手也不能完全控制,但他靠著手登上了泰山、華山,所以公眾叫他“泰山英雄”,有媒體聯系到了我們,那么我們將贈送一臺智能輪椅給他,人工智能確實能夠改變我們人在某些情況下的不方便,我個人感覺還是一件非常有意義的事。這套輪椅系統(tǒng)能讓漸凍人及其他肌肉或骨骼受損的人不僅在室外能自己走,跟剛才說的智能公寓結合起來,通過眼睛的控制,能完成從開門到開關燈、開關窗簾、洗澡間等所有的智能生活起居。在杭州的一個比賽中,這套系統(tǒng)也很轟動,得到了大家的認可,拿了一個獎項。當然回來了我們認識了“泰山英雄”,能讓他有了適合他的輪椅、能切切實實的幫到漸凍人,這是更重要的,我和我的學生都感到非常高興。
大家可能看不見,這是星載的,就是照相機和雷達裝在衛(wèi)星上然后拍攝地面的視頻,船在動、高速上面的車在動、然后機場的飛機在起飛,這是衛(wèi)星的視頻。衛(wèi)星視頻數據量非常大也非常高維,我們同時做到了在衛(wèi)星視頻數據量級上的艦船、飛機、車輛的監(jiān)測、跟蹤和分類,就是你傳送多少、運動速度多少、未知的信息全部能夠同時的實時識別出來。
將來首先失業(yè)的有可能是播音員,為什么呢?現在的語音合成技術完全可以和董卿一樣、和李梓萌一樣,聽上去有感情,但是聲音是合成的。(視頻)這樣的話就可以全天候的進行播音。剛才舉的波士頓動力、漸凍人的輪椅和智能工藝的結合、播音員的語音合成等例子都是活生生正在發(fā)生的。所以教育部也很重視人工智能,教育部各個專家組+咨詢組31個人,整個分布在十幾個高校。
其實我國的人工智能發(fā)展計劃歸結為三步走,四大任務,五大智能技術方向。三步走我們怎么跟、四大任務我們怎么去完成,還有五大方向我們在科研人才的培養(yǎng)上怎樣去進行匹配,這是我們需要考慮的問題。我認為可以從四個部分考慮,一是基礎理論,二是共性技術,第三是基礎支撐平臺,第四是智能化基礎設施,智能基礎設施建設怎么和物聯網和云計算的基礎設施的建設相互協(xié)調起來,是我們需要思考的。
工信部的《新一代人工智能產業(yè)發(fā)展三年行動計劃》大家應該去看,目標很清楚,產品要出來,核心技術要突破,實際上是為整個智能社會和2025智能制造做準備,這件事大家一定要去做,要思考互聯網、大數據、人工智能三個支撐體系和基礎設施怎么樣相互協(xié)同,相互協(xié)調,共同促進,你跟不上,你一定會落后。人工智能對全社會來講是共性的技術、普適的技術,對教育來講同樣是共性的、普適的課程,這一點我們現在都無法去想象,人工智能對于教育或者是智慧教育帶來的挑戰(zhàn),我希望大家一定要去關注。
高校的行動計劃,今年教育部連發(fā)五文,時間規(guī)劃涉及到2020年、2025年、2030年,內容涉及創(chuàng)新體系,人才培養(yǎng)體系,成果轉化和示范應用的基地,它的目標是想干什么?對于高校教師,寫寫論文,帶帶學生已經不夠了。人工智能的方向有什么呢?李院士講了,這是經過多少次爭論后列出來的主要方向,6到8個,要根據各個不同的學校、不同的單位,不同的特色去建相應的方向,一定要有特色而不能同質化。
圍繞基礎理論的研究基金委是有布局的,也經過了專家組充分的論證。人工智能的理論研究從56年到現在,一直在爭論也一直在斗爭,但不管你是三起三落還是八起八落,搞學術的人都得搞。別人不做的時候我們在做,別人不待見的時候我們也在做,高潮來的時候,該怎么樣還怎么樣,做學術的人就要初心不改做自己的事。所以人工智能從誕生之初到現在,從需要模擬人的基本智能,推理、知識、規(guī)劃、學習、交流、感知到移動和操作物體的能力,始終在延伸,始終在往前走,水平在不斷的去提高。人工智能不是人的智能,而是希望能夠像人那樣去思考,像自然演化那樣去學習和進化。另外,進化計算和自然計算結合起來有一些挑戰(zhàn)和問題,我覺得這兩個之間的概括需要有人去做,我已經講過幾回,今天先不講,未來希望有機會也跟大家聊一聊進化計算和自然計算的結合。
智能的兩條道,學習和感知、優(yōu)化和識別的能力什么時候都需要、什么時候都是智能的主體,怎么樣能夠把這兩個結合起來?我認為這個時代說對了一部分,這部分就是可以用梯度算法去做,另外一部分是,進化計算在結構優(yōu)化上一定是比BP強的,梯度從哪兒求這件事情我覺得還是值得思考,無法獲得梯度怎么辦?人工智能從開始的符號、聯結、行為、貝葉斯到類推,人怎么認知、自然怎么學習演化、人是怎么想的、怎么看的、怎么聽的、怎么說的、怎么走的、怎么動的……神經網絡都做到了嗎?我想說的是,從專家系統(tǒng)到中間基于特征的,再到聲音、語言,文字、圖像以及現在的感知行動結合起來,這件事上是值得我們去走的。
我個人認為人工智能四大挑戰(zhàn),無教師的學習何時能來?無監(jiān)督的學習深度何時能做?機器人能夠像人一樣去感知和理解這個世界嗎?機器的情感在哪里?前面說的這些都是網絡范式去做的,而人是在環(huán)境、場景中、運動中去感知,首先是感知這個世界,然后理解這個世界,之后去指揮自己的行為,最后再做一系列的事情。所以最終人工智能要對環(huán)境、對場景、對情感去感知和理解,形成動力系統(tǒng)。更進一步,人工智能的發(fā)展最重要的還是人,這個時候帶來的倫理、法律、道德、宗教等等深刻的社會問題我們怎么去思考它、怎么去理解它以及怎么去面對它。
美國白宮成立了人工智能研究中心,這是絕無僅有的,MIT結合AI成立新的計算機學院。這件事情我覺得對我們整個改革學校的教育,改革下一代的教育都有影響,我們要思考這意味著什么。人工智能改造了計算機的教育,斯坦福始終在創(chuàng)新引領的前沿,我們要思考他們做什么事情,我們要做以人為中心的人工智能的教育和改革。這件事情上,我們教育部的官員和教育工作者都要去好好學習,更要去看別人怎么去做。
所以說到對人工智能的戰(zhàn)略投資,包括對社會的變革、長期的革命,MIT這件事情拿了10億美金,CMU創(chuàng)辦了世界上第一個人工智能本科專業(yè),我知道在紐約辦了一個藝術學院與人工智能的結合,他們用6.4億美金,專門辦了一個藝術學院。我們不能只知道人家做了這件事,更要看這件事的內容是什么,要眼光面向全世界,要看清楚怎么去做,我們要去引領。我就覺得這三件事情都是今年的,都是剛剛發(fā)生的事,所以這件事情上,我覺得美國還是清醒的,站在這個制高點,不能說我們人工智能計劃已經很完美。當然國內的布局也很快,這件事情應該說叫做“順勢而為,趁勢而上”,但我們千萬不要說吃了一碗面條,我們腦子就很聰明,好像不是那么回事,要懂得做全局優(yōu)化。
我想再強調一下,人工智能、機器學習和深度學習我們內行人應該要搞清楚。現在當然說沒有比深度學習更有效的機器學習的辦法,人工智能當然要去做事,肯定得靠深度學習,因為你面對的是黑箱、不完全的數據,而且宏觀上是大數據,微觀上對問題來講又是小樣本。所以對于深度學習,我們內行人離不開他但也不要起哄。在傳統(tǒng)的體系結構下,機器學習和深度學習是什么?這個對話不在一個頻道上。
有監(jiān)督、無監(jiān)督、半監(jiān)督和強化的算法怎么用要看是什么情況,我們自己做這個內行的人,千萬不要說你那個能干什么,這個能干什么,用的場合和問題不一樣,你可能在不同的場合,不同的任務,不同的問題需要用不同的方法去解決。我現在就害怕大家陷入一個坑,我們再回到神經網絡,最早1990年我出的書里神經網絡的四個范式,反饋網絡就是現在大家通常講的網絡,或者是遞歸反饋的。還有自組織網,以及沒有體現的完全無監(jiān)督的學習。
大數據就講一句,我們所有處理的問題、深度學習的方法,機器學習的方法都一定是面向大數據的問題,但是單個問題拿到的又只是小樣本,一定得記住這一點,這個意義上來講,是大數據小樣本再加學習,這件事情上我們一定要把它結合起來做。面對大數據,面對海量數據,面對結構和非結構的數據大部分深度神經網絡是不可解釋的、是黑箱的。大數據處理的很多方法,同樣是不可解釋的,因為我們現在處理這些數據時只講大、只講海,但處理數據其實也是物理過程,應當像人的認知過程那樣是有生物意義和物理意義的,這個層面上來講,你把那兩個意義丟掉了,拿一堆數據就玩、算法遞歸迭代,最后什么都不解釋,人的經驗、規(guī)則哪里去了呢?你沒有用上。我經常講的,過馬路的時候,對面有一個大美女,打了一個手機,還接了一個領導的電話,大車也穿過來了,旁邊還有一個小偷跟著你,你怎么處理?肯定保命要緊,先過馬路再說,人會分輕重緩急,而且是協(xié)同去做?;剡^頭來,我認為最初研究神經網絡的幾個人是要提的。通過學習的概念,通過學習感知的思想,通過學習優(yōu)化的思想,這個是神經網絡的精髓。然后在這個基礎上再去做。中間需要把任務完成得好,就要優(yōu)化去做這件事情。所以說一定是學習、優(yōu)化、協(xié)同、控制和數據結合的。
我的印象應該是在1988年Lippman的文章,所有神經網絡做模式識別邊界的分析,邊界是那個時候劃出來的。大家第一次知道,非線性的問題變得如此簡單。那個時候才出來三層神經網絡,但三層神經網絡可以逼近任意函數,是理論上證明的,不是今天才做的。之后結構的設計、算法的構造,使得方法變得更加有效、實用,離問題更近。以前是數據不夠、訓練方法欠缺,同時人們的要求也沒有那么迫切,硬件的運行也沒有那么好,而現在這四個條件,大概相對30年前已經有了巨大的改善,我第一次看神經網絡大概是83年,那個時候在成都聽加州大學伯克利分校的蔡少棠講了學一個月,講的非線性和混沌,那時因為客觀條件所限,研究發(fā)展不像現在那么迅速,而大數據的出現是應景了,這兩者是契合了。這個意義上來講,在具備了有利客觀條件的今天,我們要把問題研究得更透徹,你怎么去進行感知、判斷、決策,哪一個是決策者、哪一個是訓練層、哪一個是推理層、哪一個是優(yōu)化層得搞清楚了。非線性的嵌套是有結構的。從簡單的特征,到特征的表征,到特征的學習,特征的表征與學習,現在演變成特征的表征學習,神經網絡的演化進程是有脈絡、有邏輯的。
關于神經網絡和專家系統(tǒng),專家系統(tǒng)三個要點要記?。褐R的表示,知識的學習,知識的推理。早期推理知識的辦法不多、表征的框架不多、手段不多。神經網絡給了大家思想和方法,我希望大家記住對神經網絡真正有貢獻的是這些人,43年Hebb規(guī)則和MP模型。1962年Widrow和他的學生提出了LMS。第一臺PC機是他發(fā)明的,其算法奠定了自適應信號處理和自適應控制技術基礎。這個是俄羅斯籍的斯坦福的教授,這個人記住,其貌不揚,我覺得大家都應該記住他Werbos,BP算法是他提出來的,1974年在哈佛大學拿博士學位的時候,就發(fā)表了一篇論文就沒有論文了,但是博士學位是拿到了,真正的BP算法是他提出來的,使三層神經網絡可學習。整個大概十幾年的時間很紅火,而且是自己也做過世界神經網絡學會的主席和先驅,加州工學院Hopfield,三篇文章奠定了他的基礎。另外一個記住一個C.Mead,美國的三院院士,世界第一塊神經網絡的芯片是他做的,這個人在集成電路一直是明星,大家一定要記住這件事情,神經網絡不僅是今天。這個是芬蘭皇家科學院的院長T.Kohonen教授,他來過很多回,提出了自組織特征映射網。徑向基神經網絡出自Billing手,因為他是用基函數來做這件事情,做控制的人全部是用的,很高效。支撐向量機,這些都是神經網絡模型,而且都是學習機,大家不要認為是完全跟神經網絡沒有關系,只是說那一陣跟神經網絡“劃清界限”。淺層到深層的學習,大家要明白,本質性上改變的是什么?你說前面的網絡淺,那在哪里深呢?規(guī)模深、特征深、還是機理深?還是怎么做的呢?我說理解深度的時候,我們要去做深在什么地方,對數據的匹配在哪些上面是做了本質性的突破和改變,這件事情上我們一定要去做的。
我還是把他們列在一起,你記住所謂深度大咖的時候,別忘了上面這些人,這些人是他們的祖師爺。
中國神經網絡的發(fā)展也是有一個過程的。
我們一直不說,但是路一直在走。簡單的數據到了具體的對象,到了圖像,從小波變換到了小波網絡,從伸縮平移到了方向,到了圖像旋轉變換。所以說包括從地上到了天上,到了空中機載的。對象在變,需求在變,神經網絡也好,機器學習也好,方法也在不斷的往前走。所以我們是把這個結合起來在走。剛才為什么說我希望講一下這些道理,因為進化計算的第一篇文章,不叫人工智能,是優(yōu)化和學習在走,包括免疫的學習優(yōu)化,包括我們用到多目標上面去做,包括做協(xié)同的、量子的,而且用到了真正目標的識別上,我們都做了。這個過程我們回過頭來說,對于人工智能人才的培養(yǎng),為什么我們心里面不太慌,經過了十四五年的實踐和培養(yǎng),反正我們也出了這些書,不敢說水平有多高,但是研究生,本科的教材是有參考的,我自己寫的,我也在不斷的更新。我們幾十本書,應了人才培養(yǎng)教材之需,去年就包括做量子的,光學的,紅外的,包括到認知的,稀疏的,一直到高分辨遙感,老先生一定要改成雷達圖像,我們一路走過來,今年完成的是量子計算,計算智能,簡明人工智能等七八本,大概也有好幾十萬字。計算智能還有模式識別,反正都是在50、60萬字以上,還有自然計算的前沿,就是相當于深度學習的前沿,還有一個大數據智能挖掘的。
從第一代到第二代,一直到現在的第三代神經網絡,變化在什么地方,本質在什么地方,做這件事情,我們一定要去。第一個是卷積神經網絡,我理解的跟別人理解的卷積神經網絡不一樣,很簡單就是內積。然后在電路里面,在學習信息里面,很簡單,怎么走?一卷不就出來了嘛,卷積的概念大家知道是從數字信號處理出來的概念,物理概念和描述很清楚。其實最開始的時候,卷積也不火,不像現在牛哄哄的。
遞歸神經網絡,一定有聯想記憶的。其實模式識別,以前叫做聯想記憶,聯想記憶學習優(yōu)化。這四件事情,要是在神經網絡里實現了,你的功能就比單純的卷積去做要強大得多。所以遞歸同樣是可以做這件事情。
深度置信網提供的思想一定要記住,我能夠通過概率的判斷做某件事情。我通過概率的判斷和生成,能夠使這個神經網絡的構造性設計更加合理和有效。這是置信網的貢獻。其實現在更熱的是貝葉斯網絡學習。貝葉斯的分布。
分布完了以后,參數少。接下來就是可學習,這個參數我們可以學出來,學習關鍵的參數,那么這個分布就找到了,或者優(yōu)化的分布就找到了。實際上就是做了一個分布的估計。貝葉斯的描述、表征,估計和深度結合起來,這是貝葉斯網絡火起來最重要的原因。很自然,大家好不容易抓住一個貝葉斯分布,而且可以去做。深度可以給你學,何樂而不為,大家一定要找到一個結合點!
才能做這件事情。