紀榮嶸教授:論視覺搜索與識別系統(tǒng)緊湊性
近日,一段9秒的監(jiān)控視頻刷爆了朋友圈。與以往監(jiān)控不同的是,這段監(jiān)控視頻的畫面準確識別出機動車和非機動車的種類,以及行人的年齡、性別、穿著等,視頻中畫面信息了然于目。據了解,該視頻是我國最新研制的實時行人監(jiān)測識別系統(tǒng),是“中國天網”工程的重要組成部分。利用計算機視覺技術,判斷圖像或者視頻序列中是否存在行人,并給予精確定位。將視覺定位、視覺識別等技術與人工智能技術相結合,在智能設備監(jiān)控、人體行為分析、智能交通等多個方面得到了廣泛應用。
紀榮嶸(廈門大學教授/媒體分析與計算實驗室主任)
11月13至14日,由OFweek中國高科技行業(yè)門戶主辦,OFweek人工智能網承辦的“OFweek2017中國人工智能大會”在深圳舉辦。來自廈門大學的紀榮嶸教授在《視覺搜索與識別系統(tǒng)緊湊性》主題演講上,結合實際案例,分享了廈門大學媒體分析與計算研究組近兩年來,在面向視覺應用的視覺特征緊湊表示以及深度網絡壓縮中所做的一些工作與成果。
在大會上,紀榮嶸教授首先介紹了其2015至2017年在ICCV、AAAI、IJCAI和CVPR上發(fā)表的一系列排序敏感特征哈希算法。這些算法旨在通過引入大規(guī)模無監(jiān)督排序信息,學習排序敏感的哈希碼,以保持原始高維特征空間中的檢索信息?梢詫⒁粋50~60M大小的文件直接壓縮至10M左右,這也是目前市面上最高效的壓縮算法。
隨后,紀榮嶸教授主要圍繞以下兩個方面話題進行了具體講解,一是面向大規(guī)模視覺搜索的特征哈希,主要從視覺數(shù)據近年來的爆炸性增長,大規(guī)模視覺搜索技術的緊迫需求以及面向大規(guī)模視覺搜索的特征哈希原理等方面進行了概念介紹;二是提出了深度神經網絡壓縮,介紹了深度神經網絡在視覺中的應用,以及如何壓縮網絡模型等問題。
紀榮嶸教授還以QQ音樂上了哼唱搜索為例,通過哈希算法,讓哼唱搜索更加靈敏,能夠直接根據用戶簡單的音節(jié)準確的搜索到相關的音樂。并且可以通過深度神經網絡壓縮,讓這個系統(tǒng)依然維持在小體積之上,使得整個軟件不會過于龐大。
最后,紀榮嶸教授為現(xiàn)場觀眾展示了他們團隊在該領域的相關工作進展以及對未來工作的展望。
更多詳細內容,敬請關注OFweek人工智能網后續(xù)專題報道!

請輸入評論內容...
請輸入評論/評論長度6~500個字