陳一昕(1979年6月16日)是一位美國華人計算機科學家、學者和技術管理者。他是聖路易斯華盛頓大學計算機科學與工程系的教授。[1]

陳一昕
出生 (1979-06-16) 1979年6月16日45歲)
 中國江蘇揚州
國籍 美國
職業計算機科學家
榮譽

研究興趣是計算機科學,特別關注機器學習深度學習數據挖掘 、金融人工智能、和計算生物醫學領域[2]。他合著了《可解釋人工智能導論》一書。

由於在深度學習系統的貢獻而當選 電氣電子工程師學會(IEEE)會士。[3]自 2021 年起,他還是 ACM Transactions on Computing for Healthcare 的副主編。他還擔任 IEEE 2021 年國際大數據會議的主席。[4]

生平

1995年被中國科學技術大學少年班錄取並於1999年獲得計算機科學學士學位,並於 2001 年在伊利諾伊大學香檳分校獲得計算機科學碩士學位。隨後他繼續攻讀博士學位。 在 Benjamin Wah [5]的指導下,於伊利諾伊大學香檳分校獲得計算機科學博士學位,並於 2005 年完成。[6]

職業生涯

2005年在 聖路易斯華盛頓大學 計算機科學與 工程 系擔任 助理教授,開始了他的學術生涯。2010 年,他被任命為聖路易斯華盛頓大學計算機科學與工程系副教授。 2016 年起他是聖路易斯華盛頓大學計算機科學與工程系的教授。 [7]他是華盛頓大學人類與人工智能協作學習和操作中心 (HALO) 的主任。 [8]

研究

曾經發表大量學術著作。他的研究興趣集中在機器學習、人工智能、優化算法等領域。[2]

資源優化的機器學習

在深度神經網絡 (DNN) 的緊湊性和適用性方面進行了重要研究。 他提出了輕量級 DNN 的概念和架構。 他的團隊發明了 HashedNets 架構,該架構使用權重共享方案將超大規模 DNN 壓縮成更小的網絡。 [9]

還開發了一種用於卷積神經網絡 (CNN) 的壓縮框架。 他的實驗室發明了一種頻率敏感壓縮技術,可以更好地保留更重要的模型參數,從而獲得最先進的壓縮結果。[10]

圖和時間序列的深度學習

對圖神經網絡 (GNN) 做出了重大貢獻。 他和學生提出了最早的圖卷積技術之一DGCNN,可以從任意圖中學習有意義的張量表示,並展示了它與 Weisfeiler-Lehman 算法的深層聯繫。[11]他們的SEAL算法率先將 GNN 應用於連結預測和矩陣補全,並取得了世界紀錄的成績。 [12]

對於時間序列分類,陳一昕團隊提出了使用多尺度卷積神經網絡,也稱為 MCNN,理由是其計算效率高。 他說明 MCNN 通過利用 GPU 計算以不同的頻率和尺度提取特徵,這與其他只能在單一時間尺度上收回特徵的框架相反。[13]

獎勵和榮譽

  • 2006 - 能源部青年研究獎
  • 2007 - 微軟青年教授獎[14]
  • 2010 - AAAI人工智能大會最佳論文獎[15]
  • 2022 - 電氣電子工程師學會(IEEE)會士[16]
  • 2023 - 亞太人工智能學會(AAIA)會士[17]

參考書目

圖書

重要文章

  • Chen, Y., & Tu, L. (2007, August). Density-based clustering for real-time stream data. In Proceedings of the 13th ACM SIGKDD international conference on Knowledge discovery and data mining (pp. 133-142).
  • Chen, W., Wilson, J., Tyree, S., Weinberger, K., & Chen, Y. (2015, June). Compressing neural networks with the hashing trick. In International conference on machine learning (pp. 2285-2294). PMLR.
  • Cui, Z., Chen, W., & Chen, Y. (2016). Multi-scale convolutional neural networks for time series classification. arXiv preprint arXiv:1603.06995.
  • Zhang, M., Cui, Z., Neumann, M., & Chen, Y. (2018, April). An end-to-end deep learning architecture for graph classification. In Proceedings of the AAAI conference on artificial intelligence (Vol. 32, No. 1).
  • Zhang, M., & Chen, Y. (2018). Link prediction based on graph neural networks. Advances in neural information processing systems, 31.

參考來源

  1. ^ Yixin Chen - Washington University in St.Louis. [2023-02-13]. (原始內容存檔於2022-12-03). 
  2. ^ 2.0 2.1 Yixin Chen - Google Scholar Profile. [2023-02-13]. (原始內容存檔於2023-01-25). 
  3. ^ Chen elected IEEE Fellow - McKelvey School of Engineering. [2023-02-13]. (原始內容存檔於2023-06-09). 
  4. ^ 2021 IEEE Conference on Big Data - IEEE. [2023-02-13]. (原始內容存檔於2023-03-03). 
  5. ^ Benjamin Wah - Wikipedia. [2023-02-13]. (原始內容存檔於2023-04-13). 
  6. ^ McKelvey School of Engineering - Washington University in St.Luois. [2023-02-13]. (原始內容存檔於2023-08-28). 
  7. ^ Yixin Chen - Washington University in St. Louis. [2023-02-13]. (原始內容存檔於2022-12-03). 
  8. ^ Faculty - Center for Collaborative Human-AI Learning and Operation. [2023-02-13]. (原始內容存檔於2023-01-25). 
  9. ^ Compressing neural networks with the hashing trick - ACM Digital Library. [2023-02-13]. (原始內容存檔於2023-01-25). 
  10. ^ Compressing Convolutional Neural Networks in the Frequency Domain - ACM Digital Library. [2023-02-13]. (原始內容存檔於2023-06-26). 
  11. ^ An end-to-end deep learning architecture for graph classification - ACM Digital Library. [2023-02-13]. (原始內容存檔於2023-01-25). 
  12. ^ Link prediction based on graph neural networks - ACM Digital Library. [2023-02-13]. (原始內容存檔於2023-01-25). 
  13. ^ Multi-Scale Convolutional Neural Networks for Time Series Classification - Cornell University. [2023-02-13]. (原始內容存檔於2023-04-04). 
  14. ^ Chen receives Microsoft fellowship. [2023-02-13]. (原始內容存檔於2023-06-02). 
  15. ^ AAAI Conference Paper Awards and Recognition. [2023-02-13]. (原始內容存檔於2023-01-31). 
  16. ^ Chen elected IEEE Fellow - McKelvey School of Engineering. [2023-02-13]. (原始內容存檔於2023-06-09). "Chen elected IEEE Fellow - McKelvey School of Engineering"頁面存檔備份,存於互聯網檔案館).
  17. ^ {{url=https://aaia-ai.org/fellows?words=Yixin%20Chen%7Ctitle=Asia Pacific Artificial Intelligence Association}}