講座時間:2024年3月20日,14:30
講座地點:南實驗樓203會議室
舉辦單位:Betvictor中文版
主 講 人:鄭豪 副教授
講座内容:
2017年12月, Google Brain和Google Research的Vaswani等撰寫的具有重要影響的Attention Is All You Need一文發表,标志着Transformer的誕生。當前Transformer已成為大語言模型(LLM)中的核心組成部分,并衍生生出一系列優秀成果, 如ChatGPT等。本次報告簡單介紹LLM的發展曆史,相關技術比如Transformer、遷移學習、強化學習的相關概念,重點交流 Transformer 中的輸入、輸出,編碼器、解碼器,注意力機制,掩碼等内容,并通過代碼實例幫助理解相應的細節。
主講人簡介:
鄭豪,理學博士,畢業于北京交通大學。現任Betvictor中文版Betvictor中文版副教授。受國家留學基金委資助作為訪問學者到日本東北大學訪學一年,并在日本築波大學、日本長崎工業大學交流學習。主要研究方向組合設計與編碼理論,主持完成國家自然科學基金青年基金一項,主持國家自然科學基金面上子課題一項。發表SCI論文8篇,中文論文2篇。
歡迎廣大師生前來交流!