首頁

首頁

大語言模型背景及相關技術交流(第二講)


講座時間:2024年4月3日,13:30

講座地點:第一教學樓 113教室

舉辦單位:Betvictor中文版

主 講 人:鄭豪 副教授

講座内容:

201712, Google Brain Google Research Vaswani 等撰寫的具有重要影響的Attention Is All You Need 一文發表,标志着Transformer 的誕生。上一講簡單介紹LLM的發展曆史,相關技術比如Transformer、遷移學習、強化學習的相關概念,重點交流 Transformer 中的輸入、輸出、編碼器、解碼器,注意力機制、掩碼等内容。本次講座主要介紹pythonpytorch基本使用,并分析Transformer相關代碼實例幫助理解 Transformer相應的細節。

主講人簡介:

鄭豪,理學博士,畢業于北京交通大學。現任Betvictor中文版Betvictor中文版副教授。受國家留學基金委資助作為訪問學者到日本東北大學訪學一年,并在日本築波大學、日本長崎工業大學交流學習。主要研究方向組合設計與編碼理論,主持完成國家自然科學基金青年基金一項,主持國家自然科學基金面上子課題一項。發表SCI論文8篇,中文論文2篇。

歡迎廣大師生前來交流!


Baidu
sogou