名称:
描述:
公开/私有: 公开 私有
标签: 用空格间隔多个标签,如:小说 文学 余秋雨
保存至书单:
封面仅供参考

从零构建大模型:算法、训练与微调

题名/责任者:
从零构建大模型 [ 专著] / 梁楠著
ISBN:
978-7-302-68561-6 价格: CNY99.00
语种:
汉语
载体形态:
284页 : 图 ; 24cm
出版发行:
北京 : 清华大学出版社, 2025
内容提要:
本书共12章,涵盖了Transformer模型的基础理论,如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念,并深入剖析了GPT模型的核心实现与文本生成过程,以及BERT模型的预训练和微调技术。同时,也对ViT(视觉Transformer)模型的架构、训练方法,以及高阶微调策略如Adapter Tuning和P-Tuning进行了详尽讲解。
主题词:
人工智能
中图分类法 :
TP18 版次: 5
主要责任者:
梁楠
标签:
相关主题:
相关资源:
限定所在馆: 限定所在馆藏地点: 限定馆藏状态:   预约:可预约已外借图书,在馆图书不可预约 >>
HEA|  |01041nam0 2200217   450 
001|  |012025051034
010|  |▼a978-7-302-68561-6▼dCNY99.00
049|  |▼aO320113FHC▼bUCS01013174284▼c013174284
100|  |▼a20250427d2025    em y0chiy0110    ea
101|0 |▼achi
102|  |▼aCN▼b110000
105|  |▼aa   z   000yy
106|  |▼ar
200|1 |▼a从零构建大模型▼9cong ling gou jian -
   |  |da mo xing▼b专著▼e算法、训练与微调▼f梁楠著
210|  |▼a北京▼c清华大学出版社▼d2025
215|  |▼a284页▼c图▼d24cm
330|  |▼a本书共12章,涵盖了Transformer模型的基础理论-
   |  |,如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念-
   |  |,并深入剖析了GPT模型的核心实现与文本生成过程,以及BER-
   |  |T模型的预训练和微调技术。同时,也对ViT(视觉Transf-
   |  |ormer)模型的架构、训练方法,以及高阶微调策略如Adap-
   |  |ter Tuning和P-Tuning进行了详尽讲解。
606|0 |▼a人工智能
690|  |▼aTP18▼v5
701| 0|▼a梁楠▼9liang nan▼4著
801| 0|▼aCN▼bzjlib▼c20250703