名称: | |
描述: | |
公开/私有: | 公开 私有 |
从零构建大模型:算法、训练与微调 |
|
题名/责任者:
|
从零构建大模型 [ 专著] / 梁楠著 |
ISBN:
|
978-7-302-68561-6 价格: CNY99.00 |
语种:
|
汉语 |
载体形态:
|
284页 : 图 ; 24cm |
出版发行:
|
北京 : 清华大学出版社, 2025 |
内容提要:
|
本书共12章,涵盖了Transformer模型的基础理论,如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念,并深入剖析了GPT模型的核心实现与文本生成过程,以及BERT模型的预训练和微调技术。同时,也对ViT(视觉Transformer)模型的架构、训练方法,以及高阶微调策略如Adapter Tuning和P-Tuning进行了详尽讲解。 |
主题词:
|
人工智能 |
中图分类法
:
|
TP18 版次: 5 |
主要责任者:
|
梁楠 著 |
标签:
|
|
相关主题:
|
|
相关资源:
|
|
HEA| |01041nam0 2200217 450 001| |012025051034 010| |▼a978-7-302-68561-6▼dCNY99.00 049| |▼aO320113FHC▼bUCS01013174284▼c013174284 100| |▼a20250427d2025 em y0chiy0110 ea 101|0 |▼achi 102| |▼aCN▼b110000 105| |▼aa z 000yy 106| |▼ar 200|1 |▼a从零构建大模型▼9cong ling gou jian - | |da mo xing▼b专著▼e算法、训练与微调▼f梁楠著 210| |▼a北京▼c清华大学出版社▼d2025 215| |▼a284页▼c图▼d24cm 330| |▼a本书共12章,涵盖了Transformer模型的基础理论- | |,如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念- | |,并深入剖析了GPT模型的核心实现与文本生成过程,以及BER- | |T模型的预训练和微调技术。同时,也对ViT(视觉Transf- | |ormer)模型的架构、训练方法,以及高阶微调策略如Adap- | |ter Tuning和P-Tuning进行了详尽讲解。 606|0 |▼a人工智能 690| |▼aTP18▼v5 701| 0|▼a梁楠▼9liang nan▼4著 801| 0|▼aCN▼bzjlib▼c20250703