• 首页
  • 本馆介绍
  • 公告通知
  • 最新文献
  • 馆藏检索
  • 电子资源
  • 读者导购
  • 参考咨询
  • CALIS
  • 我的图书馆
  • 登录
  • 详细信息显示
  • 放入我的书架
  • 预约/预借图书
  • 作者相关作品
  • 分类相关作品
  • 丛书相关作品
  • 出版社相关作品

书目信息

  • 表格格式
  • 工作单格式
  • 卡片格式
题名:
基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理
    
 
作者: 罗斯曼 著 ;叶伟民 译
分册:  
出版信息: 北京   清华大学出版社  2024.01
页数: xvii, 353页
开本: 24cm
丛书名:
单 册:
中图分类: TP391
科图分类:
主题词: 人工智能--ren gong zhi neng--应用--自然语言处理--研究
电子资源:
ISBN: 978-7-302-64872-7
 
 
 
 
 
000 01923nam0 2200289 450
001 2433347918
010    @a978-7-302-64872-7@dCNY99.80
100    @a20231215d2024 em y0chiy0120 ea
101 1  @achi@ceng
102    @aCN@b110000
105    @aak z 000yy
106    @ar
200 1  @a基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理@Aji yu GPT-3、ChatGPT、GPT-4 deng Transformer jia gou de zi ran yu yan chu li@f(法) 丹尼斯·罗斯曼著@g叶伟民译
210    @a北京@c清华大学出版社@d2024.01
215    @axvii, 353页@c图@d24cm
305    @a译自原书第2版
312    @a英文题名原文取自版权页
314    @a丹尼斯·罗斯曼, 毕业于法国巴黎索邦大学和狄德罗大学, 设计了首批获得专利的编码和嵌入系统, 编写了首批获得专利的AI认知机器人和机器人。他的职业生涯始于为Moet et Chandon提供NLP (自然语言处理) 聊天机器人, 并为空中客车公司 (前身为Aerospatiale) 提供AI战术防御优化器。
330    @a本书将引领你进入Transformer的世界, 将讲述不同模型和平台的优势, 指出如何消除模型的缺点和问题。本书将引导你使用Hugging Face从头开始预训练一个RoBERTa模型, 包括构建数据集、定义数据整理器以及训练模型等。本书分步展示如何微调GPT-3等预训练模型。研究机器翻译、语音转文本、文本转语音、问答等NLP任务, 并介绍解决NLP难题的技术, 甚至帮助你应对假新闻焦虑 (详见第13章)。从书中可了解到, 诸如OpenAI的高级平台将Transformer扩展到语言领域、计算机视觉领域, 并允许使用DALL-E 2、ChatGPT和GPT-4生成代码。通过本书, 你将了解到Transformer的工作原理以及如何实施Transformer来决NLP问题。
500 10 @aTransformers for natural language processing : build, train, and fine-tune deep neural network architectures for NLP with python, hugging face, and openAI's GPT-3, ChatGPT, and GPT-4@mChinese
586    @a
606 0  @a人工智能@Aren gong zhi neng@x应用@x自然语言处理@x研究
690    @aTP391@v5
701  1 @a罗斯曼@Aluo si man@g(Rothman, Denis)@4著
702  0 @a叶伟民@Aye wei min@4译
801  0 @aCN@c20231215
905    @dTP391@eL954@f1@sTP391/L954@S@Z
    
    基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理/(法) 丹尼斯·罗斯曼著/叶伟民译.-北京:清华大学出版社,2024.01
    xvii, 353页:图;24cm
    
    
    ISBN 978-7-302-64872-7:CNY99.80
    本书将引领你进入Transformer的世界, 将讲述不同模型和平台的优势, 指出如何消除模型的缺点和问题。本书将引导你使用Hugging Face从头开始预训练一个RoBERTa模型, 包括构建数据集、定义数据整理器以及训练模型等。本书分步展示如何微调GPT-3等预训练模型。研究机器翻译、语音转文本、文本转语音、问答等NLP任务, 并介绍解决NLP难题的技术, 甚至帮助你应对假新闻焦虑 (详见第13章)。从书中可了解到, 诸如OpenAI的高级平台将Transformer扩展到语言领域、计算机视觉领域, 并允许使用DALL-E 2、ChatGPT和GPT-4生成代码。通过本书, 你将了解到Transformer的工作原理以及如何实施Transformer来决NLP问题。
●
相关链接 在E读中查询图书 在当当中查询图书 在豆瓣中查询图书


正题名:基于GPT-3、ChatGPT、GPT-4等Transformer架     索取号:TP391/L954         预约/预借

序号 登录号 条形码 馆藏地/架位号 状态 备注
1 21611993   216119938   自科库301/ [索取号:TP391/L954] 在馆    
河南城建学院图书馆 欢迎您!
大连网信软件有限公司© 版权所有