书目信息 |
| 题名: |
PyTorch生成对抗网络编程
|
|
| 作者: | 拉希德 著 ;韩江雷 译 | |
| 分册: | ||
| 出版信息: | 北京 人民邮电出版社 2020.12 |
|
| 页数: | 206页 | |
| 开本: | 23cm | |
| 丛书名: | 深度学习系列 | |
| 单 册: | ||
| 中图分类: | TP181 | |
| 科图分类: | ||
| 主题词: | 机器学习--ji qi xue xi | |
| 电子资源: | ||
| ISBN: | 978-7-115-54638-8 | |
| 000 | 01502nam 2200313 450 | |
| 001 | CAL 0120203122604 | |
| 005 | 20201215102208.2 | |
| 010 | @a978-7-115-54638-8@dCNY79.00 | |
| 092 | @aCN@bRt956-2292 | |
| 100 | @a20201215d2020 em y0chiy0120 ea | |
| 101 | 1 | @achi@ceng |
| 102 | @aCN@b110000 | |
| 105 | @aa z 000yy | |
| 106 | @ar | |
| 200 | 1 | @aPyTorch生成对抗网络编程@APyTorch sheng cheng dui kang wang luo bian cheng@f(英) 塔里克·拉希德著@g韩江雷译 |
| 210 | @a北京@c人民邮电出版社@d2020.12 | |
| 215 | @a206页@c彩图@d23cm | |
| 225 | 2 | @a深度学习系列@Ashen du xue xi xi lie |
| 314 | @a塔里克·拉希德, 拥有物理学学士学位、机器学习和数据挖掘硕士学位。韩江雷, 新加坡南洋理工大学计算机专业博士, 思爱普公司 (新加坡) 数据科学家。 | |
| 330 | @a本书以直白、简短的方式向读者介绍了生成对抗网络, 并且教读者如何使用PyTorch按部就班地编写生成对抗网络。全书共3章和5个附录, 分别介绍了PyTorch基础知识、用PyTorch开发神经网络、改良神经网络以提升效果、引入CUDA和GPU以加速GAN, 以及生成高质量图像的卷积GAN、条件式GAN等话题。附录部分介绍了在很多机器学习相关教程中被忽略的主题, 包括计算平衡GAN的理想损失值、概率分布和采样, 以及卷积如何工作, 还简单解释了为什么梯度下降不适用于对抗式机器学习。 | |
| 410 | 0 | @12001 @a深度学习系列 |
| 606 | 0 | @a机器学习@Aji qi xue xi |
| 690 | @aTP181@v5 | |
| 701 | 1 | @a拉希德@Ala xi de@g(Rashid, Tariq)@4著 |
| 702 | 0 | @a韩江雷@Ahan jiang lei@4译 |
| 801 | 0 | @aCN@b人天书店@c20201215 |
| 901 | @a人民邮电出版社 | |
| 905 | @aTSG@b0001953@dTP181@eL014@f2 | |
| 997 | @a期货 | |
| PyTorch生成对抗网络编程/(英) 塔里克·拉希德著/韩江雷译.-北京:人民邮电出版社,2020.12 |
| 206页:彩图;23cm.-(深度学习系列) |
| ISBN 978-7-115-54638-8:CNY79.00 |
| 本书以直白、简短的方式向读者介绍了生成对抗网络, 并且教读者如何使用PyTorch按部就班地编写生成对抗网络。全书共3章和5个附录, 分别介绍了PyTorch基础知识、用PyTorch开发神经网络、改良神经网络以提升效果、引入CUDA和GPU以加速GAN, 以及生成高质量图像的卷积GAN、条件式GAN等话题。附录部分介绍了在很多机器学习相关教程中被忽略的主题, 包括计算平衡GAN的理想损失值、概率分布和采样, 以及卷积如何工作, 还简单解释了为什么梯度下降不适用于对抗式机器学习。 |
| ● |
| 相关链接 |
|
|
|
正题名:PyTorch生成对抗网络编程
索取号:TP181/L014
 
预约/预借
| 序号 | 登录号 | 条形码 | 馆藏地/架位号 | 状态 | 备注 |
| 1 | 1539212 | 215392126 | 自科库301/301自科库 102排9列4层/ [索取号:TP181/L014] | 在馆 | |
| 2 | 1539213 | 215392135 | 自科库301/301自科库 102排9列4层/ [索取号:TP181/L014] | 在馆 |