名称: | |
描述: | |
公开/私有: | 公开 私有 |
自然语言处理实战:利用Python理解、分析和生成文本 |
|
题名/责任者:
|
自然语言处理实战 / (美) 霍布森·莱恩, 科尔·霍华德, 汉纳斯·马克斯·哈普克著 , 史亮 ... [等] 译 |
ISBN:
|
978-7-115-54023-2 价格: CNY99.00 |
语种:
|
汉语 |
载体形态:
|
432页 : 图 ; 24cm |
出版发行:
|
北京 : 人民邮电出版社, 2020 |
内容提要:
|
本书是介绍自然语言处理(NLP)和深度学习的实战书。NLP已成为深度学习的核心应用领域,而深度学习是NLP研究和应用中的必要工具。本书分为3部分:第一部分介绍NLP基础,包括切词、TF-IDF向量化以及从词频向量到语义向量的转换;第二部分讲述深度学习,包含词向量、神经网络、词向量、卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆(LSTM)网络、序列到序列建模和注意力机制等基本的深度学习模型和方法;第三部分介绍实战方面的内容,包括信息提取、问答系统、人机对话等现实世界系统的模型挑战、性能挑战以及应对方法。 |
主题词:
|
自然语言处理 |
中图分类法
:
|
TP391 版次: 5 |
其它题名:
|
利用Python理解、分析和生成文本 |
主要责任者:
|
莱恩 著 |
主要责任者:
|
霍华德 著 |
主要责任者:
|
哈普克 著 |
次要责任者:
|
史亮 译 |
次要责任者:
|
鲁骁 译 |
次要责任者:
|
唐可欣 译 |
标签:
|
|
相关主题:
|
|
相关资源:
|
|
分享资源:
|
HEA| |02283nam0 2200373 450 001| |012020031080 005| |20201126084347.4 010| |▼a978-7-115-54023-2▼dCNY99.00 099| |▼aCAL 012020332647 100| |▼a20201123d2020 em y0chiy50 ea 101|1 |▼achi▼ceng 102| |▼aCN▼b110000 105| |▼aak z 000yy 106| |▼ar 200|1 |▼a自然语言处理实战▼Azi ran yu yan chu - | |li shi zhan▼e利用Python理解、分析和生成文- | |本▼f(美) 霍布森·莱恩, 科尔·霍华德, 汉纳斯·马克斯- | |·哈普克著▼d= Natural language proc- | |essing in action▼fHobson Lane,- | | Cole Howard, Hannes MaxHapke▼- | |g史亮 ... [等] 译▼zeng 210| |▼a北京▼c人民邮电出版社▼d2020 215| |▼a432页▼c图▼d24cm 304| |▼a题名页题其余责任者: 鲁骁, 唐可欣, 王斌 305| |▼a据2019年英文版译出 306| |▼a本书中文简体字版由Manning Publication- | |s Co.授权独家出版 330| |▼a本书是介绍自然语言处理(NLP)和深度学习的实战书。NL- | |P已成为深度学习的核心应用领域,而深度学习是NLP研究和应用- | |中的必要工具。本书分为3部分:第一部分介绍NLP基础,包括切- | |词、TF-IDF向量化以及从词频向量到语义向量的转换;第二部- | |分讲述深度学习,包含词向量、神经网络、词向量、卷积神经网络(- | |CNN)、循环神经网络(RNN)、长短期记忆(LSTM)网络- | |、序列到序列建模和注意力机制等基本的深度学习模型和方法;第三- | |部分介绍实战方面的内容,包括信息提取、问答系统、人机对话等现- | |实世界系统的模型挑战、性能挑战以及应对方法。- 500|10|▼aNatural language processing - | |in action▼mChinese 517|1 |▼a利用Python理解、分析和生成文本▼Ali yong - | |Python li jie、 fen xi he sheng- | | cheng wen ben 606|0 |▼a自然语言处理▼Azi ran yu yan chu li 690| |▼aTP391▼v5 701| 1|▼a莱恩▼Alai en▼g(Lane, Hobson)▼4著 701| 1|▼a霍华德▼Ahuo hua de▼g(Howard, Cole)▼4著 701| 1|▼a哈普克▼Aha pu ke▼g(MaxHapke, Hannes)▼4著 702| 0|▼a史亮▼Ashi liang▼4译 702| 0|▼a鲁骁▼Alu xiao▼4译 702| 0|▼a唐可欣▼Atang ke xin▼4译 801| 0|▼aCN▼bNMU▼c20200921 801| 2|▼aCN▼bWHUTL▼c20201126 998| |▼aNMU