自然语言处理 - 用来处理人类语言的Python库

分类 - 设置更多关注

排序

按热度排序
51 969 253

S 使用 Python 开发的基于 NLP 技术, 自动化提取论文仓库核心内容搜索服务,以便大家快速定位对自己有用的论文
 
3.3000000000000003 6.3
  19天前
19 110 46

Q 其中thulac用于分词,gensim用于word2vec 这两个库只用于第一篇文章的分析。如果您只关心如何构建诗人关系网络,那么不需要安装这个两个库。
 
2.8000000000000003 2.2
  9天前
62 872 179

Y 一个简单的库和命令行实用程序,用以从HTML页面或者明文中抽取摘要。该包也包含用于文本摘要的简单评价框架。
 
2.7 1.7999999999999998
  21天前
48 731 133

L langid.py:独立的语言识别系统
 
2.3000000000000003 0.0
  8月前
25 648 72

M markovify-Pythonic 的可扩展的 马尔可夫链发生器. 主要用以构建 Markov 模式的大型语料库, 生成随机的句子, 当然,理论上,可以用以其它应用
 
2.1 0.0
  2月前
19 360 35

M Makes famous people speak whatever you wish by linking their words
 
1.6 0.3
  1月前
41 385 128

T TextGrocery:一简单高效的短文本分类工具,基于 LibLinear 和 Jieba
 
1.3 0.0
  1年前
52 379 205

T TextRank4ZH可以从文章中提取摘要和关键字, TextRank4ZH 则是能用 TextRank 的算法处理中文文章
 
1.3 0.0
  4月前
800 7.8k 2.4k

J jieba:“结巴”中文分词:做最好的 Python 中文分词组件
 
1.1 0.0
  7月前
11 212 20

W WikiData上的一个自然语言查询引擎
 
0.8 0.0
  5月前
22 121 46

N 牛津深度 NLP 2017课程 - 实践1: word2vec
 
0.8 1.2
  2月前
203 4.4k 658

N Newspaper可以用来提取新闻、文章和内容分析。使用多线程,支持10多种语言等。 作者从requests库的简洁与强大得到灵感,使用python开发的可用于提取文章内容的程序。
 
0.7000000000000001 0.0
  2月前
10 157 21

简单的Keras模型
 
0.6 0.0
  2月前
23 124 38

G Genius是一个开源的python中文分词组件,采用 CRF(Conditional Random Field)条件随机场算法。
 
0.4 0.0
  5月前