自然语言处理 - 用来处理人类语言的Python库

分类 - 设置更多关注

排序

按热度排序
812 8.1k 2.5k

J jieba:“结巴”中文分词:做最好的 Python 中文分词组件
 
10.0 0.5
  17天前
64 911 192

Y 一个简单的库和命令行实用程序,用以从HTML页面或者明文中抽取摘要。该包也包含用于文本摘要的简单评价框架。
 
2.9 1.7999999999999998
  1月前
47 755 135

L langid.py:独立的语言识别系统
 
2.4 0.0
  9月前
26 668 76

M markovify-Pythonic 的可扩展的 马尔可夫链发生器. 主要用以构建 Markov 模式的大型语料库, 生成随机的句子, 当然,理论上,可以用以其它应用
 
2.2 5.0
  16天前
19 362 36

M Makes famous people speak whatever you wish by linking their words
 
1.7000000000000002 0.0
  2月前
56 405 220

T TextRank4ZH可以从文章中提取摘要和关键字, TextRank4ZH 则是能用 TextRank 的算法处理中文文章
 
1.4000000000000001 0.0
  5月前
24 123 54

Q 其中thulac用于分词,gensim用于word2vec 这两个库只用于第一篇文章的分析。如果您只关心如何构建诗人关系网络,那么不需要安装这个两个库。
 
1.4000000000000001 2.5
  21天前
39 398 135

T TextGrocery:一简单高效的短文本分类工具,基于 LibLinear 和 Jieba
 
1.3 0.0
  1年前
200 4.5k 677

N Newspaper可以用来提取新闻、文章和内容分析。使用多线程,支持10多种语言等。 作者从requests库的简洁与强大得到灵感,使用python开发的可用于提取文章内容的程序。
 
0.8999999999999999 0.0
  3月前
11 215 21

W WikiData上的一个自然语言查询引擎
 
0.8999999999999999 0.0
  6月前
23 125 53

N 牛津深度 NLP 2017课程 - 实践1: word2vec
 
0.8 0.0
  2月前
10 166 22

简单的Keras模型
 
0.7000000000000001 0.0
  3月前

R 模仿莎士比亚创作戏剧!屌炸天的是还能创作金庸武侠小说!
 
0.7000000000000001 1.0
  12天前
59 1k 281

S 使用 Python 开发的基于 NLP 技术, 自动化提取论文仓库核心内容搜索服务,以便大家快速定位对自己有用的论文
 
0.6 3.5
  19天前
239 1.9k 536

S SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的。
 
0.4 0.7000000000000001
  6天前
23 128 38

G Genius是一个开源的python中文分词组件,采用 CRF(Conditional Random Field)条件随机场算法。
 
0.4 0.0
  6月前