自然语言处理 - 用来处理人类语言的Python库

分类 - 设置更多关注

排序

按热度排序
23 191 52

G Genius是一个开源的python中文分词组件,采用 CRF(Conditional Random Field)条件随机场算法。
 
0.6 0.0
  7月前
160 2.8k 614

1 100+ Chinese Word Vectors 上百种预训练中文词向量
 
0.5 0.0
  3月前
28 175 84

Q 其中thulac用于分词,gensim用于word2vec 这两个库只用于第一篇文章的分析。如果您只关心如何构建诗人关系网络,那么不需要安装这个两个库。
 
0.5 0.0
  1年前
20 174 59

R 模仿莎士比亚创作戏剧!屌炸天的是还能创作金庸武侠小说!
 
0.5 0.0
  1年前
32 166 17

G 通过大规模多任务学习学习通用分布式句子表示
 
0.5 0.0
  3月前

J jieba_fast 使用cpython重写了jieba分词库中计算DAG和HMM中的vitrebi函数,速度得到大幅提升
 
0.5 0.2
  1月前

G 各种nlp 工具的使用包括 word2vec nltk textblob crf++ 等
 
0.5 0.0
  1年前
14 134 46

P 中文错别字纠正工具。音似、形似错字(或变体字)纠正,可用于中文拼音、笔画输入法的错误纠正。python3开发。pycorrector依据语言模型检测错别字位置,通过拼音音似特征、笔画五笔编辑距离特征及语言模型困惑度特征纠正错别字。
 
0.4 10.0
  昨天
12 121 27

N nnmnkwii 用于构建语音合成系统的快速原型库
 
0.4 2.3000000000000003
  1月前
14 106 32

P python3利用互信息和左右信息熵的中文分词新词发现
 
0.4 0.7000000000000001
  18天前

T text-similarity:用TF特征向量和simhash指纹计算中文文本的相似度
 
0.3 0.0
  2年前
121 1.6k 478

MatchZoo是一个文本匹配的工具包
 
0.2 4.699999999999999
  昨天
109 1.4k 315

S synonyms可以用于自然语言理解的很多任务:文本对齐,推荐算法,相似度计算,语义偏移,关键字提取,概念提取,自动摘要,搜索引擎等。
 
0.2 0.7000000000000001
100 1.1k 271

F 可能不是最快的开源中文分词,但很可能是最准的开源中文分词 基于BiLSTM模型训练而成 包含分词,词性标注,实体识别, 都有比较高的准确率 用户自定义词典
 
0.2 0.0
  3月前
326 3.5k 934

S SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的。
 
0.1 0.0
  1年前
125 2.4k 717

S 使用 Python 开发的基于 NLP 技术, 自动化提取论文仓库核心内容搜索服务,以便大家快速定位对自己有用的论文
 
0.1 0.0
  1年前