当前位置:  软件>JavaScript软件

"结巴"分词的Node.js版本 nodejieba

    来源:    发布时间:2014-12-22

    本文导语:  NodeJieba "结巴"分词的Node.js版本Introduction 因为npm速度很慢而且经常因为墙的原因出现莫名其妙的问题,在此强烈建议使用cnpm,命令如下:npm --registry=http://r.cnpmjs.org install nodejiebaUsage默认分词算法初始化var segment = require("no...

NodeJieba "结巴"分词的Node.js版本Introduction

NodeJieba只是CppJieba简单包装而成的node扩展,用来进行中文分词。

详见NodeJiebaBlog

Install
npm install nodejieba

因为npm速度很慢而且经常因为墙的原因出现莫名其妙的问题,在此强烈建议使用cnpm,命令如下:

npm --registry=http://r.cnpmjs.org install nodejieba
Usage默认分词算法初始化
var segment = require("nodejieba");
segment.loadDict("./node_modules/nodejieba/dict/jieba.dict.utf8", "./node_modules/nodejieba/dict/hmm_model.utf8");
阻塞式调用
var wordList = segment.cutSync("阻塞模式分词"); if (wordList.constructor == Array) // just for tutorial, this is always be true  {
    wordList.forEach(function(word) { console.log(word);     
    });
}
非阻塞式调用
segment.cut("非阻塞模式分词", function(wordList) {
    wordList.forEach(function(word) { console.log(word);     
    });
});
搜索引擎分词算法初始化
var segment = require("nodejieba");
segment.queryLoadDict("./node_modules/nodejieba/dict/jieba.dict.utf8", "./node_modules/nodejieba/dict/hmm_model.utf8");
阻塞式调用
var wordList = segment.queryCutSync("阻塞模式分词"); if (wordList.constructor == Array) // just for tutorial, this is always be true  {
    wordList.forEach(function(word) { console.log(word);     
    });
}
非阻塞式调用
segment.queryCut("非阻塞模式分词", function(wordList) {
    wordList.forEach(function(word) { console.log(word);     
    });
});

具体用法可以参考 test/segment.js test/query_segment.js

Testing

在node v0.10.2下测试通过

Demo

http://cppjieba-webdemo.herokuapp.com/ (chrome is suggested)

Thanks

Jieba中文分词


    
 
 

您可能感兴趣的文章:

 
本站(WWW.)旨在分享和传播互联网科技相关的资讯和技术,将尽最大努力为读者提供更好的信息聚合和浏览方式。
本站(WWW.)站内文章除注明原创外,均为转载、整理或搜集自网络。欢迎任何形式的转载,转载请注明出处。












  • 相关文章推荐
  • Java中文分词器分词效果评估 cws_evaluation
  • 中文分词库 Paoding
  • 中文分词开源版 CRF
  • 中文分词PHP扩展 MFSOU
  • 开源中文分词系统 HTTPCWS
  • 简易中文分词系统 SCWS
  • 中文分词库 Chinese dialect convert
  • Lucene中文分词库 ICTCLAS4J
  • 结巴分词(java版) jieba-analysis
  • 中文分词库 PHPCWS
  • 智能中文分词模块 imdict-chinese-analyzer
  • 中文分词库 IKAnalyzer
  • 中科院中文分词 ICTCLAS
  • Ruby中文分词器 rmmseg-cpp
  • PHP中文分词扩展 robbe
  • 中文分词库 NlpBamboo
  • http协议中文分词 http-scws
  • 请问谁有中科院ICTCLAS分词程序的源码,共享一下
  • 中文分词工具包 smallseg
  • 使用Discuz关键词服务器实现PHP中文分词


  • 站内导航:


    特别声明:169IT网站部分信息来自互联网,如果侵犯您的权利,请及时告知,本站将立即删除!

    ©2012-2021,,E-mail:www_#163.com(请将#改为@)

    浙ICP备11055608号-3