分词器,是将用户输入的一段文本,分析成符合逻辑的一种工具。到目前为止呢,分词器没有办法做到完全的符合人们的要求。
和我们有关的分词器有英文的和中文的英文的分词器过程:输入文本-关键词切分-去停用词-形态还原-转为小写中文的分词器分为:单子分词例:中国人分成中,国,人二分法人词:例中国人:中国,国人词典分词:有基本的语意来进行分词的,例:中国人分成中国,国人,中国人,现在用的是极易分词和庖丁分词。停用词:不影响语意的词。网上有很多说分词器效果的,我在这里就不进行多说了
分词器有哪些?:IK和Paoding分词器的区别
可以用IKAnalyzer和PaodingAnalyzer,这两个都有对Lucene的封装接口,中科院的Ictclas是要收费的,而且是用DLL,和Java结合不好。
中文分词(ChineseWordSegmentation)指的是将一个汉字序列切分成一个一个单独的词。
分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。
在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段能通过明显的分界符来简单划界,唯独词没有一个形式上的分界符,虽然英文也同样存在短语的划分问题,不过在词这一层上,中文比之英文要复杂的多、困难的多。