`

lucene第一步---5.中文分词IKAnalyzer和高亮highlighter的使用

阅读更多
最近工作比较忙,一直没有更新,还请见谅。
最近lucene已经更新到lucene 3.0版本了 2.X版本的一些用法已经彻底不在支持了。
下面的例子主要是介绍中文分词器IKAnalyzer的使用和Lucene高亮显示。
lucene 3.x版本中有些2.x方法已经完全被剔除了,这里会捎带一下3.x的用法,当然我这里用的还是2.X的版本。
lucene自带的分词方式对中文分词十分的不友好,基本上可以用惨不忍睹来形容,所以这里推荐使用IKAnalyzer进行中文分词。
IKAnalyzer分词器是一个非常优秀的中文分词器。
下面是官方文档上的介绍
采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。
优化的词典存储,更小的内存占用。支持用户词典扩展定义.
针对Lucene全文检索优化的查询分析器
IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
1.IKAnalyzer的部署:将IKAnalyzer3.X.jar部署于项目的lib目录中;IKAnalyzer.cfg.xml与ext_stopword.dic文件放置在代码根目录下即可。
ok 部署完IKAnalyzer我们先来测试一下
package demo.test;

import java.io.IOException;
import java.io.StringReader;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.tokenattributes.TermAttribute;
import org.apache.lucene.analysis.tokenattributes.TypeAttribute;
import org.wltea.analyzer.lucene.IKAnalyzer;

public class TestIKAnalyzer {
	
	public static void main(String[] args) throws IOException {
		Analyzer analyzer = new IKAnalyzer();
		TokenStream tokenStream = analyzer.tokenStream("", new StringReader("永和服装饰品有限公司"));
		//2.x写法 3.0之后不支持了
		/*Token token =new Token();
		while(tokenStream.next(token)!=null){
			System.out.println(token.term());
		}*/
		//3.x的写法
		TermAttribute termAtt = (TermAttribute) tokenStream.getAttribute(TermAttribute.class); 
		TypeAttribute typeAtt = (TypeAttribute) tokenStream.getAttribute(TypeAttribute.class); 

		while (tokenStream.incrementToken()) { 
			System.out.print(termAtt.term()); 
			System.out.print(' '); 
			System.out.println(typeAtt.type()); 
		} 
	}

}


分词结果 永和 和服 服装 装饰品 装饰 饰品 有限公司 有限 公司

2.我们开始采用IKAnalyzer创建索引
package demo.test;

import java.io.BufferedReader;
import java.io.File;
import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStreamReader;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexWriter;
import org.wltea.analyzer.lucene.IKAnalyzer;

public class CreatIndex {

	@SuppressWarnings("deprecation")
	public static void main(String[] args) throws IOException {
		String path = "index";//索引目录
		Analyzer analyzer = new IKAnalyzer();//采用的分词器
		IndexWriter iwriter = new IndexWriter(path, analyzer, true);  
		File dir = new File("data");//待索引的数据文件目录
		File[] files = dir.listFiles();
		for(int i=0;i<files.length;i++){
			Document doc = new Document();
			File file = files[i];
			FileInputStream fis = new FileInputStream(file);
			String content = "";
			BufferedReader reader = new BufferedReader(new InputStreamReader(fis));
	        
			StringBuffer buffer = new StringBuffer("");
			content = reader.readLine();
			while (content != null) {
			    buffer.append(content);
			    content = reader.readLine();
			}
			doc.add(new Field("title",file.getName(),Field.Store.YES,Field.Index.ANALYZED));
			doc.add(new Field("content",buffer.toString(),Field.Store.YES,Field.Index.ANALYZED));
			iwriter.addDocument(doc);
		}
		iwriter.close();
	}

}

3.对索引进行查询并进行高亮highlighter处理
package demo.test;

import java.io.File;
import java.io.IOException;
import java.io.StringReader;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.document.Document;
import org.apache.lucene.index.Term;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.TermQuery;
import org.apache.lucene.search.TopDocs;
import org.apache.lucene.search.highlight.Highlighter;
import org.apache.lucene.search.highlight.InvalidTokenOffsetsException;
import org.apache.lucene.search.highlight.QueryScorer;
import org.apache.lucene.search.highlight.SimpleFragmenter;
import org.apache.lucene.search.highlight.SimpleHTMLFormatter;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.wltea.analyzer.lucene.IKAnalyzer;

public class TestHighlighter {

	@SuppressWarnings("deprecation")
	public static void main(String[] args) throws IOException, InvalidTokenOffsetsException {
		String path = "index";//索引目录
		Directory dir = FSDirectory.getDirectory(new File(path));
		IndexSearcher search = new IndexSearcher(dir);
		Term term = new Term("content","纯粹");
		Query query = new TermQuery(term);
		TopDocs topDocs = search.search(query, 10);
		ScoreDoc[] hits = topDocs.scoreDocs;
		//正常产生的查询
		for(int i=0;i<hits.length;i++){
			Document doc = search.doc(hits[i].doc);
			System.out.print(doc.get("title")+":");
			System.out.println(doc.get("content"));
		}
		//高亮设置
		Analyzer analyzer = new IKAnalyzer();//设定分词器
		SimpleHTMLFormatter simpleHtmlFormatter = new SimpleHTMLFormatter("<B>","</B>");//设定高亮显示的格式,也就是对高亮显示的词组加上前缀后缀
		Highlighter highlighter = new Highlighter(simpleHtmlFormatter,new QueryScorer(query));
		highlighter.setTextFragmenter(new SimpleFragmenter(150));//设置每次返回的字符数.想必大家在使用搜索引擎的时候也没有一并把全部数据展示出来吧,当然这里也是设定只展示部分数据
		for(int i=0;i<hits.length;i++){
			Document doc = search.doc(hits[i].doc);
			TokenStream tokenStream = analyzer.tokenStream("",new StringReader(doc.get("content")));
			String str = highlighter.getBestFragment(tokenStream, doc.get("content"));
			System.out.println(str);
		}
	}

}


大家可以看到对于关键词的数据已经进行高亮处理了。 “中后期,不少群组改名<B>纯粹</B>是赶潮流和恶搞。”
分享到:
评论
6 楼 judasn 2012-04-28  
亲,你太好了...新手就需要你这样的架包,源码,文章...太爱了...感谢了--Judas.n
5 楼 chunchong 2011-11-16  
多个字段高亮显示怎么搞
4 楼 w156445045 2011-10-26  
想找本 lucene in action 的中文的书看看
最近这书好像出第二版了~
3 楼 RobustTm 2011-04-12  
highlighter.setTextFragmenter(new SimpleFragmenter(150));//设置每次返回的字符数.想必大家在使用搜索引擎的时候也没有一并把全部数据展示出来吧,当然这里也是设定只展示部分数据

如何控制显示的格式:

比如只显示开头一部分文字,然后省略号,再显示关键词附近上下文,接着省略号,最后显示结束部分文字。

还望指教,谢谢了。
2 楼 llying 2010-07-08  
linzy410 写道
多谢分享。
有一个问题请教一下,我将整篇三国演义创建索引之后,搜索“玄德”,结果居然为0,想不懂!?

lucene是基于分词的 由于IKAnalyzer的词典中没有你所需要的词 所以无法创建索引
IKAnalyzer支持用户自定义词典,你可以额外创建一个扩展词典完成你的需求
1 楼 linzy410 2010-07-05  
多谢分享。
有一个问题请教一下,我将整篇三国演义创建索引之后,搜索“玄德”,结果居然为0,想不懂!?

相关推荐

    lucene-highlighter-6.6.0-API文档-中文版.zip

    赠送jar包:lucene-highlighter-6.6.0.jar; 赠送原API文档:lucene-highlighter-6.6.0-javadoc.jar; 赠送源代码:lucene-highlighter-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-highlighter-6.6.0.pom;...

    org.wltea.analyzer.lucene.IKAnalyzer jar

    solr的IK分词器JAR及配置文件 jar包和配置文件的放置位置不一样,详情可搜索 IK Analyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包。 org.wltea.analyzer.lucene.IKAnalyzer jar

    lucene-analyzers-smartcn-7.7.0-API文档-中文版.zip

    赠送jar包:lucene-analyzers-smartcn-7.7.0.jar; 赠送原API文档:lucene-analyzers-smartcn-7.7.0-javadoc.jar; ...人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。

    lucene-highlighter-7.7.0-API文档-中文版.zip

    赠送jar包:lucene-highlighter-7.7.0.jar; 赠送原API文档:lucene-highlighter-7.7.0-javadoc.jar; 赠送源代码:lucene-highlighter-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-highlighter-7.7.0.pom;...

    lucene-highlighter-7.2.1-API文档-中文版.zip

    赠送jar包:lucene-highlighter-7.2.1.jar; 赠送原API文档:lucene-highlighter-7.2.1-javadoc.jar; 赠送源代码:lucene-highlighter-7.2.1-sources.jar; 赠送Maven依赖信息文件:lucene-highlighter-7.2.1.pom;...

    lucene-highlighter-7.3.1-API文档-中文版.zip

    赠送jar包:lucene-highlighter-7.3.1.jar; 赠送原API文档:lucene-highlighter-7.3.1-javadoc.jar; 赠送源代码:lucene-highlighter-7.3.1-sources.jar; 赠送Maven依赖信息文件:lucene-highlighter-7.3.1.pom;...

    compass-2.1.2.jar'、lucene-analyzers-2.4.0.jar、 lucene-core-2.3.0.jar、 lucene-highlighter-2.4.0.jar、 struts2-core-2.0.9.jar、 struts2-spring-plugin-2.0.9.jar、 xwork-2.0.4.jar

    使用compass+lucene实现简单的全文检索功能 里面整合了spring2.5、hibernate3.2、struts2.0,是对数据库进行全文检索的一个非常好的demo的所有jar包组合! 对研究基于数据库检索的java开源搜索引擎的朋友有很大的...

    lucene-highlighter-7.3.1-API文档-中英对照版.zip

    赠送jar包:lucene-highlighter-7.3.1.jar; 赠送原API文档:lucene-highlighter-7.3.1-javadoc.jar; 赠送源代码:lucene-highlighter-7.3.1-sources.jar; 赠送Maven依赖信息文件:lucene-highlighter-7.3.1.pom;...

    lucene-analyzers-common-6.6.0-API文档-中文版.zip

    赠送jar包:lucene-analyzers-common-6.6.0.jar; 赠送原API文档:lucene-analyzers-common-6.6.0-javadoc.jar; 赠送源代码:lucene-...人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。

    lucene-highlighter-7.7.0-API文档-中英对照版.zip

    赠送jar包:lucene-highlighter-7.7.0.jar; 赠送原API文档:lucene-highlighter-7.7.0-javadoc.jar; 赠送源代码:lucene-highlighter-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-highlighter-7.7.0.pom;...

    lucene-highlighter-7.2.1-API文档-中英对照版.zip

    赠送jar包:lucene-highlighter-7.2.1.jar; 赠送原API文档:lucene-highlighter-7.2.1-javadoc.jar; 赠送源代码:lucene-highlighter-7.2.1-sources.jar; 赠送Maven依赖信息文件:lucene-highlighter-7.2.1.pom;...

    lucene-highlighter-6.6.0-API文档-中英对照版.zip

    赠送jar包:lucene-highlighter-6.6.0.jar; 赠送原API文档:lucene-highlighter-6.6.0-javadoc.jar; 赠送源代码:lucene-highlighter-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-highlighter-6.6.0.pom;...

    lucene-core-7.2.1-API文档-中文版.zip

    赠送jar包:lucene-core-7.2.1.jar; 赠送原API文档:lucene-core-7.2.1-javadoc.jar; 赠送源代码:lucene-core-7.2.1-sources.jar;...人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。

    IKAnalyzer2012FF_u1.jar

    使用IK分词器,应为该集群使用到的solr版本为4.10.3-cdh5.7.5,所以使用的 IK 包为IKAnalyzer2012FF_u1.jar,如果是3x的solr,使用IKAnalyzer2012_u6.jar solr-4.10.3下载地址:...

    lucene-core-7.7.0-API文档-中文版.zip

    赠送jar包:lucene-core-7.7.0.jar; 赠送原API文档:lucene-core-7.7.0-javadoc.jar; 赠送源代码:lucene-core-7.7.0-sources.jar;...人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。

    lucene-sandbox-7.2.1-API文档-中文版.zip

    赠送jar包:lucene-sandbox-7.2.1.jar; 赠送原API文档:lucene-sandbox-7.2.1-javadoc.jar; 赠送源代码:lucene-sandbox-7.2.1-sources...人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。

    lucene-core-6.6.0-API文档-中文版.zip

    赠送jar包:lucene-core-6.6.0.jar; 赠送原API文档:lucene-core-6.6.0-javadoc.jar; 赠送源代码:lucene-core-6.6.0-sources.jar;...人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。

    ik-analyzer-8.3.1分词插件.rar

    &lt;tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/&gt; &lt;filter class="solr.LowerCaseFilterFactory"/&gt; &lt;/analyzer&gt; &lt;analyzer type="query"&gt; ...

    lucene-backward-codecs-6.6.0-API文档-中文版.zip

    赠送jar包:lucene-backward-codecs-6.6.0.jar; 赠送原API文档:lucene-backward-codecs-6.6.0-javadoc.jar; 赠送源代码:lucene-...人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。

Global site tag (gtag.js) - Google Analytics