solr4.x发布以后,最值得人关注的一个功能,就是原子更新功能,传说的solr是否能真正的做到像数据库一样,支持单列更新呢? 在solr官方的介绍中,原子更新是filed级别的更新,不会涉及整个Documnet级别的更新,但事实真是如此吗,经散仙验证,并非如此,原子更新这种功能,在Lucene层面上,就否定了这种方式,因为是索引存储结构,决定了它的更新方式,在Lucene中我们想更新一条数据怎么办?
很简单,删除原来的数据,在添加一条数据进去,那么假如,我们只更新了某一个字段呢,也要删除整条数据,重新添加? 没错,事实就是这样,严格来说,在Lucene索引中,并不存在更新删除一说,即使是删除,也是伪删除,临时打一个删除标签,在下次索引合并时,会清理掉标记的标签,Lucene的索引存储结构与HDFS的的结构从某种程度上来说,是相似的,仅仅支持Append操作。
那么如何验证原子更新,到底是不是真的是原子更新呢,这个很好办,我们只需要关注更新后的doc的docid有没有变化,即可验证,为什么这样讲?
在lucene里每个doc都有一个唯一的docid,默认情况下docid,是自增的,每增加一行数据,docid就会新增一个,删除后的docid,在下次merge的时候,会重置倒排表docid顺序,这个docid与Oracle的rownum伪列是非常类似的。
不过话说回来,虽然原子更新功能只是一个华而不实的功能,但是solr对其进行了封装,这样以来使得我们操作solr更加容易和方便,下面介绍下在solr中原子更新的内容,和使用方式。
原子更新注意事项:
1,想支持原子更新的field,必须存储(store=true),否则,使用将会出现问题
2,需要在solrconf.xml配置<updateLog/>,这一点默认就已经不配置了,也就是说我们只需要记住原子更新的域需要存储即可。
原子更新支持的操作:
1,set操作,是指对单,多值域的一种更新(覆盖操作)
2,add操作,仅多多值域生效,给多值域添加一个内容
3,inc操作,对数值域进行一次自增操作,举个例子,原来的值是,10,这次
你inc=3,那么更新后的值就是13
在本文,散仙只介绍,以solrj的操作方式,如果想详细了解更多其他方式,比如json或xml的方式,请点击此处
具体的核心代码如下:
/**
* 原子更新方式
* */
public static void atomUpdate1Store()throws Exception{
SolrInputDocument sd = new SolrInputDocument();
sd.addField("id", "1");//根据id唯一标识
HashMap<String,String> map=new HashMap<String, String>();
map.put("add", "国际1");//放入支持的操作,对多值域管用
//map.put("set", "国际1");//放入支持的操作,对单值和多值域管用
//map.put("inc", "国际1");//放入支持的操作,对数值域管用
sd.addField("dname", map);
server.add(sd);
server.commit();
System.out.println("原子更新成功!");
}
分享到:
相关推荐
solr6.x_IK中文分词工具,solr6.x_IK中文分词工具,solr6.x_IK中文分词工具
solr.warsolr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包...
solr 6.x.x , ik 分词器, 可以实现对一段汉字进行分词处理, 支持配置扩展词语, 在分词时, 对特定词语不进行分词
solr更新到6.x的版本了,ik-analyzer-5.x.jar又不好使了。 无意间从"随-忆"的博客中看到了如何去修改源代码,从而让分词器能够适应6.x的版本,亲自尝试了一下,果然可以,于是奉上了自己重新编译的jar包。 6.x的版本...
这是属于Solr7.X版本的全量、增量更新jar包,有很多版本的这个jar包是没有更新过的,因为这个jar包是爱好者开发的,并不是官方维护,所以很难找到,我是用了两天才找到。
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。此包兼容solr7.x
网上有很多关于IKAnalyzer分词器的jar,但当我们使用solr 6.x进行配置的时候,就发现会各种各样的报错,最常出现的问题就是抽象方法错误,其实就是因为我们使用的IKAnalyzer版本和solr版本不匹配导致系统无法根据...
基于solr5.x版本,在此之上,已经配置了相应的jar包,IKAnalyzer中文分词器,和一个简单的solrHome.下载之后可以直接放到tomcat的webapps路径下启动tomcat就能运行看到效果了。
Mastering Apache Solr 7.x An expert guide to advancing, optimizing, and scaling your enterprise search 英文无水印转化版pdf pdf所有页面使用FoxitReader、PDF-XChangeViewer、SumatraPDF和Firefox测试都...
有 ik-analyzer-solr7以及5.5,买一赠一非常完美,下载就能用简单方便。
solr 5.x定时生成索引依赖jar
<fieldType name="text_ik" class="solr.TextField"> <!-- 使用智能分词 --> <analyzer type="index" class="org.wltea.analyzer.lucene.NotUseSmartIKAnalyzer"/> <!-- 使用智能分词 --> ...
solr定时索引使用到的定时调度器jar包, 可使用于solr7.x版本
solr4.X所用中文分词器jar,亲测可用,无需额外配置,解压后替换原有分词器jar及相关文件即可,文件及分词器说明解压后可见
在windows7级以上版本,使用tomcat中间件,部署solr7.x,并创建开发工程文档。为想用solr做全文索引的人一起学习交流一下。
ikanalyzer-solr5.zip ikanalyzer-solr5.zip ikanalyzer-solr5.zip
配置文件:<fieldType name="text_ik" class="solr.TextField"> <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" isIndistinct="true"/> <filter class="solr....
支持solr6.x的中文分词,对solr7的支持暂时没有测试过