基于 HanLP 的 Elasticsearch 中文分词插件,核心功能: 兼容 ES 5.x-7.x;内置词典,无需额外配置即可使用;支持用户自定义词典;支持远程词典热更新(待开发);内置多种分词模式,适合不同场景;拼音过滤器(待开发);简繁体转换过滤器(待开发)。 版本插件版本和 ES 版本一致,直接下载对应版本的插件进行安
转自一个很不错的博客,结合自己的理解,记录一下。 作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 欢迎转载,也请保留这段声明。谢谢! https://www.cnblogs.com/zhbzz2007/p/6076246.html?utm_source=itdadao&utm_medium=referral https://blog.csdn.net/baidu_33718858/artic
GoldenDict官网已经停止了维护,软件版本很老。 可以通过sourceforge下载最新的版本,建议下载.zip或.7z文件,绿色解压即用。 解压后放在某个盘即可,然后在GoldenDict的根目录下新建一个portable文件夹。 以后将所有新的词典都放在content文件夹中。 其他问题: 添加谷歌翻译 如何翻
<!DOCTYPE html><html> <head><meta charset="UTF-8"><meta name="keywords" content="有道, 搜索, 词典, 翻译, 云笔记, 笔记, 惠惠网, 惠惠购物助手, 购物搜索, 图片搜索, 视频搜索, 新闻搜索, 网易有道, 在线翻译, 专业翻译"> <meta name="des
续前文浏览器插件实现GitHub代码翻译原型演示, 通过调用浏览器插件-离线英汉词典的批量查词接口, 实现了源码的初步命名直译. 源码库仍在: program-in-chinese/webextension_github_code_translator 还缺失的功能: 驼峰命名法拆分. 比如图中所示, BasicCalculator未翻译. 语言关键
中文分词之正向最大匹配法 逆向最大匹配法 双向最大匹配法 1.正向最大匹配法: 摘自link 分词算法设计中的几个基本原则: 1、颗粒度越大越好:用于进行语义分析的文本分词,要求分词结果的颗粒度越大,即单词的字数越多,所能表示的含义越确切,如:“公安局长”可以分为“公安 局长”、“公安
首先附上源码''' 破解有道词典版本二,加salt,sign首先,把fanyi.minni.js中的Response代码复制到txt文件中,通过查找功能找到salt,signsalt:i="" + (new Date).getTime()+parseInt(10 * Math.random(), 10)sign:n.md5("fanyideskweb" + e + i + "p09@Bn{h02_BIEe]$P^nG"
过程分析1.添加新词需要确定无缓存文件,否则无法使用成功,因为词典会优先加载缓存文件2.再确认缓存文件不在时,打开本地词典按照格式添加自定义词汇。3.调用分词函数重新生成缓存文件,这时会报一个找不到缓存文件的异常,不用管,因为加载词典进入内存是会优先加载缓存,缓存不在当然会报异常