springboot结合redis实现搜索栏热搜功能及文字过滤

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

springboot结合redis实现搜索栏热搜功能及⽂字过滤使⽤java和redis实现⼀个简单的热搜功能,具备以下功能:
1:搜索栏展⽰当前登陆的个⼈⽤户的搜索历史记录,删除个⼈历史记录
2:⽤户在搜索栏输⼊某字符,则将该字符记录下来以zset格式存储的redis中,记录该字符被搜索的个数以及当前的时间戳(⽤了DFA算法,感兴趣的⾃⼰百度学习吧)
3:每当⽤户查询了已在redis存在了的字符时,则直接累加个数,⽤来获取平台上最热查询的⼗条数据。

(可以⾃⼰写接⼝或者直接在redis中添加⼀些预备好的关键词)
4:最后还要做不雅⽂字过滤功能。

这个很重要不说了你懂的。

代码实现热搜与个⼈搜索记录功能,主要controller层下⼏个⽅法就⾏了:
1:向redis 添加热搜词汇(添加的时候使⽤下⾯不雅⽂字过滤的⽅法来过滤下这个词汇,合法再去存储
2:每次点击给相关词热度 +1
3:根据key搜索相关最热的前⼗名
4:插⼊个⼈搜索记录
5:查询个⼈搜索记录
⾸先配置好redis数据源等等基础(不熟悉的看我另⼀篇博客,redis多数据元配置)
最后贴上核⼼的服务层的代码:
package com.****.****.****.user;
import er.RedisService;
import ng.StringUtils;
import org.springframework.data.redis.core.*;
import org.springframework.stereotype.Service;
import javax.annotation.Resource;
import java.util.*;
import java.util.concurrent.TimeUnit;
/**
* @author: mrwanghc
* @date: 2020/5/13
* @description:
*/
@Transactional
@Service("redisService")
public class RedisServiceImpl implements RedisService {
//导⼊数据源
@Resource(name = "redisSearchTemplate")
private StringRedisTemplate redisSearchTemplate;
//新增⼀条该userid⽤户在搜索栏的历史记录
//searchkey 代表输⼊的关键词
@Override
public int addSearchHistoryByUserId(String userid, String searchkey) {
String shistory = RedisKeyUtils.getSearchHistoryKey(userid);
boolean b = redisSearchTemplate.hasKey(shistory);
if (b) {
Object hk = redisSearchTemplate.opsForHash().get(shistory, searchkey);
if (hk != null) {
return 1;
}else{
redisSearchTemplate.opsForHash().put(shistory, searchkey, "1");
}
}else{
redisSearchTemplate.opsForHash().put(shistory, searchkey, "1");
}
return 1;
}
//删除个⼈历史数据
@Override
public Long delSearchHistoryByUserId(String userid, String searchkey) {
String shistory = RedisKeyUtils.getSearchHistoryKey(userid);
return redisSearchTemplate.opsForHash().delete(shistory, searchkey);
}
//获取个⼈历史数据列表
@Override
public List<String> getSearchHistoryByUserId(String userid) {
List<String> stringList = null;
String shistory = RedisKeyUtils.getSearchHistoryKey(userid);
boolean b = redisSearchTemplate.hasKey(shistory);
if(b){
Cursor<Map.Entry<Object, Object>> cursor = redisSearchTemplate.opsForHash().scan(shistory, ScanOptions.NONE); while (cursor.hasNext()) {
Map.Entry<Object, Object> map = cursor.next();
String key = map.getKey().toString();
stringList.add(key);
}
return stringList;
}
return null;
}
//新增⼀条热词搜索记录,将⽤户输⼊的热词存储下来
@Override
public int incrementScoreByUserId(String searchkey) {
Long now = System.currentTimeMillis();
ZSetOperations zSetOperations = redisSearchTemplate.opsForZSet();
ValueOperations<String, String> valueOperations = redisSearchTemplate.opsForValue();
List<String> title = new ArrayList<>();
title.add(searchkey);
for (int i = 0, lengh = title.size(); i < lengh; i++) {
String tle = title.get(i);
try {
if (zSetOperations.score("title", tle) <= 0) {
zSetOperations.add("title", tle, 0);
valueOperations.set(tle, String.valueOf(now));
}
} catch (Exception e) {
zSetOperations.add("title", tle, 0);
valueOperations.set(tle, String.valueOf(now));
}
}
return 1;
}
//根据searchkey搜索其相关最热的前⼗名 (如果searchkey为null空,则返回redis存储的前⼗最热词条)
@Override
public List<String> getHotList(String searchkey) {
String key = searchkey;
Long now = System.currentTimeMillis();
List<String> result = new ArrayList<>();
ZSetOperations zSetOperations = redisSearchTemplate.opsForZSet();
ValueOperations<String, String> valueOperations = redisSearchTemplate.opsForValue();
Set<String> value = zSetOperations.reverseRangeByScore("title", 0, Double.MAX_VALUE);
//key不为空的时候推荐相关的最热前⼗名
if(StringUtils.isNotEmpty(searchkey)){
for (String val : value) {
if (StringUtils.containsIgnoreCase(val, key)) {
if (result.size() > 9) {//只返回最热的前⼗名
break;
}
Long time = Long.valueOf(valueOperations.get(val));
if ((now - time) < 2592000000L) {//返回最近⼀个⽉的数据
result.add(val);
} else {//时间超过⼀个⽉没搜索就把这个词热度归0
zSetOperations.add("title", val, 0);
}
}
}
}else{
for (String val : value) {
if (result.size() > 9) {//只返回最热的前⼗名
break;
}
Long time = Long.valueOf(valueOperations.get(val));
if ((now - time) < 2592000000L) {//返回最近⼀个⽉的数据
result.add(val);
} else {//时间超过⼀个⽉没搜索就把这个词热度归0
zSetOperations.add("title", val, 0);
}
}
}
return result;
}
//每次点击给相关词searchkey热度 +1
@Override
public int incrementScore(String searchkey) {
String key = searchkey;
Long now = System.currentTimeMillis();
ZSetOperations zSetOperations = redisSearchTemplate.opsForZSet();
ValueOperations<String, String> valueOperations = redisSearchTemplate.opsForValue();
zSetOperations.incrementScore("title", key, 1);
valueOperations.getAndSet(key, String.valueOf(now));
return 1;
}
}
核⼼的部分写完了,剩下的需要你⾃⼰将如上⽅法融⼊到你⾃⼰的代码中就⾏了。

代码实现过滤不雅⽂字功能,在springboot ⾥⾯写⼀个配置类加上@Configuration注解,在项⽬启动的时候加载⼀下,代码如下:
package com.***.***.interceptor;
import org.springframework.context.annotation.Configuration;
import org.springframework.core.io.ClassPathResource;
import java.io.*;
import java.util.HashMap;
import java.util.HashSet;
import java.util.Map;
import java.util.Set;
//屏蔽敏感词初始化
@Configuration
@SuppressWarnings({ "rawtypes", "unchecked" })
public class SensitiveWordInit {
// 字符编码
private String ENCODING = "UTF-8";
// 初始化敏感字库
public Map initKeyWord() throws IOException {
// 读取敏感词库 ,存⼊Set中
Set<String> wordSet = readSensitiveWordFile();
// 将敏感词库加⼊到HashMap中//确定有穷⾃动机DFA
return addSensitiveWordToHashMap(wordSet);
}
// 读取敏感词库 ,存⼊HashMap中
private Set<String> readSensitiveWordFile() throws IOException {
Set<String> wordSet = null;
ClassPathResource classPathResource = new ClassPathResource("static/censorword.txt");
InputStream inputStream = classPathResource.getInputStream();
//敏感词库
try {
// 读取⽂件输⼊流
InputStreamReader read = new InputStreamReader(inputStream, ENCODING);
// ⽂件是否是⽂件和是否存在
wordSet = new HashSet<String>();
// StringBuffer sb = new StringBuffer();
// BufferedReader是包装类,先把字符读到缓存⾥,到缓存满了,再读⼊内存,提⾼了读的效率。

BufferedReader br = new BufferedReader(read);
String txt = null;
// 读取⽂件,将⽂件内容放⼊到set中
while ((txt = br.readLine()) != null) {
wordSet.add(txt);
// 关闭⽂件流
read.close();
} catch (Exception e) {
e.printStackTrace();
}
return wordSet;
}
// 将HashSet中的敏感词,存⼊HashMap中
private Map addSensitiveWordToHashMap(Set<String> wordSet) {
// 初始化敏感词容器,减少扩容操作
Map wordMap = new HashMap(wordSet.size());
for (String word : wordSet) {
Map nowMap = wordMap;
for (int i = 0; i < word.length(); i++) {
// 转换成char型
char keyChar = word.charAt(i);
// 获取
Object tempMap = nowMap.get(keyChar);
// 如果存在该key,直接赋值
if (tempMap != null) {
nowMap = (Map) tempMap;
}
// 不存在则,则构建⼀个map,同时将isEnd设置为0,因为他不是最后⼀个 else {
// 设置标志位
Map<String, String> newMap = new HashMap<String, String>();
newMap.put("isEnd", "0");
// 添加到集合
nowMap.put(keyChar, newMap);
nowMap = newMap;
}
// 最后⼀个
if (i == word.length() - 1) {
nowMap.put("isEnd", "1");
}
}
}
return wordMap;
}
}
然后这是⼯具类代码:
package com.***.***.interceptor;
import java.io.IOException;
import java.util.HashSet;
import java.util.Iterator;
import java.util.Map;
import java.util.Set;
//敏感词过滤器:利⽤DFA算法进⾏敏感词过滤
public class SensitiveFilter {
//敏感词过滤器:利⽤DFA算法进⾏敏感词过滤
private Map sensitiveWordMap = null;
// 最⼩匹配规则
public static int minMatchType = 1;
// 最⼤匹配规则
public static int maxMatchType = 2;
// 单例
private static SensitiveFilter instance = null;
// 构造函数,初始化敏感词库
private SensitiveFilter() throws IOException {
sensitiveWordMap = new SensitiveWordInit().initKeyWord();
}
// 获取单例
public static SensitiveFilter getInstance() throws IOException {
if (null == instance) {
instance = new SensitiveFilter();
}
// 获取⽂字中的敏感词
public Set<String> getSensitiveWord(String txt, int matchType) {
Set<String> sensitiveWordList = new HashSet<String>();
for (int i = 0; i < txt.length(); i++) {
// 判断是否包含敏感字符
int length = CheckSensitiveWord(txt, i, matchType);
// 存在,加⼊list中
if (length > 0) {
sensitiveWordList.add(txt.substring(i, i + length));
// 减1的原因,是因为for会⾃增
i = i + length - 1;
}
}
return sensitiveWordList;
}
// 替换敏感字字符
public String replaceSensitiveWord(String txt, int matchType,
String replaceChar) {
String resultTxt = txt;
// 获取所有的敏感词
Set<String> set = getSensitiveWord(txt, matchType);
Iterator<String> iterator = set.iterator();
String word = null;
String replaceString = null;
while (iterator.hasNext()) {
word = iterator.next();
replaceString = getReplaceChars(replaceChar, word.length());
resultTxt = resultTxt.replaceAll(word, replaceString);
}
return resultTxt;
}
/**
* 获取替换字符串
*
* @param replaceChar
* @param length
* @return
*/
private String getReplaceChars(String replaceChar, int length) {
String resultReplace = replaceChar;
for (int i = 1; i < length; i++) {
resultReplace += replaceChar;
}
return resultReplace;
}
/**
* 检查⽂字中是否包含敏感字符,检查规则如下:<br>
* 如果存在,则返回敏感词字符的长度,不存在返回0
* @param txt
* @param beginIndex
* @param matchType
* @return
*/
public int CheckSensitiveWord(String txt, int beginIndex, int matchType) { // 敏感词结束标识位:⽤于敏感词只有1位的情况
boolean flag = false;
// 匹配标识数默认为0
int matchFlag = 0;
Map nowMap = sensitiveWordMap;
for (int i = beginIndex; i < txt.length(); i++) {
char word = txt.charAt(i);
// 获取指定key
nowMap = (Map) nowMap.get(word);
// 存在,则判断是否为最后⼀个
if (nowMap != null) {
// 找到相应key,匹配标识+1
matchFlag++;
// 如果为最后⼀个匹配规则,结束循环,返回匹配标识数
if ("1".equals(nowMap.get("isEnd"))) {
// 结束标志位为true
flag = true;
// 最⼩规则,直接返回,最⼤规则还需继续查找
if (SensitiveFilter.minMatchType == matchType) {
break;
}
}
}
// 不存在,直接返回
else {
break;
}
}
if (SensitiveFilter.maxMatchType == matchType){
if(matchFlag < 2 || !flag){ //长度必须⼤于等于1,为词
matchFlag = 0;
}
}
if (SensitiveFilter.minMatchType == matchType){
if(matchFlag < 2 && !flag){ //长度必须⼤于等于1,为词
matchFlag = 0;
}
}
return matchFlag;
}
}
在你代码的controller层直接调⽤⽅法判断即可:
//⾮法敏感词汇判断
SensitiveFilter filter = SensitiveFilter.getInstance();
int n = filter.CheckSensitiveWord(searchkey,0,1);
if(n > 0){ //存在⾮法字符
("这个⼈输⼊了⾮法字符--> {},不知道他到底要查什么~ userid--> {}",searchkey,userid);
return null;
}
也可将敏感⽂字替换*等字符:
SensitiveFilter filter = SensitiveFilter.getInstance();
String text = "敏感⽂字";
String x = filter.replaceSensitiveWord(text, 1, "*");
最后刚才的 SensitiveWordInit.java ⾥⾯⽤到了 censorword.text ⽂件,放到你项⽬⾥⾯的 resources ⽬录下的 static ⽬录中,这个⽂件就是不雅⽂字⼤全,也需要您与时俱进的更新,项⽬启动的时候会加载该⽂件。

可以⾃⼰百度下载这个东西很多的。

我就不贴链接了,贴了能会被禁⽤和⽆法访问该链接
到此这篇关于springboot结合redis实现搜索栏热搜功能及⽂字过滤的⽂章就介绍到这了,更多相关springboot redis搜索栏热搜内容请搜索以前的⽂章或继续浏览下⾯的相关⽂章希望⼤家以后多多⽀持!。

相关文档
最新文档