标签:缓存 temp 实现 cache iter _. LRU key data
LRU缓存的实现有以下几个着重点:
1.缓存大小
2.被用的对象排到头
3.查询效率的问题。
最久未使用的对象被移除,即是在Put新对象时,size > capacity时,需要删除list尾部的数据,同时删除cache_中,并且把Put的对象放在list的头部
为了提高查询效率用map存放一个key值,只有当find的时候,效率高一点。
下面是简单的实现代码:
#pragma once
#include <iostream>
#include <map>
#include <list>
template<typename K, typename V>
struct Node {
K key_;
V val_;
};
template<typename K, typename V>
class LRUCache {
public:
using NodeType = Node<K,V>;
LRUCache(uint32_t cap): cap_(cap){}
~LRUCache() {
std::map<K, NodeType*> temp;
temp.swap(cache_);
while (!data_.empty()) {
auto o = data_.pop_back();
delete o;
}
cap_ = 0;
}
void Put(NodeType* node) {
//在cache_中查找
auto iter = cache_.find(node->key_);
if (iter == cache_.end()) {
NodeType *temp = new NodeType(node->key_, node->val_);
cache_[temp->key_] = temp;
data_.push_front(temp);
} else {
iter->second->value = node->val_;
data_.erase(iter->second);
data_.push_front(iter->second);
}
if (data_.size() > cap_) {
auto temp = data_.pop_back();
cache_.erase(temp->key);
delete temp;
}
}
NodeType * Get(K k) {
auto iter = cache_.find(node->key_);
if (iter == cache_.end()) {
return nullptr;
}
data_.erase(iter->second);
data_.push_front(iter->second);
return iter->second;
}
private:
std::list<NodeType*> data_;
uint32_t cap_ = 0;
std::map<K, NodeType*> cache_;
};
标签:缓存,temp,实现,cache,iter,_.,LRU,key,data 来源: https://blog.csdn.net/tomorrowCS/article/details/121150016
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。