过程简略: url去重的方法,数据库四种隔离级别,乐观锁悲观锁,算法题研讨。算法讨论占了很长时间,以下是把这个过程沉淀后的一遍随笔。
leetcode算法题:146. LRU缓存机制¶
https://leetcode-cn.com/problems/lru-cache/
运用你所掌握的数据结构,设计和实现一个 LRU (最近最少使用) 缓存机制。它应该支持以下操作: 获取数据 get 和 写入数据 put 。
获取数据 get(key) - 如果密钥 (key) 存在于缓存中,则获取密钥的值(总是正数),否则返回 -1。
写入数据 put(key, value) - 如果密钥不存在,则写入其数据值。当缓存容量达到上限时,它应该在写入新数据之前删除最近最少使用的数据值,从而为新的数据值留出空间。
进阶:
你是否可以在 O(1) 时间复杂度内完成这两种操作?
示例:
LRUCache cache = new LRUCache( 2 /* 缓存容量 */ );
cache.put(1, 1);
cache.put(2, 2);
cache.get(1); // 返回 1
cache.put(3, 3); // 该操作会使得密钥 2 作废
cache.get(2); // 返回 -1 (未找到)
cache.put(4, 4); // 该操作会使得密钥 1 作废
cache.get(1); // 返回 -1 (未找到)
cache.get(3); // 返回 3
cache.get(4); // 返回 4
思考过程简要¶
第一次遇到,没有做好题。之后总结思考如下。面试完重新整理好代码,才通过。
1、数据结构知识弱,链表随机增删复杂度O(1), 数组复杂度O(n)。使用按时间排序的双向链表。头部总是最新访问或插入的,尾巴总是最老的。使用额外maxsize限制大小,nowsize记录目前大小。
2、链表元素是key-val的进一步封装的Node类。链表是另一个类,类总head和tail表示头尾两个空的node。一直不删。
3、开头想到最小堆,用得不对。二分法等比较查找下限O(lgN),与哈希法的O(1)差距意识不明显。而哈希函数用内置字典即可。
4、拆分小函数复用代码。比如get = 出链 + 插入头部, put = 出链 + 插入头部(update) 或者 插入头部(非update)
5、之后发现python有functools.lru_cache的现成实现,值得学习。
leetcode通过提交的代码¶
class Node:
def __init__(self, key=None, val=None):
self.key = key
self.val = val
self.prev = None
self.next = None
class LRUCache:
'''
小函数: 删node,入head
注意:head和tail是空的node,不能删除
'''
def __init__(self, maxsize=10):
self.maxsize = maxsize
self.nowsize = 0
self.head = Node()
self.tail = Node()
self.tail.prev = self.head
self.head.next = self.tail
# key -> nodes.val
self.nodes = {}
def get(self, key):
node = self.nodes.get(key, None)
if node != None:
# 2019-08-21面试时加的要求
self.popNode(node)
self.addNode(node)
return node.val
else:
return -1
def put(self, key, val):
self.set(key, val)
def set(self, key, val):
node = self.nodes.get(key, None)
if node != None:
# 在链表中,update操作
self.popNode(node) #
self.addNode(Node(key, val))
def delete(self, key):
node = self.nodes.get(key, None)
if node != None:
self.popNode(node)
def popNode(self, node):
if node.val == None:
return
# 使用head和tail为空node时无需检查
# if node.next:
# node.next.prev = node.prev
# else:
# self.tail = node.next
# if node.prev:
# node.prev.next = node.next
# else:
# self.head = node.next
node.next.prev = node.prev
node.prev.next = node.next
self.nowsize -= 1
# 字典更新
del self.nodes[node.key]
return node
def addNode(self, node):
# 总在链表头加入
if node.val == None:
return
if self.nowsize >= self.maxsize:
# 满了,就去掉尾巴再插入
self.popNode(self.tail.prev)
node.next = self.head.next
node.prev = self.head
self.head.next.prev = node
self.head.next = node # 费时的debug错误:这句之后[['c', 12]] -> []
self.nowsize += 1
# 字典增加
self.nodes[node.key] = node
@property
def vals(self): # debug
# node = self.head # 错误:发现用时15分钟
node = self.head.next
_vals = []
# while node.val: # 2019-08-21大坑,node.val = 0时会失败!费了1小时!!!
while node != None and node.val != None:
_vals.append([node.key,node.val])
node = node.next
return _vals
def pprint(self): # debug
print(self.vals, flush=True)
if __name__ == '__main__':
lru = LRUCache(3)
lru.set('b', 12)
lru.pprint()
print('stage end: -----------------')
lru.set('a', 12)
lru.set('d', 12)
lru.set('c', 12)
lru.pprint()
print('stage end: -----------------')
print(lru.get('a'))
print('stage end: -----------------')
lru.delete('a')
lru.pprint()
print('stage end: -----------------')
lru.set('d', 0)
lru.pprint()
print('stage end: -----------------')
# leetcode的测试用例
cache = LRUCache(2)
cache.put(1, 1);
cache.put(2, 2);
cache.get(1); # 返回 1
cache.pprint()
cache.put(3, 3); # 该操作会使得密钥 2 作废
cache.pprint()
cache.get(2); # 返回 -1 (未找到)
cache.pprint()
cache.put(4, 4); # 该操作会使得密钥 1 作废
cache.get(1); # 返回 -1 (未找到)
cache.pprint()
cache.get(3); # 返回 3
cache.get(4); # 返回 4
参考¶
-
leetcode算法题:146. LRU缓存机制 https://leetcode-cn.com/problems/lru-cache/
-
Python 缓存机制与 functools.lru_cache http://blog.konghy.cn/2016/04/20/python-cache/
原文出自Pythonwood发表的https://blog.pythonwood.com/2019/08/面试高频题-LRU缓存的python实现/
扩展阅读
- 微信公众平台开发(免费云BAE+高效优雅的Python+网站开放的API)
- 寒假挑战PythonTip(一人一python)总结——算法是程序的灵魂,程序员的心法
- 威佐夫博弈:取石子游戏算法——挑战PythonTip