🎇C++学习历程:入门
- 博客主页:一起去看日落吗
- 持续分享博主的C++学习历程
博主的能力有限,出现错误希望大家不吝赐教- 分享给大家一句我很喜欢的话: 也许你现在做的事情,暂时看不到成果,但不要忘记,树🌿成长之前也要扎根,也要在漫长的时光🌞中沉淀养分。静下来想一想,哪有这么多的天赋异禀,那些让你羡慕的优秀的人也都曾默默地翻山越岭🐾。
🍁 🍃 🍂 🌿
namespace Byih
{templatestruct HashNode{pair _kv;HashNode* _next;HashNode(const pair& kv):_kv(kv), _next(nullptr){}};size_t GetNextPrime(size_t prime){const int PRIMECOUNT = 28;static const size_t primeList[PRIMECOUNT] ={53ul, 97ul, 193ul, 389ul, 769ul,1543ul, 3079ul, 6151ul, 12289ul, 24593ul,49157ul, 98317ul, 196613ul, 393241ul, 786433ul,1572869ul, 3145739ul, 6291469ul, 12582917ul, 25165843ul,50331653ul, 100663319ul, 201326611ul, 402653189ul, 805306457ul,1610612741ul, 3221225473ul, 4294967291ul};size_t i = 0;for (; i < PRIMECOUNT; ++i){if (primeList[i] > prime)return primeList[i];}return primeList[i];}template>class HashTable{typedef HashNode Node;public:// 拷贝 和 赋值 需要自己实现桶的拷贝~HashTable(){for (size_t i = 0; i < _tables.size(); i++){Node* cur = _tables[i];while (cur){Node* next = cur->_next;delete cur;cur = next;}_tables[i] = nullptr;}_n = 0;}bool Erase(const K& key){if (_tables.size() == 0){return false;}Hash hf;// 素数size_t index = hf(key) % _tables.size();Node* prev = nullptr;Node* cur = _tables[index];while (cur){if (cur->_kv.first == key){// 1、cur是头结点// 2、非头节点if (prev == nullptr){_tables[index] = cur->_next;}else{prev->_next = cur->_next;}delete cur;--_n;return true;}else{prev = cur;cur = cur->_next;}}return false;}Node* Find(const K& key){if (_tables.size() == 0){return nullptr;}Hash hf;size_t index = hf(key) % _tables.size();Node* cur = _tables[index];while (cur){if (cur->_kv.first == key){return cur;}else{cur = cur->_next;}}return nullptr;}bool Insert(const pair& kv){Hash hf;//当负载因子到1时,进行扩容if (_n == _tables.size()){//size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;size_t newSize = GetNextPrime(_tables.size());//HashTable newHT;vector newtables;newtables.resize(newSize, nullptr);for (size_t i = 0; i < _tables.size(); ++i){Node* cur = _tables[i];while (cur){Node* next = cur->_next;size_t index = hf(cur->_kv.first) % newSize;cur->_next = newtables[index];newtables[index] = cur;cur = next;}_tables[i] = nullptr;}newtables.swap(_tables);}size_t index = hf(kv.first) % _tables.size();Node* cur = _tables[index];while (cur){if (cur->_kv.first == kv.first){return false;}else{cur = cur->_next;}}Node* newnode = new Node(kv);newnode->_next = _tables[index];_tables[index] = newnode;++_n;return true;}private:vector _tables;size_t _n = 0; // 存储多少有效数据};
}
K:关键码类型
V: 不同容器V的类型不同,如果是unordered_map,V代表一个键值对,如果是unordered_set,V为 K
KeyOfT: 在哈希表中需要取到value,因为V的类型不同,通过value取key的方式就不同,详细见unordered_map/set的实现
Hash: 哈希函数仿函数对象类型,哈希函数使用除留余数法,如果是Key为string类型,需要将Key转换为整形数字才能取模
template >
class HashBucket;
template
struct HashNode
{T _data;HashNode* _next;HashNode(const T& data):_data(data), _next(nullptr){}
};
如果是unordered_map,v代表一个键值对,如果是unordered_set,v为 K
当下一个节点不为空时,++后的节点就在当前桶,返回即可,当下一个节点为空时,我们需要找下一个桶,首先通过当前节点计算找到当前节点所在桶的位置index,计算出后,++index即找到了下一个桶,当下一个桶存在时,如果下一个桶里面有数据(即不为空),则将第一个数据给当前节点,就实现了++,否则继续找下一个桶,当循环出来时,有可能是找到++后的节点了,也有可能说明走完了后面没有桶了,所以循环出来需要判断是不是没有桶了,没有桶则返回nullptr
Self operator++()
{if (_node->_next) // 在当前桶迭代{_node = _node->_next;}else // 找下一个桶{KeyOfT kot;const K& key = kot(_node->_data);Hash hf;size_t index = hf(key) % _ht->_tables.size();++index;_node = nullptr;while (index < _ht->_tables.size()){if (_ht->_tables[index]){_node = _ht->_tables[index];break;}else{++index;}}// 后面没有桶了if (index == _ht->_tables.size()){_node = nullptr;}}return *this;
}
T& operator*()
{return _node->_data;
}
T* operator->()
{return &_node->_data;
}
bool operator!=(const Self& s) const
{return _node != s._node;
}bool operator==(const Self& s) const
{return _node == s._node;
}
namespace Byih
{templatestruct HashNode{T _data;HashNode* _next;HashNode(const T& data):_data(data), _next(nullptr){}};size_t GetNextPrime(size_t prime){const int PRIMECOUNT = 28;static const size_t primeList[PRIMECOUNT] ={53ul, 97ul, 193ul, 389ul, 769ul,1543ul, 3079ul, 6151ul, 12289ul, 24593ul,49157ul, 98317ul, 196613ul, 393241ul, 786433ul,1572869ul, 3145739ul, 6291469ul, 12582917ul, 25165843ul,50331653ul, 100663319ul, 201326611ul, 402653189ul, 805306457ul,1610612741ul, 3221225473ul, 4294967291ul};size_t i = 0;for (; i < PRIMECOUNT; ++i){if (primeList[i] > prime)return primeList[i];}return primeList[i];}// 前置声明templateclass HashTable;templatestruct HTIterator{typedef HashNode Node;typedef HashTable HT;typedef HTIterator Self;Node* _node;HT* _ht;HTIterator(Node* node, HT* ht):_node(node), _ht(ht){}bool operator!=(const Self& s) const{return _node != s._node;}T& operator*(){return _node->_data;}T* operator->(){return &_node->_data;}Self operator++(){if (_node->_next) // 在当前桶迭代{_node = _node->_next;}else // 找下一个桶{KeyOfT kot;const K& key = kot(_node->_data);Hash hf;size_t index = hf(key) % _ht->_tables.size();++index;_node = nullptr;while (index < _ht->_tables.size()){if (_ht->_tables[index]){_node = _ht->_tables[index];break;}else{++index;}}// 后面没有桶了if (index == _ht->_tables.size()){_node = nullptr;}}return *this;}};template>class HashTable{typedef HashNode Node;//templatefriend struct HTIterator;public:typedef HTIterator iterator;iterator begin(){for (size_t i = 0; i < _tables.size(); ++i){if (_tables[i]){return iterator(_tables[i], this);}}return end();}iterator end(){return iterator(nullptr, this);}// 拷贝 和 赋值 需要自己实现桶的拷贝~HashTable(){for (size_t i = 0; i < _tables.size(); i++){Node* cur = _tables[i];while (cur){Node* next = cur->_next;delete cur;cur = next;}_tables[i] = nullptr;}_n;}bool Erase(const K& key){if (_tables.size() == 0){return false;}Hash hf;KeyOfT kot;// 素数size_t index = hf(key) % _tables.size();Node* prev = nullptr;Node* cur = _tables[index];while (cur){if (kot(cur->_data) == key){// 1、cur是头结点// 2、非头节点if (prev == nullptr){_tables[index] = cur->_next;}else{prev->_next = cur->_next;}delete cur;--_n;return true;}else{prev = cur;cur = cur->_next;}}return false;}Node* Find(const K& key){if (_tables.size() == 0){return nullptr;}Hash hf;KeyOfT kot;size_t index = hf(key) % _tables.size();Node* cur = _tables[index];while (cur){if (kot(cur->_data) == key){return cur;}else{cur = cur->_next;}}return nullptr;}bool Insert(const T& data){Hash hf;KeyOfT kot;//当负载因子到1时,进行扩容if (_n == _tables.size()){//size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;size_t newSize = GetNextPrime(_tables.size());//HashTable newHT;vector newtables;newtables.resize(newSize, nullptr);for (size_t i = 0; i < _tables.size(); ++i){Node* cur = _tables[i];while (cur){Node* next = cur->_next;const K& key = kot(cur->_data);size_t index = hf(key) % newSize;cur->_next = newtables[index];newtables[index] = cur;cur = next;}_tables[i] = nullptr;}newtables.swap(_tables);}const K& key = kot(data);size_t index = hf(key) % _tables.size();Node* cur = _tables[index];while (cur){if (kot(cur->_data) == kot(data)){return false;}else{cur = cur->_next;}}Node* newnode = new Node(data);newnode->_next = _tables[index];_tables[index] = newnode;++_n;return true;}private:vector _tables;size_t _n = 0; // 存储多少有效数据};
}
#pragma once
#include "HashTable.h"
namespace byh
{templateclass unordered_map{struct MapKeyOfT{const K& operator()(const pair& kv) const{return kv.first;}};public:iterator begin(){return _ht.begin();}iterator end(){return _ht.end();}//插入pair insert(const pair& kv){return _ht.Insert(kv);}//[]运算符重载V& operator[](const K& key){pair ret = insert(make_pair(key,V()));iterator it = ret.first;return it->second;}//删除bool erase(const K& key){return _ht.Erase(key);}//查找iterator find(const K& key){return _ht.Find(key);}private:Byih::HashTable, MapKeyOfT> _ht;};
}
实现unordered_map只需要调用底层哈希表对应的接口即可,实现unordered_set不一样的是它不需要实现[]运算符重载
所谓位图,就是用每一位来存放某种状态,适用于海量数据,数据无重复的场景。通常是用来判断某个数据存不存在的。适用于海量数据的状态:比如:40亿数据,需要16G内存;若用位图存放这些数据在不在的状态,只需要16/32G,约500M。
数据是否在给定的整形数据中,结果是在或者不在,刚好是两种状态,那么可以使用一个二进制比特位来代表数据是否存在的信息,如果二进制比特位为1,代表存在,为0代表不存在。比如:

主要应用:
主要接口:set(将某位设为1) reset(将某位设为0) test(判断某一位是否为1)
bitset<100> bs;//将某位设置为1bs.set(11);bs.set(5);bs.set(78);bs.set(23);bs.set(12);//将某位设置为0bs.reset(11);//判断某位是否为1for (size_t i = 0; i < 100; i++){//cout << i << ":" << bs.test(i) << " ";//if (i != 0 && i % 10 == 0)// cout << endl;if (bs.test(i) == 1)cout << i << " ";}cout << endl;
templateclass byh{public:BitSet(){_bits.resize(N / 32 + 1, 0);//默认构造,会对位图进行初始化}// 把x映射的位标记成1void Set(size_t x){assert(x < N);// 算出x映射的位在第i个整数// 算出x映射的位在这个整数的第j个位size_t i = x / 32;size_t j = x % 32;// _bits[i] 的第j位标记成1,并且不影响他的其他位_bits[i] |= (1 << j); //或等于//(1 << j)//00000001000000000}void Reset(size_t x){assert(x < N);size_t i = x / 32;size_t j = x % 32;// _bits[i] 的第j位标记成0,并且不影响他的其他位_bits[i] &= (~(1 << j)); //与等于//对 1 << j 取反就行//~(1 << j)//1111111101111111111 }bool Test(size_t x){assert(x < N);size_t i = x / 32;size_t j = x % 32;// 如果第j位是1,结果是非0,非0就是真// 如果第j为是0,结果是0,0就是假return _bits[i] & (1 << j);//直接把这一位取出来是1还是0//return (_bits[i] >> j) & 1;//这样写也可以}private:vector _bits;};
我们在使用新闻客户端看新闻时,它会给我们不停地推荐新的内容,它每次推荐时要去重,去掉那些已经看过的内容。问题来了,新闻客户端推荐系统如何实现推送去重的? 用服务器记录了用户看过的所有历史记录,当推荐系统推荐新闻时会从每个用户的历史记录里进行筛选,过滤掉那些已经存在的记录。 如何快速查找呢?
布隆过滤器是由布隆(Burton Howard Bloom)在1970年提出的 一种紧凑型的、比较巧妙的概率型数据结构,特点是高效地插入和查询,可以用来告诉你 “某样东西一定不存在或者可能存在”,它是用多个哈希函数,将一个数据映射到位图结构中。此种方式不仅可以提升查询效率,也可以节省大量的内存空间。

原理讲解
//布隆过滤器实际上是对位图的改进,所以实现上也是对位图的封装,一般只提供set和test接口,不能实现reset(删除)
template
//后面几个是字符串哈希函数的仿函数
class BloomFilter
{
public:void Set(const K& key){//Hash1 hf1;//size_t i1 = hf1(key);//以下写法也可以size_t i1 = Hash1()(key) % N;//Hash1()是仿函数的匿名对象size_t i2 = Hash2()(key) % N;size_t i3 = Hash3()(key) % N;cout << i1 << " " << i2 << " " << i3 << endl;_bitset.Set(i1);_bitset.Set(i2);_bitset.Set(i3);}bool Test(const K& key)//判断是否存在{size_t i1 = Hash1()(key) % N;if (_bitset.Test(i1) == false){return false;}size_t i2 = Hash2()(key) % N;if (_bitset.Test(i2) == false){return false;}size_t i3 = Hash3()(key) % N;if (_bitset.Test(i3) == false){return false;}// 这里3个位都在,有可能是其他key占了,在是不准确的,存在误判// 不在是准确的return true;}private:byh::BitSet _bitset; // 对位图的封装//byh::vector _bitset;
};
给两个文件,分别有100亿个整数,我们只有1G内存,如何找到两个文件交集?
思路:100亿的整数范围还是42亿,因此用一个位图来存储只需要512M
将一个文件映射到位图中,再依次读取另一个文件的数据,看在不在位图中,在就是交集;或者构建两个位图,求他们的交集;
给定100亿个整数,设计算法找到只出现一次的整数?
思路:用位图的思想,一个bit位能表示两种状态,这里至少是3种状态,因此需要两个bit位00表示没出现;01表示只出现一次;10表示出现过2次及以上;将所有数插入位图中,然后遍历位图,找出标志位01的位即为所求
哈希切分的原理:就是将一个大文件,利用哈希的原理(i = Hash()(ip) % 100, i表示小文件的编号),将其分为若干个小文件。
哈希切割的特点:相同的ip一定进入了同一个小文件当中。
给两个文件,分别有100亿个query,我们只有1G内存,如何找到两个文件交集?分别给出精确算法和近似算法
给一个超过100G大小的log file, log中存着IP地址, 设计算法找到出现次数最多的IP地址?
与上题条件相同,如何找到top K的IP?如何直接用Linux系统命令实现?
思路:哈希切分,切分成100个小文件(相同的ip一定进入了同一个小文件)然后只需统计各个小文件各个ip的频次(比如用一个map

下一篇:如何实现外网访问API接口