当数据量猛增的时候,大家都会选择库表散列等等方式去优化数据读写速度。笔者做了一个简单的尝试,1亿条数据,分100张表。具体实现过程如下。
首先创建100张表:
英文代码 $i=0; |
下面说一下我的分表规则,full_code作为主键,我们对full_code做hash
函数如下:
英文代码 $table_name=get_hash_table('code',$full_code); function get_hash_table($table,$code,$s=100){ |
这样插入数据前通过get_hash_table获取数据存放的表名。
最后我们使用merge存储引擎来实现一张完整的code表
CREATE TABLE IF NOT EXISTS `code` ( |
这样我们通过select * from code就可以得到所有的full_code数据了。