mongo 固定集合,大文件存储,简单优化 + 三招解决MongoDB的磁盘IO问题
1.固定集合> db.createCollection('c1',{capped:true, size:100000, max:3});//固定集合必须显式创建。 设置capped为true, 集合总大小xxx字节, [集合中json个数max]
{ "ok" : 1 }
> db.c1.stats()
{
"ns" : "test.c1",
"count" : 0,
"size" : 0,
"storageSize" : 102400,
"numExtents" : 1,
"nindexes" : 0,
"lastExtentSize" : 102400,
"paddingFactor" : 1,
"flags" : 0,
"totalIndexSize" : 0,
"indexSizes" : {
},
"capped" : 1,
"max" : 3,
"ok" : 1
}
> db.c1.insert({name:'1'});
> db.c1.insert({name:'2'});
> db.c1.insert({name:'3'});
> db.c1.find()
{ "_id" : ObjectId("51e28837cf05e15d315aa74a"), "name" : "1" }
{ "_id" : ObjectId("51e28839cf05e15d315aa74b"), "name" : "2" }
{ "_id" : ObjectId("51e2883dcf05e15d315aa74c"), "name" : "3" }
> db.c1.insert({name:'4'});
> db.c1.find()
{ "_id" : ObjectId("51e28839cf05e15d315aa74b"), "name" : "2" }
{ "_id" : ObjectId("51e2883dcf05e15d315aa74c"), "name" : "3" }
{ "_id" : ObjectId("51e28845cf05e15d315aa74d"), "name" : "4" }
普通集合转化为 固定集合
> db.runCommand({convertToCapped:'c1', size:1000000});
{ "ok" : 1 }
2.GridFS 存储大文件。 视频,大图片...
GrdiFS使用两个表来存储数据:
files 包含元数据对象
chunks 包含其他一些相关信息的二进制块.
3.性能优化
> db.c1.find().explain()//查看执行效率
{
"cursor" : "ForwardCappedCursor",
"nscanned" : 3, //扫描集合中文档次数
"nscannedObjects" : 3,
"n" : 3,
"millis" : 0,
"nYields" : 0,
"nChunkSkips" : 0,
"isMultiKey" : false,
"indexOnly" : false,
"indexBounds" : {
}
}
3.1建立索引
> db.c1.ensureIndex({name:1}, {background:true});//后台建立索引
> db.c1.getIndexKeys();//简单的查看索引 元素
[ { "name" : 1 } ]
> db.c1.getIndexes();//查看索引 详细信息
[
{
"v" : 1,
"key" : {
"name" : 1
},
"ns" : "test.c1",
"name" : "name_1",
"background" : true
}
]
> db.c1.find({name:'3'}).explain()
{
"cursor" : "BtreeCursor name_1",
"nscanned" : 1,//只查询一次
"nscannedObjects" : 1,
"n" : 1,
"millis" : 0,
"nYields" : 0,
"nChunkSkips" : 0,
"isMultiKey" : false,
"indexOnly" : false,
"indexBounds" : {
"name" : [
[
"3",
"3"
]
]
}
}
建立唯一索引:
> db.c2.ensureIndex({age:1}, {unique:1}, {background:1});//唯一索引, 索引值不得重复。
删除索引:
> db.c2.dropIndex({age:1});
{ "nIndexesWas" : 2, "ok" : 1 }
db.c2.dropIndexes(); //删除所有索引,除_id索引外
3.2限定返回行数, 设定返回字段数, 将集合转为固定集合
性能监控:
mongosniff --source
随着时间增长存取速度慢下来,明显感觉到。遂进行一下优化:
三招解决MongoDB的磁盘IO问题 转载
有点标题党的意思,不过下面三招确实比较实用,内容来自Conversocial公司的VP Colin Howe在London MongoDB用户组的一个分享。
申请:下面几点并非放四海皆准的法则,具体是否能够使用,还需要根据自己的应用场景和数据特点来决定。
1.使用组合式的大文档
我们知道MongoDB是一个文档数据库,其每一条记录都是一个JSON格式的文档。比如像下面的例子,每一天会生成一条这样的统计数据:
{ metric: "content_count", client: 5, value: 51, date: ISODate("2012-04-01 13:00") }
{ metric: "content_count", client: 5, value: 49, date: ISODate("2012-04-02 13:00") }
而如果采用组合式大文档的话,就可以这样将一个月的数据全部存到一条记录里:
{ metric: "content_count", client: 5, month: "2012-04", 1: 51, 2: 49, ... }
通过上面两种方式存储,预先一共存储大约7GB的数据(机器只有1.7GB的内存),测试读取一年信息,这二者的读性能差别很明显:
第一种: 1.6秒
第二种: 0.3秒
那么问题在哪里呢?
实际上原因是组合式的存储在读取数据的时候,可以读取更少的文档数量。而读取文档如果不能完全在内存中的话,其代价主要是被花在磁盘seek上,第一种存储方式在获取一年数据时,需要读取的文档数更多,所以磁盘seek的数量也越多。所以更慢。
实际上MongoDB的知名使用者foursquare就大量采用这种方式来提升读性能。见此
2.采用特殊的索引结构
我们知道,MongoDB和传统数据库一样,都是采用B树作为索引的数据结构。对于树形的索引来说,保存热数据使用到的索引在存储上越集中,索引浪费掉的内存也越小。所以我们对比下面两种索引结构:
db.metrics.ensureIndex({ metric: 1, client: 1, date: 1})
与
db.metrics.ensureIndex({ date: 1, metric: 1, client: 1 })
采用这两种不同的结构,在插入性能上的差别也很明显。
当采用第一种结构时,数据量在2千万以下时,能够基本保持10k/s 的插入速度,而当数据量再增大,其插入速度就会慢慢降低到2.5k/s,当数据量再增大时,其性能可能会更低。
而采用第二种结构时,插入速度能够基本稳定在10k/s。
其原因是第二种结构将date字段放在了索引的第一位,这样在构建索引时,新数据更新索引时,不是在中间去更新的,只是在索引的尾巴处进行修改。那些插入时间过早的索引在后续的插入操作中几乎不需要进行修改。而第一种情况下,由于date字段不在最前面,所以其索引更新经常是发生在树结构的中间,导致索引结构会经常进行大规模的变化。
3.预留空间
与第1点相同,这一点同样是考虑到传统机械硬盘的主要操作时间是花在磁盘seek操作上。
比如还是拿第1点中的例子来说,我们在插入数据的时候,预先将这一年的数据需要的空间都一次性插入。这能保证我们这一年12个月的数据是在一条记录中,是顺序存储在磁盘上的,那么在读取的时候,我们可能只需要一次对磁盘的顺序读操作就能够读到一年的数据,相比前面的12次读取来说,磁盘seek也只有一次。
db.metrics.insert([
{ metric: 'content_count', client: 3, date: '2012-01', 0: 0, 1: 0, 2: 0, ... }
{ .................................., date: '2012-02', ... })
{ .................................., date: '2012-03', ... })
{ .................................., date: '2012-04', ... })
{ .................................., date: '2012-05', ... })
{ .................................., date: '2012-06', ... })
{ .................................., date: '2012-07', ... })
{ .................................., date: '2012-08', ... })
{ .................................., date: '2012-09', ... })
{ .................................., date: '2012-10', ... })
{ .................................., date: '2012-11', ... })
{ .................................., date: '2012-12', ... })
])
结果:
如果不采用预留空间的方式,读取一年的记录需要62ms
如果采用预留空间的方式,读取一年的记录只需要6.6ms
页:
[1]