大家见过最恐怖的数据库表多大,增幅如何,这里我们只说关系数据库。。。
本帖最后由 雪候鸟 于 2013-10-29 23:59 编辑我最近的工作主要是查询性能优化,有一个价目表,单表每天平均插入两2千万条记录。这是我见过最大增幅的表{:7_433:} 。大家有没有更恐怖的。。。
***************************
估计是我上下文没有交代清楚。我补充一下,没有性能问题,也不需要什么性能方案,就是觉得这个需求不常见。 2千万条记录 有一天的时间来插入,一天24小时,一小时3600秒。可以先插入,等到达IO瓶颈后,开始队列它,然后一段一段的插入,完全不是问题。 mandriva 发表于 2013-10-29 21:21
2千万条记录 有一天的时间来插入,一天24小时,一小时3600秒。可以先插入,等到达IO瓶颈后,开始队列它,然 ...
还没有什么性能问题。你们那里也有这个数据量插入量 吗 雪候鸟 发表于 2013-10-29 21:34
还没有什么性能问题。你们那里也有这个数据量插入量 吗
我们这里没有,我只是就 big data processing 阐述一般的解决方案,能处理最大数据吞吐的是非关系数据库的数据中心,比如说谷歌的 chunk server 服务器群,即使是一台服务器处理需求和响应的能力有限,通过若干chunk server 的合力造成的规模也是相当灿烂的。 mandriva 发表于 2013-10-29 21:44
我们这里没有,我只是就 big data processing 阐述一般的解决方案,能处理最大数据吞吐的是非关系数据库 ...
我们公司非IT公司,所以没数据中心的概念。数据量还big不起来。你专门搞big data的吗 你这个问的我很是莫名其妙啊,我的专业是MB,以前有过这些方面的工作经历。其余就回答不了你了,呵呵。 mandriva 发表于 2013-10-29 22:23
你这个问的我很是莫名其妙啊,我的专业是MB,以前有过这些方面的工作经历。其余就回答不了你了,呵呵。
有意思,遇到了一个MB参与我的贴子。 雪候鸟 发表于 2013-10-29 22:25
有意思,遇到了一个MB参与我的贴子。
多观察,你遇到是一个通才 Partitioning option…. 怎么优化还是问问你们那个ocm吧。。。