雪候鸟 发表于 2013-10-29 21:01

大家见过最恐怖的数据库表多大,增幅如何,这里我们只说关系数据库。。。

本帖最后由 雪候鸟 于 2013-10-29 23:59 编辑

我最近的工作主要是查询性能优化,有一个价目表,单表每天平均插入两2千万条记录。这是我见过最大增幅的表{:7_433:} 。大家有没有更恐怖的。。。

***************************

估计是我上下文没有交代清楚。我补充一下,没有性能问题,也不需要什么性能方案,就是觉得这个需求不常见。

mandriva 发表于 2013-10-29 21:21

2千万条记录 有一天的时间来插入,一天24小时,一小时3600秒。可以先插入,等到达IO瓶颈后,开始队列它,然后一段一段的插入,完全不是问题。

雪候鸟 发表于 2013-10-29 21:34

mandriva 发表于 2013-10-29 21:21
2千万条记录 有一天的时间来插入,一天24小时,一小时3600秒。可以先插入,等到达IO瓶颈后,开始队列它,然 ...

还没有什么性能问题。你们那里也有这个数据量插入量 吗

mandriva 发表于 2013-10-29 21:44

雪候鸟 发表于 2013-10-29 21:34
还没有什么性能问题。你们那里也有这个数据量插入量 吗

我们这里没有,我只是就 big data processing 阐述一般的解决方案,能处理最大数据吞吐的是非关系数据库的数据中心,比如说谷歌的 chunk server 服务器群,即使是一台服务器处理需求和响应的能力有限,通过若干chunk server 的合力造成的规模也是相当灿烂的。

雪候鸟 发表于 2013-10-29 22:13

mandriva 发表于 2013-10-29 21:44
我们这里没有,我只是就 big data processing 阐述一般的解决方案,能处理最大数据吞吐的是非关系数据库 ...

我们公司非IT公司,所以没数据中心的概念。数据量还big不起来。你专门搞big data的吗

mandriva 发表于 2013-10-29 22:23

你这个问的我很是莫名其妙啊,我的专业是MB,以前有过这些方面的工作经历。其余就回答不了你了,呵呵。

雪候鸟 发表于 2013-10-29 22:25

mandriva 发表于 2013-10-29 22:23
你这个问的我很是莫名其妙啊,我的专业是MB,以前有过这些方面的工作经历。其余就回答不了你了,呵呵。

有意思,遇到了一个MB参与我的贴子。

乐水鸣佩环 发表于 2013-10-29 22:54

雪候鸟 发表于 2013-10-29 22:25
有意思,遇到了一个MB参与我的贴子。

多观察,你遇到是一个通才

woo2333 发表于 2013-10-29 23:16

Partitioning option….

woo2333 发表于 2013-10-29 23:18

怎么优化还是问问你们那个ocm吧。。。
页: [1] 2 3
查看完整版本: 大家见过最恐怖的数据库表多大,增幅如何,这里我们只说关系数据库。。。