设为首页 收藏本站
查看: 918|回复: 0

[经验分享] 让百万级数据瞬间导入SQL Server

[复制链接]

尚未签到

发表于 2016-11-3 07:50:49 | 显示全部楼层 |阅读模式
让百万级数据瞬间导入SQL Server
 
  想必每个DBA都喜欢挑战数据导入时间,用时越短工作效率越高,也充分的能够证明自己的实力。实际工作中有时候需要把大量数据导入数据库,然后用于各种程序计算,本文将向大家推荐一个挑战4秒极限让百万级数据瞬间导入SQL Server实验案例。
  本实验将使用5中方法完成这个过程,并详细记录各种方法所耗费的时间。所用到工具为eclipse和SQL Server 2000、SQL Server 2008,分别使用5中方法将100万条数据导入SQL Server 2000与SQL Server 2008中,实验环境是DELL 2850双2.0GCPU,2G内存的服务器。感兴趣的朋友可以下载源代码自己验证一下所用时间。
  好了,下面我们分别使用基本的Insert 语句、使用BULK INSERT语句、在多线程中使用BULK INSERT、使用SqlBulkCopy类、在多线程中使用SqlBulkCopy类五种方法,挑战4秒极限。还要有一点需要进行说明,本实验中执行SQL语句的地方使用了IsLine FrameWork框架中的DataProvider模块,这个模块只是对SQL配置的读取和封装,并不会对最终结果有本质性的影响,关于IsLine FrameWork框架方面的知识,请参考“IsLine FrameWork”框架系列文章。
  数据库方面使用SQL Server 2000与SQL Server 2008,表名TableB,字段名称为Value1,数据库名可以在App.config中修改,默认为test。
  方法一.使用基本的Insert 语句
  这种方法是最基本的方法,大多数人一开始都会想到这种方法。但是Insert语句似乎并不适合大批量的操作,是不是这样呢?
  本方法中将100万数据分为10个批次,每个批次10万条,每10万条1个事务,分10次导入数据库。
  -->基本语句:
  Insert Into TableB (Value1) values (‘”+i+”’); 说明:语句中的i是宿主程序中的一个累加变量,用于填充数据库字段中的值。
  SQL Server 2000 耗时:901599
  SQL Server 2008耗时:497638
  方法二.使用BULK INSERT语句
  这个类的效果,在本实验中可以说是最令人满意的了,它的使用最简便、灵活,速度很快。
  “BULK INSERT”语句似乎不是很常用, Aicken听说Oracle中有一种可以将外部文件映射为Oracle临时表,然后直接将临时表中的数据导入Oracle其他表中的方法,这种方法的速度非常令人满意,SQL SERVER的BULK INSERT是不是同样令人满意呢?
  --> 基本语句:
  BULK INSERT TableB FROM '
  c:\sql.txt' WITH (FIELDTERMINATOR = ',',ROWTER
  /.,mbMINATOR='|',BATCHSIZE = 100000)
  说明:“c:\sql.txt”是一个预先生成的包含100条数据的文件,这些数据以“|”符号分隔,每10万条数据一个事务。
  SQL Server 2000耗时:4009
  SQL Server 2008耗时:10722
  方法三.在多线程中使用BULK INSERT
  在方法二的基础上,将100万条数据分五个线程,每个线程负责20万条数据,每5万条一个事物,五个线程同时启动,看看这样的效果吧。
  SQL Server 2000耗时:21099
  SQL Server 2008耗时:10997
  方法四.使用SqlBulkCopy类
  这种方法速度也很快,但是要依赖内存,对于几千万条、多字段的复杂数据,可能在内存方面会有较大的消耗,不过可以使用64位解决方案处理这个问题。
  几千万条、多字段的数据的情况一般在一些业务场景中会遇到,比如计算全球消费者某个业务周期消费额时,要先获得主数据库表中的会员消费记录快照,并将快照储存至临时表中,然后供计算程序使用这些数据。并且有些时候消费者的消费数据并不在一台数据库服务器中,而是来自多个国家的多台服务器,这样我们就必须借助内存或外存设备中转这些数据,然后清洗、合并、检测,最后导入专用表供计算程序使用。
  基本语句:
  using (System.Data.SqlClient.SqlBulkCopy sqlBC
  = new System.Data.SqlClient.SqlBulkCopy(conn))
  { sqlBC.BatchSize = 100000; sqlBC.BulkCopyTimeout
  = 60; sqlBC.DestinationTableName = "dbo.TableB";
  sqlBC.ColumnMappings.Add("valueA", "Value1");
  sqlBC.WriteToServer(dt); }
  说明:
  BatchSize = 100000; 指示每10万条一个事务并提交
  BulkCopyTimeout = 60; 指示60秒按超时处理
  DestinationTableName = "dbo.TableB"; 指示将数据导入TableB表
  ColumnMappings.Add("valueA", "Value1"); 指示将内存中valueA字段与TableB中的Value1字段匹配
  WriteToServer(dt);写入数据库。其中dt是预先构建好的DataTable,其中包含valueA字段。
  SQL Server 2000耗时:4989
  SQL Server 2008耗时:10412
  方法五.在多线程中使用SqlBulkCopy类
  基于方法四,将100万条数据分五个线程,每个线程负责20万条数据,每5万条一个事物,五个线程同时启动,看看这样的效果吧。
  SQL 2000耗时:7682
  SQL 2008耗时:10870
  结果
  
http://www.jz123.cn/uploads/allimg/100607/1107140.jpg 
  几天的时间终于把这个实验给完成了,比较令人失望的是SQL SERVER 2008导入数据的性能似乎并不想我们想象的那样优秀。
 
本文转载技术论坛上的

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-294832-1-1.html 上篇帖子: SQL SERVER 2005 登陆18456错误的解决方法 下篇帖子: 启动SQL Server Agent Job的几种不同方式
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表