设为首页 收藏本站
查看: 1661|回复: 0

[经验分享] sql 中的Bulk和C# 中的SqlBulkCopy批量插入数据 ( 回顾 and 粗谈 )

[复制链接]

尚未签到

发表于 2017-7-14 20:40:21 | 显示全部楼层 |阅读模式
  通常,我们会对于一个文本文件数据导入到数据库中,不多说,上代码。
  首先,表结构如下.
DSC0000.png

  其次,在我当前D盘中有个文本文件名为2.txt的文件。
DSC0001.png

  在数据库中,可以这样通过一句代码插入。



Bulk  insert  T_Demo
From  'D:\2.txt'
With
(   fieldterminator=',',
rowterminator='\n'
)
  1) bulk insert:  为Sql server 中一个批量插入的操作
  2)T_Demo:   要插入的表
  3)'D:\2.txt':   数据源文件所在磁盘上的物理路径
  4)with 相当于一些插入的附属条件,可以起这里添加一些约束限制条件等
  5) fieldterminator=’,’字段的分割符为”,”一般的txt文本数据源的字段分隔都为逗号,当然也可以为其他,比如”|”
  6)rowterminator=’\n’各条信息间的分割符为’\n’,一般的txt文本数据源的信息间的分割都是换行符,即一条信息占一行,也可以用其他格式如:”|\n”
  在微软官方给的详细如下:



BULK INSERT  
[ database_name . [ schema_name ] . | schema_name . ] [ table_name | view_name ]  
FROM 'data_file'  
[ WITH  
(  
[ [ , ] BATCHSIZE = batch_size ]  
[ [ , ] CHECK_CONSTRAINTS ]  
[ [ , ] CODEPAGE = { 'ACP' | 'OEM' | 'RAW' | 'code_page' } ]  
[ [ , ] DATAFILETYPE =  
{ 'char' | 'native'| 'widechar' | 'widenative' } ]  
[ [ , ] FIELDTERMINATOR = 'field_terminator' ]  
[ [ , ] FIRSTROW = first_row ]  
[ [ , ] FIRE_TRIGGERS ]  
[ [ , ] FORMATFILE = 'format_file_path' ]  
[ [ , ] KEEPIDENTITY ]  
[ [ , ] KEEPNULLS ]  
[ [ , ] KILOBYTES_PER_BATCH = kilobytes_per_batch ]  
[ [ , ] LASTROW = last_row ]  
[ [ , ] MAXERRORS = max_errors ]  
[ [ , ] ORDER ( { column [ ASC | DESC ] } [ ,...n ] ) ]  
[ [ , ] ROWS_PER_BATCH = rows_per_batch ]  
[ [ , ] ROWTERMINATOR = 'row_terminator' ]  
[ [ , ] TABLOCK ]  
[ [ , ] ERRORFILE = 'file_name' ]  
)]  
  这里我们主要看with中的一些参数:(部分)
  1)       BATCHSIZE : 指定批处理中的行数
  2)       CHECK_CONSTRAINTS:启用约束检查,指定在大容量导入操作期间,必须检查所有对目标表或视图的约束。若没有 CHECK_CONSTRAINTS 选项,则忽略所有 CHECK 和 FOREIGN KEY 约束,并在该操作后将表的约束标记为不可信。始终强制使用 UNIQUE、PRIMARY KEY 和 NOT NULL 约束。
  3)       FIRE_TRIGGERS
  指定将在大容量导入操作期间执行目标表中定义的所有插入触发器。如果为针对目标表的 INSERT 操作定义了触发器,则每次完成批处理操作时均激发触发器。
  4)       KEEPNULLS
  指定空列在大容量导入操作期间应保留 Null 值,而不插入列的任何默认值
  5)       ORDER ( { column [ ASC | DESC ] } [ ,...n ] )
  指定如何对数据文件中的数据排序。如果根据表中的聚集索引(如果有)对要导入的数据排序,则可提高大容量导入的性能
  6)       ERRORFILE ='file_name'
  指定用于收集格式有误且不能转换为 OLE DB 行集的行的文件。这些行将按原样从数据文件复制到此错误文件中。
  --------------------------------------------------------------SqlBulkCopy分割线---------------------------------------------------------------------
  在C#中,我们可以使用sqlBulkCopy去批量插入数据,其他批量插入方法不在讨论。
  上代码......



/// <summary>
/// SqlBulkCopy批量插入数据
/// </summary>
/// <param name="connectionStr">链接字符串</param>
/// <param name="dataTableName">表名</param>
/// <param name="sourceDataTable">数据源</param>
/// <param name="batchSize">一次事务插入的行数</param>
public static void SqlBulkCopyByDataTable(string connectionStr, string dataTableName, DataTable sourceDataTable, int batchSize = 100000)
{
using (SqlConnection connection=new SqlConnection(connectionStr))
{
using (SqlBulkCopy sqlBulkCopy=new SqlBulkCopy(connectionStr,SqlBulkCopyOptions.UseInternalTransaction))
{
try
{
sqlBulkCopy.DestinationTableName = dataTableName;
sqlBulkCopy.BatchSize = batchSize;
for (int i = 0; i < sourceDataTable.Columns.Count; i++)
{
sqlBulkCopy.ColumnMappings.Add(sourceDataTable.Columns.ColumnName,sourceDataTable.Columns.ColumnName);
}
sqlBulkCopy.WriteToServer(sourceDataTable);
}
catch (Exception ex)
{
throw ex;
}
}
}
}
  使用方式如下,这里我将插入100万条数据,
  在SqlBulkCopyByDataTable方法中每次插入10万条,
  其插入方式SqlBulkCopyOptions.UseInternalTransaction (即事务插入,可用其他方式。)



            DataTable dt = new DataTable("测试");
dt.Columns.Add("ID",typeof(int));
dt.Columns.Add("Name", typeof(string));
dt.Columns.Add("Age", typeof(int));
for (int i = 1; i <= 1000000; i++)
{
DataRow row = dt.NewRow();
row["ID"] =  i;
row["Name"] = "名字"+i;
row["Age"] = i;
dt.Rows.Add(row);
}
string connStr = System.Configuration.ConfigurationManager.ConnectionStrings["connStr"].ConnectionString;
Stopwatch stopWatch = new Stopwatch();
stopWatch.Start();

SqlBulkCopyByDataTable(connStr, "T_Demo", dt);
Console.WriteLine(stopWatch.Elapsed);  
Console.ReadKey();
  用时为如下。
DSC0002.png

  参考: http://blog.csdn.net/xuemoyao/article/details/8506338
  本文到此结束。  
  纯属回顾与粗谈,并没有细说。
  请各位见谅。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-393949-1-1.html 上篇帖子: Spark history Server配置实用 下篇帖子: SQL之50个常用的SQL语句
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表