aa,bb,cc,dd,ee,ff
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
这样的数据。
我通过bcp命令导进去
create table xxdd
(
aa nvarchar(1000)
)
bcp sqlwygl..xxdd in D:\datatest\result.csv -c -S(local) -Usa -P123
这样可以导进去只一列以逗号分隔,如果导成多列的话创建表多个字段,就导不进去。
我想问一下有没有办法直接导csv的文件,如果是转成EXCEL的文件的话就算了,光是打开这个文件都会很慢的。
14 个解决方案
#1
用bulk insert,
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000 )
#2
用自带的导入导出工具更方便
#3
用导入导出工具即可。
#4
用自带的任务里面的导入数据选择平面文件源导入即可
#5
数据太大了好像不行,有300多万条记录。180多M。
服务器: 消息 4832,级别 16,状态 1,行 1
大容量插入: 在数据文件中遇到意外的文件结尾 (EOF)。
服务器: 消息 7399,级别 16,状态 1,行 1
OLE DB 提供程序 'STREAM' 报错。提供程序未给出有关错误的任何信息。
语句已终止。
#6
我看了有些文件里有一个特殊符号,在DOS下边不能替换掉findstr /v/b "" Result.csv > Result.temp
#7
--> 加batchsize参数试试,
再不行,检查一下文件格式是否正确.
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000,
batchsize=5000 )
#8
用bulk insert,
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000 )
数据太大了好像不行,有300多万条记录。180多M。
服务器: 消息 4832,级别 16,状态 1,行 1
大容量插入: 在数据文件中遇到意外的文件结尾 (EOF)。
服务器: 消息 7399,级别 16,状态 1,行 1
OLE DB 提供程序 'STREAM' 报错。提供程序未给出有关错误的任何信息。
语句已终止。
--> 加batchsize参数试试,
再不行,检查一下文件格式是否正确.
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000,
batchsize=5000 )
多谢,我自已解决了,这样的话只是每次传输不会回滚,但是还是要报错误。我最终是把合并的那个文件的特殊字符去掉就解决了。
#9
如果用BCP的话应该怎么弄呢,感觉那个更快。
#10
sql 自带的导入工具不行吗?自带的工具使用的导入方法应该是导入的最优方案吧。
#11
下面,做个试验,你可以参考一下的哈,其中最关键的是格式文件:
--修改高级参数
sp_configure 'show advanced options',1
go
--允许即席分布式查询
sp_configure 'Ad Hoc Distributed Queries',1
go
--如果配置的值不在合理范围(在最小值最大值范围内),那么可以强制覆盖
reconfigure with override
go
sp_configure 'xp_cmdshell',1
go
reconfigure
go
--创建数据库
create database wc
go
use wc
go
--建表
create table wc(a int,b int,c int)
go
/* 这里建立一个c:\wc.csv 文件,内容如下:
a,b,c
1,2,3
2,3,4
*/
--导出格式文件,这个是关键,数据库名称,表名称,用户名和密码,服务器ip和端口
--都改成你自己的
exec xp_cmdshell 'bcp wc.dbo.wc format nul -t "," -f c:\wc.fmt -c -Usa -Pyupeigu -S 192.168.1.106,1433'
go
--先查看要导入的数据
select *
from
openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称
formatfile='c:\wc.fmt', --格式化文件的路径和名称
firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始
--lastrow = 1000, --要载入的最后一行,此值必须大于firstrow
maxerrors = 10, --在加载失败之前加载操作中最大的错误数
errorfile ='c:\wc_error.txt', --存放错误的文件
rows_per_batch = 10000 --每个批处理导入的行数
) as t
/*
a b c
1 2 3
2 3 4
--最后可以 insert into 表 (列) select * from openrowset...插入数据即可
#12
我按照你的那个xxdd表,把上面的试验,重新做了一遍,完全可以导入数据的,你可以看看:
--修改高级参数
sp_configure 'show advanced options',1
go
--允许即席分布式查询
sp_configure 'Ad Hoc Distributed Queries',1
go
--如果配置的值不在合理范围(在最小值最大值范围内),那么可以强制覆盖
reconfigure with override
go
sp_configure 'xp_cmdshell',1
go
reconfigure
go
--创建数据库
create database wc
go
use wc
go
--建表
create table xxdd
(
aa nvarchar(1000),
bb nvarchar(1000),
cc nvarchar(1000),
dd nvarchar(1000),
ee nvarchar(1000),
ff nvarchar(1000)
)
go
/* 这里建立一个c:\wc.csv 文件,内容如下:
aa,bb,cc,dd,ee,ff
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
*/
--导出格式文件,这个是关键,数据库名称,表名称,用户名和密码,服务器ip和端口
--都改成你自己的
exec xp_cmdshell 'bcp wc.dbo.xxdd format nul -t "," -f c:\wc.fmt -c -Usa -Pyupeigu -S 192.168.1.106,1433'
go
--先查看要导入的数据
select *
from
openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称
formatfile='c:\wc.fmt', --格式化文件的路径和名称
firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始
--lastrow = 1000, --要载入的最后一行,此值必须大于firstrow
maxerrors = 10, --在加载失败之前加载操作中最大的错误数
--errorfile ='c:\wc_error1.txt', --存放错误的文件
rows_per_batch = 10000 --每个批处理导入的行数
) as t
/*
aa bb cc dd ee ff
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
*/
--最后可以 insert into 表 (列) select * from openrowset...插入数据即可
insert into xxdd (aa,bb,cc,dd,ee,ff)
select *
from
openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称
formatfile='c:\wc.fmt', --格式化文件的路径和名称
firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始
--lastrow = 1000, --要载入的最后一行,此值必须大于firstrow
maxerrors = 10, --在加载失败之前加载操作中最大的错误数
--errorfile ='c:\wc_error1.txt', --存放错误的文件
rows_per_batch = 10000 --每个批处理导入的行数
) as t
select *
from xxdd
#13
select * from openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称 formatfile='c:\wc.fmt', --格式化文件的路径和名称 firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始 --lastrow = 1000, --要载入的最后一行,此值必须大于firstrow maxerrors = 10, --在加载失败之前加载操作中最大的错误数 --errorfile ='c:\wc_error1.txt', --存放错误的文件 rows_per_batch = 10000 --每个批处理导入的行数 ) as t
我怎么提示服务器: 消息 156,级别 15,状态 1,行 3
在关键字 'bulk' 附近有语法错误。
我的数据库是sql2000
我怎么提示服务器: 消息 156,级别 15,状态 1,行 3
在关键字 'bulk' 附近有语法错误。
我的数据库是sql2000
#14
select * from openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称 formatfile='c:\wc.fmt', --格式化文件的路径和名称 firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始 --lastrow = 1000, --要载入的最后一行,此值必须大于firstrow maxerrors = 10, --在加载失败之前加载操作中最大的错误数 --errorfile ='c:\wc_error1.txt', --存放错误的文件 rows_per_batch = 10000 --每个批处理导入的行数 ) as t
我怎么提示服务器: 消息 156,级别 15,状态 1,行 3
在关键字 'bulk' 附近有语法错误。
我的数据库是sql2000
好像这个openrowset(bulk是2005后才引入的,sql server 2000不支持。
修改成这样试试:
bulk insert xxdd
from 'c:\wc.csv'
with
(
FIRSTROW = 2,
FORMATFILE = 'c:\wc.fmt',
KILOBYTES_PER_BATCH=5000,
batchsize=1000 )
#1
用bulk insert,
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000 )
#2
用自带的导入导出工具更方便
#3
用导入导出工具即可。
#4
用自带的任务里面的导入数据选择平面文件源导入即可
#5
用bulk insert,
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000 )
数据太大了好像不行,有300多万条记录。180多M。
服务器: 消息 4832,级别 16,状态 1,行 1
大容量插入: 在数据文件中遇到意外的文件结尾 (EOF)。
服务器: 消息 7399,级别 16,状态 1,行 1
OLE DB 提供程序 'STREAM' 报错。提供程序未给出有关错误的任何信息。
语句已终止。
#6
我看了有些文件里有一个特殊符号,在DOS下边不能替换掉findstr /v/b "" Result.csv > Result.temp
#7
用bulk insert,
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000 )
数据太大了好像不行,有300多万条记录。180多M。
服务器: 消息 4832,级别 16,状态 1,行 1
大容量插入: 在数据文件中遇到意外的文件结尾 (EOF)。
服务器: 消息 7399,级别 16,状态 1,行 1
OLE DB 提供程序 'STREAM' 报错。提供程序未给出有关错误的任何信息。
语句已终止。
--> 加batchsize参数试试,
再不行,检查一下文件格式是否正确.
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000,
batchsize=5000 )
#8
用bulk insert,
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000 )
数据太大了好像不行,有300多万条记录。180多M。
服务器: 消息 4832,级别 16,状态 1,行 1
大容量插入: 在数据文件中遇到意外的文件结尾 (EOF)。
服务器: 消息 7399,级别 16,状态 1,行 1
OLE DB 提供程序 'STREAM' 报错。提供程序未给出有关错误的任何信息。
语句已终止。
--> 加batchsize参数试试,
再不行,检查一下文件格式是否正确.
bulk insert [目标表]
from '[csv文件]'
with
( FIELDTERMINATOR =',', --> 指定分隔符
ROWTERMINATOR ='\n',
KILOBYTES_PER_BATCH=5000,
batchsize=5000 )
多谢,我自已解决了,这样的话只是每次传输不会回滚,但是还是要报错误。我最终是把合并的那个文件的特殊字符去掉就解决了。
#9
如果用BCP的话应该怎么弄呢,感觉那个更快。
#10
sql 自带的导入工具不行吗?自带的工具使用的导入方法应该是导入的最优方案吧。
#11
下面,做个试验,你可以参考一下的哈,其中最关键的是格式文件:
--修改高级参数
sp_configure 'show advanced options',1
go
--允许即席分布式查询
sp_configure 'Ad Hoc Distributed Queries',1
go
--如果配置的值不在合理范围(在最小值最大值范围内),那么可以强制覆盖
reconfigure with override
go
sp_configure 'xp_cmdshell',1
go
reconfigure
go
--创建数据库
create database wc
go
use wc
go
--建表
create table wc(a int,b int,c int)
go
/* 这里建立一个c:\wc.csv 文件,内容如下:
a,b,c
1,2,3
2,3,4
*/
--导出格式文件,这个是关键,数据库名称,表名称,用户名和密码,服务器ip和端口
--都改成你自己的
exec xp_cmdshell 'bcp wc.dbo.wc format nul -t "," -f c:\wc.fmt -c -Usa -Pyupeigu -S 192.168.1.106,1433'
go
--先查看要导入的数据
select *
from
openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称
formatfile='c:\wc.fmt', --格式化文件的路径和名称
firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始
--lastrow = 1000, --要载入的最后一行,此值必须大于firstrow
maxerrors = 10, --在加载失败之前加载操作中最大的错误数
errorfile ='c:\wc_error.txt', --存放错误的文件
rows_per_batch = 10000 --每个批处理导入的行数
) as t
/*
a b c
1 2 3
2 3 4
--最后可以 insert into 表 (列) select * from openrowset...插入数据即可
#12
我按照你的那个xxdd表,把上面的试验,重新做了一遍,完全可以导入数据的,你可以看看:
--修改高级参数
sp_configure 'show advanced options',1
go
--允许即席分布式查询
sp_configure 'Ad Hoc Distributed Queries',1
go
--如果配置的值不在合理范围(在最小值最大值范围内),那么可以强制覆盖
reconfigure with override
go
sp_configure 'xp_cmdshell',1
go
reconfigure
go
--创建数据库
create database wc
go
use wc
go
--建表
create table xxdd
(
aa nvarchar(1000),
bb nvarchar(1000),
cc nvarchar(1000),
dd nvarchar(1000),
ee nvarchar(1000),
ff nvarchar(1000)
)
go
/* 这里建立一个c:\wc.csv 文件,内容如下:
aa,bb,cc,dd,ee,ff
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
42222222223432432432,32432432432432432432,2332432432,32432432432,32432432,23432432
*/
--导出格式文件,这个是关键,数据库名称,表名称,用户名和密码,服务器ip和端口
--都改成你自己的
exec xp_cmdshell 'bcp wc.dbo.xxdd format nul -t "," -f c:\wc.fmt -c -Usa -Pyupeigu -S 192.168.1.106,1433'
go
--先查看要导入的数据
select *
from
openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称
formatfile='c:\wc.fmt', --格式化文件的路径和名称
firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始
--lastrow = 1000, --要载入的最后一行,此值必须大于firstrow
maxerrors = 10, --在加载失败之前加载操作中最大的错误数
--errorfile ='c:\wc_error1.txt', --存放错误的文件
rows_per_batch = 10000 --每个批处理导入的行数
) as t
/*
aa bb cc dd ee ff
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
42222222223432432432 32432432432432432432 2332432432 32432432432 32432432 23432432
*/
--最后可以 insert into 表 (列) select * from openrowset...插入数据即可
insert into xxdd (aa,bb,cc,dd,ee,ff)
select *
from
openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称
formatfile='c:\wc.fmt', --格式化文件的路径和名称
firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始
--lastrow = 1000, --要载入的最后一行,此值必须大于firstrow
maxerrors = 10, --在加载失败之前加载操作中最大的错误数
--errorfile ='c:\wc_error1.txt', --存放错误的文件
rows_per_batch = 10000 --每个批处理导入的行数
) as t
select *
from xxdd
#13
select * from openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称 formatfile='c:\wc.fmt', --格式化文件的路径和名称 firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始 --lastrow = 1000, --要载入的最后一行,此值必须大于firstrow maxerrors = 10, --在加载失败之前加载操作中最大的错误数 --errorfile ='c:\wc_error1.txt', --存放错误的文件 rows_per_batch = 10000 --每个批处理导入的行数 ) as t
我怎么提示服务器: 消息 156,级别 15,状态 1,行 3
在关键字 'bulk' 附近有语法错误。
我的数据库是sql2000
我怎么提示服务器: 消息 156,级别 15,状态 1,行 3
在关键字 'bulk' 附近有语法错误。
我的数据库是sql2000
#14
select * from openrowset(bulk 'c:\wc.csv', --要读取的文件路径和名称 formatfile='c:\wc.fmt', --格式化文件的路径和名称 firstrow = 2, --要载入的第一行,由于第一行是标题,所以从2开始 --lastrow = 1000, --要载入的最后一行,此值必须大于firstrow maxerrors = 10, --在加载失败之前加载操作中最大的错误数 --errorfile ='c:\wc_error1.txt', --存放错误的文件 rows_per_batch = 10000 --每个批处理导入的行数 ) as t
我怎么提示服务器: 消息 156,级别 15,状态 1,行 3
在关键字 'bulk' 附近有语法错误。
我的数据库是sql2000
好像这个openrowset(bulk是2005后才引入的,sql server 2000不支持。
修改成这样试试:
bulk insert xxdd
from 'c:\wc.csv'
with
(
FIRSTROW = 2,
FORMATFILE = 'c:\wc.fmt',
KILOBYTES_PER_BATCH=5000,
batchsize=1000 )