sql大容量插入几百万行的数据,文本内容显示乱码,且要去掉小数点。

时间:2021-05-21 21:45:22
sql大容量插入几百万行的数据,数据库里的字显示是乱码,小数点在插入时一并去掉,要怎么解决。

我用的是bulk insert 。

7 个解决方案

#1


你存储数据的字段类型是不是NVARCHAR?

#2


几百万行插入的时候,建议还是用导入导出向导来实现,否则很难弄清楚会出什么错.必竟很少有可能通过程序来导入这么大的数据量(且没有准确性保证).
导入数据的准确性主要取决于你的导入信息的规范程度,如果导入信息不规范,那就不能保证不出错.因此,在导入前还是要仔细检查你的导入数据文件.在导入出错时,也可以参考出错提示,去检查在何处出的问题.

#3


是可以导入数据的,数据库里表的汉字信息显示乱码,阿拉伯数字可以显示,如果只导入几十万行就没有乱码的问题,类型是nvarchar。

#4


这个问题能解决不???

#5


引用 4 楼 zhuotingting 的回复:
这个问题能解决不???

因为不知道你导入的究竟是什么数据,因此无法作出绝对肯定回答.但有一条应该是肯定的,就是你的数据,到几十万条后,有一个不规范的字符存在,从而使你导入出错.

建议楼主把这个数据分成几段导入,看会在那一段出错.

#6


引用 5 楼 qianjin036a 的回复:
引用 4 楼 zhuotingting 的回复:
这个问题能解决不???

因为不知道你导入的究竟是什么数据,因此无法作出绝对肯定回答.但有一条应该是肯定的,就是你的数据,到几十万条后,有一个不规范的字符存在,从而使你导入出错.

建议楼主把这个数据分成几段导入,看会在那一段出错.


我导入的有分很多字段,其他一个字段是消费值,
在导入时顺便把文本里的小数点(比如156.00),小数点后的(.00)去掉,这个有办法吗?

#7


分段导入可以导,都没问题。

#1


你存储数据的字段类型是不是NVARCHAR?

#2


几百万行插入的时候,建议还是用导入导出向导来实现,否则很难弄清楚会出什么错.必竟很少有可能通过程序来导入这么大的数据量(且没有准确性保证).
导入数据的准确性主要取决于你的导入信息的规范程度,如果导入信息不规范,那就不能保证不出错.因此,在导入前还是要仔细检查你的导入数据文件.在导入出错时,也可以参考出错提示,去检查在何处出的问题.

#3


是可以导入数据的,数据库里表的汉字信息显示乱码,阿拉伯数字可以显示,如果只导入几十万行就没有乱码的问题,类型是nvarchar。

#4


这个问题能解决不???

#5


引用 4 楼 zhuotingting 的回复:
这个问题能解决不???

因为不知道你导入的究竟是什么数据,因此无法作出绝对肯定回答.但有一条应该是肯定的,就是你的数据,到几十万条后,有一个不规范的字符存在,从而使你导入出错.

建议楼主把这个数据分成几段导入,看会在那一段出错.

#6


引用 5 楼 qianjin036a 的回复:
引用 4 楼 zhuotingting 的回复:
这个问题能解决不???

因为不知道你导入的究竟是什么数据,因此无法作出绝对肯定回答.但有一条应该是肯定的,就是你的数据,到几十万条后,有一个不规范的字符存在,从而使你导入出错.

建议楼主把这个数据分成几段导入,看会在那一段出错.


我导入的有分很多字段,其他一个字段是消费值,
在导入时顺便把文本里的小数点(比如156.00),小数点后的(.00)去掉,这个有办法吗?

#7


分段导入可以导,都没问题。