csv文件导出,excel打开乱码处理

来源:互联网 发布:无主之地前传修改数据 编辑:程序博客网 时间:2024/05/01 08:58

原因如下有两种处理办法:

在做一个导出CSV文件的功能时发现导出的文件是乱码,上网查了下,发现原来是BOM(Byte Order Mark)的问题


  BOM是UTF编码方案里用于标识编码的标准标记,在UTF-16里是FF FE,UTF-8里是EF BB BF。这个标记是可选的,因为UTF-8没有顺序,所以它可以被用来检测一个字节流是否是UTF-8编码的。微软做这种检测,但有些软件不做这种检测,而把它当做正常字符处理。


  微软在自己的UTF-8格式的文本文件之前加上了EF BB BF三个字节, windows上面的notepad等程序就是根据这三个字节来确定一个文本文件是ASCII的还是UTF-8的, 然而这个只是微软暗自作的标记, 其它平台上并没有对UTF-8文本文件做个这样的标记,类Unix系统中就没有使用 BOM,因为它会破坏现有的 ASCII 文件的语法约定。

  也就是说一个UTF-8文件可能有BOM,也可能没有BOM,那么怎么区分呢?三种方法。1,用UltraEdit-32打开文件,切换到十六进制编辑模式,察看文件头部是否有EF BB BF。2,用Dreamweaver打开,察看页面属性,看“包括Unicode签名BOM”前面是否有个勾。3,用Windows的记事本打开,选择 “另存为”,看文件的默认编码是UTF-8还是ANSI,如果是ANSI则不带BOM。


  所谓的unicode保存的文件实际上是utf-16,只不过恰好跟unicode的码相同而已,但在概念上unicode与 utf是两回事,unicode是内存编码表示方案,而utf是如何保存和传输unicode的方案。utf-16还分高位在前 (LE)和高位在后(BE)两种。官方的utf编码还有utf-32,也分LE和BE。非unicode官方的utf编码还有utf-7,主要用于邮件传输。utf-8的单字节部分是和iso-8859-1兼容的,这主要是为了解决一些旧的系统和库函数不能正确处理utf-16的问题,而且对英语字符来说,也节省保存的文件空间(以非英语字符浪费空间为代价)。在iso-8859-1的时候,utf8和iso-8859-1都是用一个字节表示的,当表示其它字符的时候,utf-8会使用两个或三个字节。

 

第一种比较复杂点,进行转码UTF-16并添加BOM标识信息如下:

文件下载处理:// 文件名fileName = java.net.URLEncoder.encode(fileName, "UTF-8").replaceAll("\\+", "%20");// response.setContentType("application/octet-stream");String temp = "attachment;filename=\"" + fileName + "\"";response.setHeader("Content-disposition", temp);osDownload = new BufferedOutputStream(response.getOutputStream());// 出力数据转换为带BOM的16LE编码byte[] BOM_UTF16 = new byte[] { (byte) 0xFF, (byte) 0xFE };//context 文件内容:Stringbyte[] contentByte = context.getBytes("UTF-16LE");byte[] allData = new byte[BOM_UTF16.length + contentByte.length];System.arraycopy(BOM_UTF16, 0, allData, 0, BOM_UTF16.length);System.arraycopy(contentByte, 0, allData, BOM_UTF16.length,contentByte.length);osDownload.write(allData);文件读取处理:               int column = 1;//文件读取、文件读取指定编码InputStreamReader reader = new InputStreamReader(form.getFile().getInputStream(),"UTF-16LE");//文件流读取对象创建BufferedReader buf = new BufferedReader(reader);String line = "";while ((line = buf.readLine()) != null) {line = line.replace("\"","");if(line.length() == 0||line.replaceAll("\t","").length() == 0){continue;}byte utf_16 [] = line.getBytes("UTF-16LE");//BOM处理  UTF-16LE编码    1,2值为-1,-2if(utf_16[0] == -1 && utf_16[1] == -2){line = new String(line.getBytes("UTF-16LE"),2,line.getBytes("UTF-16LE").length - 2,"UTF-16LE");}// 按指定分隔符分割处理String[] st = new String(line.getBytes(),"UTF-8").split("\t");// 列数,内容等等处理if (st.length == 15)//文件内容CHECKcount++;}buf.close();

第二种方法简单点,只需添加UTF-8的BOM信息即可,

在Struts的Action里用流生成CSV文件的时候,在一开始就加上这样一句

1.out = response.getOutputStream();   2.//加上UTF-8文件的标识字符   3.out.write(new byte[]{(byte)0xEF,(byte)0xBB,(byte)0xBF});   

当然了,因为加有BOM信息,csv在读取操作的时候,也要做“删除”BOM信息操作。

byte utf[] = line.getBytes();//BOM 処理 -17, -69, -65if(utf[0] == -17 && utf[1] == -69 && utf[2] == -65){line = new String(utf,3,utf.length - 3);}



╭︿︿︿╮
{/ o  o /} 
 ( (oo) )  
  ︶ ︶︶:<XX操作系统下> CSV 文件出力 用excel打开乱码

PS:小弟惭愧,最开始使用的处理方法为第一种,后来因同事提醒,才有了现在第二种处理方法,⊙﹏⊙b汗。。。

 

 

	
				
		
原创粉丝点击