黑马程序员-学习日志-文件的合并
来源:互联网 发布:网络信息采集技术 编辑:程序博客网 时间:2024/06/05 14:34
---------------------- ASP.Net+Android+IOS开发、.Net培训、期待与您交流! ----------------------
SequenceInputStream 表示其他输入流的逻辑串联。它从输入流的有序集合开始,并从第一个输入流开始读取,直到到达文件末尾,接着从第二个输入流读取,依次类推,直到到达包含的最后一个输入流的文件末尾为止。
构造方法:
SequenceInputStream(InputStream s1,InputStream s2):通过记住两个参数来初始化新创建的SequenceInputStream(将按顺序读取这两个参数,先读取s1,然后读取s2)以提供从此SequenceInputStreamdu读取的字节。
Vector
类可以实现可增长的对象数组。与数组一样,它包含可以使用整数索引进行访问的组件。但是,Vector
的大小可以根据需要增大或缩小,以适应创建Vector
后进行添加或移除项的操作。
例如,要输出 Vector<E> v 的所有元素,可使用以下方法:
for (Enumeration<E> e = v.elements(); e.hasMoreElements();) System.out.println(e.nextElement());
import java.io.*;import java.util.*;class SequenceDemo{public static void main(String[] args) throws IOException{Vector<FileInputStream> v = new Vector<FileInputStream>();v.add(new FileInputStream("E:\\Java源代码\\IO基础\\day20\\1.txt"));v.add(new FileInputStream("E:\\Java源代码\\IO基础\\day20\\2.txt"));v.add(new FileInputStream("E:\\Java源代码\\IO基础\\day20\\3.txt"));Enumeration<FileInputStream> en = v.elements();SequenceInputStream sis = new SequenceInputStream(en);FileOutputStream fos= new FileOutputStream("E:\\Java源代码\\IO基础\\day20\\4.txt"); byte[] buf = new byte[1024];int len = 0;while((len=sis.read(buf))!=-1){fos.write(buf,0,len);}fos.close();sis.close();}}
---------------------- ASP.Net+Android+IOS开发、.Net培训、期待与您交流! ----------------------详细请查看:http://edu.csdn.net
0 0
- 黑马程序员-学习日志-文件的合并
- 黑马程序员-学习日志-文件的分割与合并
- 黑马程序员_文件的合并
- 黑马程序员-文件的切割与合并
- 黑马程序员-java IO的文件合并
- 黑马程序员-----反射的学习日志
- “黑马程序员”正则表达式的学习日志
- 黑马程序员——文件的切割,与合并
- 黑马程序员 IO流 文件的分割与合并
- 黑马程序员—文件的切割与合并
- 黑马程序员——文件的切割与合并
- 黑马程序员-----多线程学习日志
- 黑马程序员-学习日志Day01
- 黑马程序员-学习日志Day02
- 黑马程序员-学习日志-javascrip
- 黑马程序员-学习日志-javascript
- 黑马程序员-学习日志-多线程
- 黑马程序员-学习日志-PropertiesDemo
- Eclipse Launcher (Run/Debug As 菜单扩展)实现
- POJ-3723-Conscription
- 数组指针 指针数组 函数指针 指针函数
- 阅读Qt demo笔记——关于图像视图框架和状态机框架
- 修改MySQL最大连接数
- 黑马程序员-学习日志-文件的合并
- linux网络协议栈(五)网络层 (4)路由表
- Linux tar exclude参数的用法
- java编程--心有灵犀一点通
- Javascrip阻止表单提交刷新页面
- treeMap排序
- 同步I/O(阻塞I/O),异步I/O(非阻塞)
- js贪食蛇--2
- Hadoop中一个distcp