LogSegment分析
来源:互联网 发布:冠能狗粮网络代理 编辑:程序博客网 时间:2024/09/21 06:18
为了防止Log文件过大,将Log切分成多个日志文件来管理,每一个日志文件对应着一个LogSegment。在LogSegment封装了TimeIndex
,OffsetIndex以及FileMessageSet对象,提供日志文件和索引文件的读写功能和其他功能
一 LogSegment的核心字段
log: 用于操作对应消息日志文件的FileMessageSet对象
index: 用于操作对应offset 索引文件的 OffsetIndex对象
timeIndex: 用于操作对应时间索引文件的TimeIndex对象
baseOffset: 每一个日志文件的第一个消息的offset
indexIntervalBytes: 索引项之间间隔的最小字节数,也就是隔多少字节写一次索引
bytesSinceLastIndexEntry: 自上次添加index entry后在日志文件中累计加入的message set的字节数,用于判断下一次索引添加的时机
rollingBasedTimestamp: 用于基于时间的日志滚动的时间戳
maxTimestampSoFar: 目前为止最大的时间,也就是timeIndex文件最后一个entry的时间戳
offsetOfMaxTimestamp:timeIndex文件最后一个entry的对应的offset
二 重要的方法
2.1 append 根据指定的offset开始添加消息,如果满足添加索引的条件,也会添加offset 和 time 索引。注意这个方法不是线程安全的,在多线程环境下需要保证线程安全
@nonthreadsafe
defappend(firstOffset: Long,largestTimestamp: Long, offsetOfLargestTimestamp: Long, messages:ByteBufferMessageSet) {
if (messages.sizeInBytes> 0) {
trace("Inserting %d bytes at offset %d at position %d with largesttimestamp %d at offset %d"
.format(messages.sizeInBytes,firstOffset, log.sizeInBytes(), largestTimestamp, offsetOfLargestTimestamp))
// 获取log现在的物理位置
val physicalPosition= log.sizeInBytes()
if (physicalPosition== 0)
rollingBasedTimestamp= Some(largestTimestamp)
// 调用Log#append添加消息,还是先写入内存的,
log.append(messages)
// 更细内存中最大的时间戳和相对应的offset
if (largestTimestamp> maxTimestampSoFar) {
maxTimestampSoFar= largestTimestamp
offsetOfMaxTimestamp= offsetOfLargestTimestamp
}
// 自从上一次添加索引到现在累计的字节数如果大于添加索引的间隔字节数,则添加索引
if(bytesSinceLastIndexEntry> indexIntervalBytes) {
index.append(firstOffset,physicalPosition)
timeIndex.maybeAppend(maxTimestampSoFar,offsetOfMaxTimestamp)
// 添加完毕后,把bytesSinceLastIndexEntry置为0,重新累计消息字节数
bytesSinceLastIndexEntry= 0
}
bytesSinceLastIndexEntry+= messages.sizeInBytes
}
}
2.2 read 从log segment第一个offset开始,读取消息,第一个offset应该大于指定的startOffset
startOffset: 指定读取的起始消息的offset
maxOffset: 指定读取结束的offset,可以为空
maxSize: 指定读取最大的字节数
maxPosition: 指定读取最大的物理地址,可选,默认是日志文件大小
@threadsafedef read(startOffset: Long, maxOffset: Option[Long], maxSize: Int, maxPosition: Long = size, minOneMessage: Boolean = false): FetchDataInfo = { if (maxSize < 0) throw new IllegalArgumentException("Invalid max size for log read (%d)".format(maxSize)) // 获取日志大小 val logSize = log.sizeInBytes // this may change, need to save a consistent copy // 找到第一个要读取的消息的物理文件位置,将startOffset准换成物理地址 val startOffsetAndSize = translateOffset(startOffset) // 如果起始位置已经在日志的末尾返回null if (startOffsetAndSize == null) return null val (startPosition, messageSetSize) = startOffsetAndSize val offsetMetadata = new LogOffsetMetadata(startOffset, this.baseOffset, startPosition.position) // 调整maxsize大小,如果消息太大,大于maxSize,必须从maxSize和messageSetSize取出最小的 val adjustedMaxSize = if (minOneMessage) math.max(maxSize, messageSetSize) else maxSize if (adjustedMaxSize == 0) return FetchDataInfo(offsetMetadata, MessageSet.Empty) // 计算消息长度,判断是否从给定的maxOffset读取 val length = maxOffset match { case None => min((maxPosition - startPosition.position).toInt, adjustedMaxSize) case Some(offset) => if (offset < startOffset) return FetchDataInfo(offsetMetadata, MessageSet.Empty, firstMessageSetIncomplete = false) // offset转化为实际物理地址,如果没有则把当前日志大小更新为endPosition val mapping = translateOffset(offset, startPosition.position) val endPosition = if (mapping == null) logSize else mapping._1.position min(min(maxPosition, endPosition) - startPosition.position, adjustedMaxSize).toInt } // 构造FetchDataInfo对象 FetchDataInfo(offsetMetadata, log.read(startPosition.position, length), firstMessageSetIncomplete = adjustedMaxSize < messageSetSize)}
2.3 translateOffset 将逻辑offset转换成物理的地址
在读取日志文件之前,需要将startOffset和maxOffset转换成对应的物理地址才能用,举个例子:
假设startOffset = 2021,那么我们来分析整个过程:
# 我们将绝对的offset 2021 转换成offset index文件中使用的相对offset,假设baseOffset=2000, 2021 – 2000 = 21
# 在offset 索引文件中查找21属于哪一个区间的,假设索引文件片段如下:
那么21属于20-30区间,那么就从position=478开始找绝对offset为2021的消息
# 通过FileMessageSet.searchFor遍历查找FileMessageSet得到(30,567)这个位置信息。
为什么是30呢?因为21这消息与其他消息被压缩后在一起你构成了offset=2021这个外层消息,并存入日志文件
private[log] def translateOffset(offset: Long, startingFilePosition: Int = 0): (OffsetPosition, Int) = { val mapping = index.lookup(offset) log.searchForOffsetWithSize(offset, max(mapping.position, startingFilePosition))}
- LogSegment分析
- kafka本地存储3-LogSegment
- ASE Can't allocate space for object 'syslogs' in database 'WEN' because 'logsegment' segment is full
- ASE :Space available in segment 'logsegment' has fallen critically low in database
- Can't allocate space for object 'syslogs' in database 'ge' because 'logsegment' segment is full/has no free extents. If you ran
- 分析
- 分析
- 分析
- 分析
- 分析
- 分析
- 分析
- 分析
- 分析
- 大家帮忙分析分析!
- FFMpeg分析详细分析
- FFMpeg分析详细分析
- core 分析的分析
- dedecms基础2012
- 安装appium
- USACO-Section1.3 Combination Lock[其他]
- java Spring定时任务详解
- 属性操作
- LogSegment分析
- MVC,MVP 和 MVVM 的图示
- Activiti的后台自动生成数据库表介绍
- jQuery选择器
- Linux学习笔记之系统管理
- 【读书笔记】大规模Web开发技术(第十六章 part2)
- 分形【分治递归】
- Tomcat之启动优化
- MinGW64的使用