Flink Batch Hash Aggregate

news/2024/9/26 5:23:01

数据类型要求

BatchPhysicalHashAggRule match 条件会判断 isAggBufferFixedLength(agg)

为什么要求 aggCall 的类型是 Fixed Length 的才可以使用 HashAggregate ?

因为在 HashAggregate 中, 依赖于 BytesHashMap 数据结构来存储 keyValue 数据. 而 ByteHashMap 不支持变长的 value

Pasted image 20240510100856

ByteHashMap 结构

实现参考自 Spark BytesToBytesMap , 以二进制结构存储实现的 hashMap. 其目的就是绕过 JVM 的 GC, 直接将数据序列化之后存储到基于堆外的 MemorySegment 上.

数据分为两个部分 Bucket Area 和 Record Area. 分别存储 key 和对应的 record.

public BinaryRowData append(LookupInfo<K, BinaryRowData> lookupInfo, BinaryRowData value)throws IOException {try {if (numElements >= growthThreshold) {growAndRehash();// update info's bucketSegmentIndex and bucketOffsetlookup(lookupInfo.key);}BinaryRowData toAppend = hashSetMode ? reusedValue : value;int pointerToAppended = recordArea.appendRecord(lookupInfo, toAppend);bucketSegments.get(lookupInfo.bucketSegmentIndex).putInt(lookupInfo.bucketOffset, pointerToAppended);bucketSegments.get(lookupInfo.bucketSegmentIndex).putInt(lookupInfo.bucketOffset + ELEMENT_POINT_LENGTH, lookupInfo.keyHashCode);numElements++;recordArea.setReadPosition(pointerToAppended);((RecordArea) recordArea).skipKey();return recordArea.readValue(reusedValue);} catch (EOFException e) {numSpillFiles++;spillInBytes += recordArea.getSegmentsSize();throw e;}
public int appendRecord(LookupInfo<K, BinaryRowData> lookupInfo, BinaryRowData value)throws IOException {final long oldLastPosition = outView.getCurrentOffset();// serialize the key into the BytesHashMap record areaint skip = keySerializer.serializeToPages(lookupInfo.getKey(), outView);long offset = oldLastPosition + skip;// serialize the value into the BytesHashMap record areavalueSerializer.serializeToPages(value, outView);if (offset > Integer.MAX_VALUE) {LOG.warn("We can't handle key area with more than Integer.MAX_VALUE bytes,"+ " because the pointer is a integer.");throw new EOFException();}return (int) offset;
}

BytesHashMap 本身没有实现更新的功能, 但是 lookup 得到的结果 LookupInfo 中包含了 kv pair, value 作为 BinaryRow 是可以直接更新的.

public static final class LookupInfo<K, V> {boolean found;K key;V value;/*** The hashcode of the look up key passed to {@link BytesMap#lookup(K)}, Caching this* hashcode here allows us to avoid re-hashing the key when inserting a value for that key.* The same purpose with bucketSegmentIndex, bucketOffset.*/int keyHashCode;int bucketSegmentIndex;int bucketOffset;}

例如 Hash Aggregate 的过程代码如下

val processCode =s"""| // input field access for group key projection and aggregate buffer update|${ctx.reuseInputUnboxingCode(inputTerm)}| // project key from input|$keyProjectionCode| // look up output buffer using current group key|$lookupInfo = ($lookupInfoTypeTerm) $aggregateMapTerm.lookup($currentKeyTerm);|$currentAggBufferTerm = ($binaryRowTypeTerm) $lookupInfo.getValue();||if (!$lookupInfo.isFound()) {|  $lazyInitAggBufferCode|  // append empty agg buffer into aggregate map for current group key|  try {|    $currentAggBufferTerm =|      $aggregateMapTerm.append($lookupInfo, ${initedAggBuffer.resultTerm});|  } catch (java.io.EOFException exp) {|    $dealWithAggHashMapOOM|  }|}| // aggregate buffer fields access|${ctx.reuseInputUnboxingCode(currentAggBufferTerm)}| // do aggregate and update agg buffer|${aggregate.code}|""".stripMargin.trim

当 lookup info 找到时, 就执行 aggregate.code, 以 sum 生成的 codegen 为例, 从 lookup info 中获取 Agg buffer, 计算完就直接回写 BinaryRow 了

 // look up output buffer using current group key
lookupInfo$10 = (org.apache.flink.table.runtime.util.collections.binary.BytesMap.LookupInfo) aggregateMap$9.lookup(currentKey$4);
currentAggBuffer$14 = (org.apache.flink.table.data.binary.BinaryRowData) lookupInfo$10.getValue();// 累加
isNull$19 = isNull$18 || isNull$17;
result$20 = -1L;
if (!isNull$19) {
result$20 = (long) (field$18 + field$17);
}// 更新
if (isNull$22) {currentAggBuffer$14.setNullAt(0);
} else {currentAggBuffer$14.setLong(0, result$22);
}

如果 BinaryRow 中的部分字段为变长, 是没法直接原地更新的, 这就为什么 Hash Aggregate 要求 agg buffer 为定长.

解决这个问题的, 最简单的思路就是, BytesHashMap 是为了去除 JVM 管理, 那为了简化对于非定长的, 还是 Fallback 到 JVM 的对象, Spark ObjectHashAggregate 就是这种思路.
但是这种情况下的问题是堆内存你不知道什么时候触发 spill. 基于非堆时, 已使用大小都是已知的, 而堆上就不确定了, 比较容易触发 oom 或者 GC 问题, Spark 中 flush 就按照保守估计的 key 超过一定数量就 spill.

但总的来说, 性能应该优于 SortAggregate 的

Spark:

Spark SQL 查询引擎– HashAggregateExec & ObjectHashAggregateExec

[SPARK-17949][SQL] A JVM object based aggregate operator

DeclarativeAggregateFunction & ImperativeAggregateFunction

另一个限制是 HashAggregate 中强要求了 Agg 函数需要时 DeclarativeAggregateFunction 类型的. 聚合函数的实现有两类

  • DeclarativeAggregateFunction 声明式, 基于 Expression Api 描述
  • ImperativeAggregateFunction 命令式, 一般面向用户 api (UDAF 继承)
    • image.png
public Expression[] accumulateExpressions() {return new Expression[] {/* sum = */ ifThenElse(isNull(operand(0)),sum,ifThenElse(isNull(operand(0)),sum,ifThenElse(isNull(sum), operand(0), adjustedPlus(sum, operand(0)))))};
}
public void accumulate(Row accumulator, String s) {  final String max = (String) accumulator.getField(0);  if (max == null || s.compareTo(max) > 0) {  accumulator.setField(0, s);  }  
}

从直观来看, ImperativeAggregateFunction 的 accumulate 方法没有返回值, 所以 ACC 一定是个复杂类型, 否则累计值无法更新. 因此 ImperativeAggregateFunction 的 agg 类型一定不是 Fixed type.

DeclarativeAggregateFunction 的 accumulate 函数是一个表达式, 表达式是有返回值的. 比如 ifThenElse 最终返回的就是其中一个值. 因此可以直接为 Long 类型.

这一点上我觉得 ImperativeAggregateFunction 应该也是可以改造成这种形式的, 这样对于用户的 UDAF 来说是更友好的, 可以避免额外的包装, 硬生生变成一个非 Fixed Length 的类型.

所以在 HashAggregate Codegen 目前只支持 DeclarativeAggregateFunction 声明的聚合函数. Codegen 中代码依赖. 由于上面 ImperativeAggregateFunction 的类型一定推导不出 Fixed type, 所以 ImperativeAggregateFunction 不会走到HashAggregate

Pasted image 20240510105855

Spark

从 Spark 来看 Agg 函数的接口会更清楚一些, spark 中有五类接口(也许更多)

  • 用户API
    • UserDefinedAggregateFunction 会封装成 -> ImperativeAggregate. 但每次传输给用户时, 都会进行序列化和反序列化
    • Aggregator : org.apache.spark.sql.functions#udaf -> 创建出 ScalaAggregator 继承自 TypedImperativeAggregate 用户可以定义任意类型的 Agg Buf.
    • 两个类型的比较
  • 内部API
    • DeclarativeAggregate: for aggregation functions that are specified using Catalyst expressions. 生命式
    • ImperativeAggregate: for aggregation functions that are specified in terms of initialize(), update(), and merge() functions that operate on Row-based aggregation buffers. 命令式 InternalRow 作为内部类型
    • TypedImperativeAggregate 任意类型作为 ACC 命令式

从这个定义来看, 并没有说 ImperativeAggregate 适用于 Variable Length 的类型.

abstract class ImperativeAggregate extends AggregateFunction with CodegenFallback {/**  
* Initializes the mutable aggregation buffer located in `mutableAggBuffer`.  
*  
* Use `fieldNumber + mutableAggBufferOffset` to access fields of `mutableAggBuffer`.  
*/  
def initialize(mutableAggBuffer: InternalRow): Unit  /**  
* Updates its aggregation buffer, located in `mutableAggBuffer`, based on the given `inputRow`.  
*  
* Use `fieldNumber + mutableAggBufferOffset` to access fields of `mutableAggBuffer`.  
*  
* Note that, the input row may be produced by unsafe projection and it may not be safe to cache  
* some fields of the input row, as the values can be changed unexpectedly.  
*/  
def update(mutableAggBuffer: InternalRow, inputRow: InternalRow): Unit  /**  
* Combines new intermediate results from the `inputAggBuffer` with the existing intermediate  
* results in the `mutableAggBuffer.`  
*  
* Use `fieldNumber + mutableAggBufferOffset` to access fields of `mutableAggBuffer`.  
* Use `fieldNumber + inputAggBufferOffset` to access fields of `inputAggBuffer`.  
*  
* Note that, the input row may be produced by unsafe projection and it may not be safe to cache  
* some fields of the input row, as the values can be changed unexpectedly.  
*/  
def merge(mutableAggBuffer: InternalRow, inputAggBuffer: InternalRow): Unit  
}}

TypedImperativeAggregate, 他的接口定义就是泛型, 因此可以定义任意类型作为 ACC type. 这类接口就是上面所支持的 ObjectHashAggregate 的类型

  /*** Updates the aggregation buffer object with an input row and returns a new buffer object. For* performance, the function may do in-place update and return it instead of constructing new* buffer object.** This is typically called when doing Partial or Complete mode aggregation.** @param buffer The aggregation buffer object.* @param input an input row*/def update(buffer: T, input: InternalRow): T/*** Merges an input aggregation object into aggregation buffer object and returns a new buffer* object. For performance, the function may do in-place merge and return it instead of* constructing new buffer object.** This is typically called when doing PartialMerge or Final mode aggregation.** @param buffer the aggregation buffer object used to store the aggregation result.* @param input an input aggregation object. Input aggregation object can be produced by*              de-serializing the partial aggregate's output from Mapper side.*/def merge(buffer: T, input: T): T

HashAggregate 算子

ProcessCode

val processCode =s"""| // input field access for group key projection and aggregate buffer update|${ctx.reuseInputUnboxingCode(inputTerm)}| // project key from input|$keyProjectionCode| // look up output buffer using current group key|$lookupInfo = ($lookupInfoTypeTerm) $aggregateMapTerm.lookup($currentKeyTerm);|$currentAggBufferTerm = ($binaryRowTypeTerm) $lookupInfo.getValue();||if (!$lookupInfo.isFound()) {|  $lazyInitAggBufferCode|  // append empty agg buffer into aggregate map for current group key|  try {|    $currentAggBufferTerm =|      $aggregateMapTerm.append($lookupInfo, ${initedAggBuffer.resultTerm});|  } catch (java.io.EOFException exp) {|    $dealWithAggHashMapOOM|  }|}| // aggregate buffer fields access|${ctx.reuseInputUnboxingCode(currentAggBufferTerm)}| // do aggregate and update agg buffer|${aggregate.code}|""".stripMargin.trim

Append 写入数据时, 当内存不足时(申请 segment 申请不到), 会触发 EOFException. 在 processCode 的逻辑中就会执行 dealWithAggHashOOM 的逻辑. 这里会分两种

image.png|625

  • Local: 对于 local 阶段如果出现 OOM 那么就将当前 BytesHashMap 中保存的数据下发即 outputResultFromMap. 下发完成后清空 Map 再尝试插入一次 retryAppend
        s"""|$logMapOutput| // hash map out of memory, output directly|$outputResultFromMap| // retry append|$retryAppend""".stripMargin
    
  • Global: 当出现内存不足时, 触发 sort and spill, 将内存数据先排序, 再写入本地
      val dealWithAggHashMapOOM =s"""|$logMapSpilling| // hash map out of memory, spill to external sorter|if ($sorterTerm == null) {|  $createSorter|}| // sort and spill|$sorterTerm.sortAndSpill(|  $aggregateMapTerm.getRecordAreaMemorySegments(),|  $aggregateMapTerm.getNumElements(),|  new $memPoolTypeTerm($aggregateMapTerm.getBucketAreaMemorySegments()));| // retry append|$retryAppend""".stripMargin
    

EndInput

val endInputCode = if (isFinal) {val memPoolTypeTerm = classOf[BytesHashMapSpillMemorySegmentPool].getNames"""|if ($sorterTerm == null) {| // no spilling, output by iterating aggregate map.| $outputResultFromMap|} else {|  // spill last part of input' aggregation output buffer|  $sorterTerm.sortAndSpill(|    $aggregateMapTerm.getRecordAreaMemorySegments(),|    $aggregateMapTerm.getNumElements(),|    new $memPoolTypeTerm($aggregateMapTerm.getBucketAreaMemorySegments()));|   // only release floating memory in advance.|   $aggregateMapTerm.free(true);|  // fall back to sort based aggregation|  $fallbackToSortAggCode|}""".stripMargin
} else {s"$outputResultFromMap"
}
  • Local 阶段: 将 Map 中剩余的数据遍历下发 outputResultFromMap
  • Global 阶段:
    • 没有发生过 Spill, 将 Map 中剩余的数据遍历下发 outputResultFromMap
    • 发生过 Spill. 先将最后一批内存的数据 sortAndSpill 写入本地, 再执行 fallbackToSortAgg 的逻辑, 即执行 SortAgg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.ryyt.cn/news/30579.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈,一经查实,立即删除!

相关文章

checkpoint防火墙测试授权申请

本文介绍如何在线申请checkpoint防火墙的测试授权 请先确保已注册官网账号并能正常登录Product Center,并安装好checkpoint并配置好管理IP (授权申请需要用到设备IP地址,不需要连网) (官网账号最好使用公司邮箱申请) Product Center 链接 正常登录后可看到如下图内容其中sel…

扩展实现Unity协程的完整栈跟踪

现如今Unity中的协程(Coroutine)方案已显得老旧,Unitask等异步方案可以直接解决如异常捕获等各类问题, 并且Unity官方也在开发一套异步方案,但现阶段还是需要在协程这个方案上继续琢磨。Unity协程中无法输出完整的栈跟踪,因为协程编译后会转换为IL编码的状态机,中间存在…

Object.values()对象遍历

Object.keys() 对象的遍历返回给定对象所有可枚举属性的数组;是属性名组成的数组let obj = { a: 1, b: 2, c: 3 };Object.keys(obj).map((key) => {console.log(key, obj[key]);}); Object.values() 对象的遍历 返回一个给定对象自身的所有属性值的数组; 是属性值组成的…

浅析OSERDESE3

在高速接口的应用场景下,我们会经常听说SerDes(Serializer-Deserializer)这个词,也就是串行器和解串器,更为通俗的讲就是进行串并转换的。在Xilinx的FPGA中提供了ISERDES(提供串行数据到并行数据的转换)和OSERDES(提供并行数据到串行数据的转换)。在7系列的FPGA里面提供…

玩转AI,笔记本电脑安装属于自己的Llama 3 8B大模型和对话客户端

2024 年 4 月 18 日,Meta**开源**了 Llama 3 大模型,把 AI 的门槛降低到了最低,这是人工智能领域的一个重要飞跃。我们个人也可以部署大模型了,这简直就是给个人开发者发了个大红包!Llama 3 模型有不同的参数版本,本文主要分享我在个人笔记本电脑是部署 8B 参数过程和编写…

ABC353 | 如同流星划过天空

AtCoder Beginner Contest 353 (7/7)ABC353 | 如同流星划过天空 A. & B. 依题意模拟即可。 C. 注意只有 \(f(x,y)\) 需要对 \(10^8\) 取模,\(f\) 的求和不需要。 关注到 \(a_i \in [1,10^8)\),故 \(a_i + a_j \in [2,2 \times 10^8)\)。 从而 \(f(x,y)=[x+y<10^8](x…

代码随想录算法训练营第四天 | 24.两辆交换链表中的节点

23.两两交换链表中的两个节点 题目链接 文章讲解 视频讲解时间复杂度 o(n) 空间复杂度 o(1)tips: 画图,并将每一步操作用伪代码写出来,然后将代码理顺可以避免修改代码的麻烦 初始化的时候就要将previous初始化为current的前一个节点,这样可以保证循环的第一步满足循环要求c…

CSRF(原理)

CSRF是什么?Cross-site request forgery 简称为“CSRF”,在CSRF的攻击场景中攻击者会伪造一个请求(这个请求一般是一个链接),然后欺骗目标用户进行点击,用户一旦点击了这个请求,整个攻击就完成了。所以CSRF攻击也成为"one click"攻击。 很多人搞不清楚CSRF的概…