HANA的扩容考虑
这里将探讨,HANA内存和磁盘的关系,以及扩容条件的判断,不对之处还请指正。
一、一些结论:
1、HANA不能存储大于磁盘大小的数据量,但是这不意味着小于这个数据量时就能正常运行。影响的因素在于内存,如果运行所需内存大于HANA内存时,会发生错误。
2、运行的内存难以判断,因为内存会常驻,如果不够时,会把可以不用的内存数据替换掉。
3、理想情况,运行的内存应该至少是当前要处理数据的两倍,这是因为要给数据处理预留50%的内存。
4、磁盘到内存的加载机制是:内存只会加载需要的分区列,这是磁盘加载到内存的最小单位。这同时说明,磁盘的数据大于内存是可行的,因为内存只会从磁盘中加载需要的数据,个人认为与磁盘优先的传统数据库的加载方式区别在于这个粒度。
二、扩容考虑:
1、磁盘的扩容条件是历史数据的大小,可以数据增长来估算磁盘是否需要扩展,这部分的扩展是纯硬件的,SAP不会收取额外费用。
2、内存的扩容取决于,峰值时需要的内存量,这个值很难通过直接估算。原因在于:
- 数据内存不会主动释放,也就是即使内存使用率达到90%触发替换,也不能证明内存达到瓶颈
- 即使出现内存不足的错误,可以通过错峰使用、优化任务链调度或改进转换程序来解决
内存的扩容是SAP收费的标准。
3、运行时长可作为CPU的扩容依据,一般通过水平扩展机器来解决,或针对分布式的架构从并发角度优化。
参考:
How and when HANA SP7 loads and unloads data into memory | SAP Blogs
post SAP-Garson
原文链接:https://blog.csdn.net/yians/article/details/126491408文章来自于网络,如果侵犯了您的权益,请联系站长删除!