最近在某聊天群窥屏:又get了一个问题。群友问:服务器是5台64G的 ,doris写入300亿数据写不进去,爆内存怎么弄?
和上个问题类似, emm, 好久没接触这些了问题,我一时半会没反应过来,于是和昨天一样,查了一晚上资料,连夜肝了一篇。
看到这些问题就像死去的回忆在攻击我。为啥这么说呢,因为我现在转行啦哈哈,我本来是干大数据的,不过现在死磕云计算,还是云计算轻松,爽歪歪。
上个问题链接已附上如下: hh,不过我可不敢让他们知道我在diss某人,我怕他们真实我。为了防止被真实,我直接连夜改昵称。
如何用sql在1分钟从1T数据中精准定位查询?Hive离线数仓 Spark分析-CSDN博客文章浏览阅读819次,点赞27次,收藏5次。在大数据-Hadoop体系中 ,spark批处理和hive离线数仓可以说是对立并行的两个大分支技术栈,,,建议主攻其一,另一个灵活使用就行。他们是2015出现在国内,2017年之后国外各大公司纷纷采用,国内2020采用的,目前属于很前沿,并且很主流,很顶层的技术。(注:19年国内云计算开始起势,大数据的发展与云计算和人工智能等密切相关,更离不开芯片,硬件存储技术等相关支撑,它们之间相辅相成https://blog.csdn.net/qq_61414097/article/details/140999898?spm=1001.2014.3001.5502
在处理大规模数据写入时,遇到内存不足的问题是常见的挑战,怎么说呢,以前天天思考,干的头蒙。
主要是:思路+例子,毕竟每个人的配置和存的数据五花八门,我暂时还没有能力总结所有概况。。。。
示例:
假设你有300亿条数据,可以将其分成300个批次,每批次写入1亿条数据。
Copy-- 批次1 INSERT INTO your_table (col1, col2, ...) VALUES (val1_1, val1_2, ...), (val2_1, val2_2, ...), ... (val100000000_1, val100000000_2, ...); -- 批次2 INSERT INTO your_table (col1, col2, ...) VALUES (val100000001_1, val100000001_2, ...), (val100000002_1, val100000002_2, ...), ... (val200000000_1, val200000000_2, ...);
be_config
文件中的mem_limit
参数,确保每台服务器的内存使用在合理范围内。示例:
在be_config
文件中,找到mem_limit
参数并调整:
Copymem_limit = 48G
确保这个值不会超过物理内存的75%-80%。
示例:
如果你的表有很多不必要的索引,可以考虑去掉一些:
CopyCREATE TABLE your_table ( id INT PRIMARY KEY, name VARCHAR(255), age INT, -- 去掉不必要的索引 -- INDEX (some_column) );
示例:
按日期分区:
CopyCREATE TABLE your_table ( id INT, name VARCHAR(255), age INT, created_date DATE ) PARTITION BY RANGE (created_date) ( PARTITION p0 VALUES LESS THAN ('2022-01-01'), PARTITION p1 VALUES LESS THAN ('2023-01-01') );
示例:
假设你现在有5个节点,可以再添加3个节点:# 在新的节点上安装Doris
# 配置新的节点并加入集群
示例:
使用Prometheus和Grafana监控Doris:
Copy# 配置Prometheus监控Doris # 使用Grafana展示内存使用情况
示例:
在创建表时指定压缩方式:
CopyCREATE TABLE your_table ( id INT, name VARCHAR(255), age INT ) ENGINE=OLAP DUPLICATE KEY(id) DISTRIBUTED BY HASH(id) BUCKETS 10 PROPERTIES ( "storage_format" = "V2", "compression" = "LZ4" );
示例:
使用批量插入而不是单条记录插入:
Copy-- 不推荐 INSERT INTO your_table (col1, col2) VALUES (val1, val2); INSERT INTO your_table (col1, col2) VALUES (val3, val4); -- 推荐 INSERT INTO your_table (col1, col2) VALUES (val1, val2), (val3, val4), (val5, val6);
示例:
Copy-- 批量插入 INSERT INTO your_table (col1, col2, col3) VALUES (val1_1, val1_2, val1_3), (val2_1, val2_2, val2_3), ... (valN_1, valN_2, valN_3);
示例:
Copy# 调整swappiness sysctl vm.swappiness=10
但是注意:具体的调整和优化需要根据你的实际情况进行测试和验证
未完待续。。。。