数据传输DTS这个方便看下吗?-[阿里云_云淘科技]

数据传输DTS这个方便看下吗?【UID】:236664293968485698
【实例ID】:dtsp18125b912f71c5
【Job ID】:xcz12egv12752zx
【任务名称】:rule_engine-rds
【所有报错信息】:
CODE:dts.retry.err.0216
错误概述:任务运行遇到超大字段。
解决方案:请点击“一键复制”进入钉钉客户交流群咨询解决。
帮助文档:https://help.aliyun.com/document_detail/462133.html#DTS-RETRY-ERR-0216
详细报错信息:full-postgresql: DTS-65708: copy error, recordRange={id:5110516881828085791,schema:rule_engine.result_info,indexName:,fields:[id BIGINT not nullable primary unique],leftValues:[3174541],rightValues:[3276942],partition:null}, copySql=/ DTS-full-he412hgo12y8049 // DTS-full-he412hgo12y8049 /COPY “rule_engine”.”result_info” (“id”,”delete”,”create_user”,”modify_user”,”create_time”,”modify_time”,”version”,”request_id”,”request_param”,”result”,”insurance_id”,”status”,”case_detail_id”,”type”,”report_no”,”source”) FROM STDIN DELIMITER ‘|’ ESCAPE ‘\’ CSV QUOTE ‘”‘
cause:
OutOfMemoryError: Java heap space
【URL】:https://dtsnew.console.aliyun.com/sync/detail/manager/xcz12egv12752zx?serial=30
【当前时间】:2023-12-12 14:46:23
【Region】:cn-hangzhou

以下为热心网友提供的参考意见

你遇到的问题是数据传输DTS在迁移过程中遇到了”Java heap space”的错误,这通常表示在处理大数据量或复杂查询时,分配给Java虚拟机(JVM)的内存不足以完成任务。

根据报错信息中的“任务运行遇到超大字段”和“COPY … FROM STDIN”语句,这个问题可能与PostgreSQL表中的一个或多个字段包含非常大的数据值有关。以下是一些可能的解决方法:

  1. 增加JVM堆大小:如果你在使用自定义的DTS实例或者有权限调整JVM配置,你可以尝试增加JVM的堆大小。这可以通过修改相关配置文件中的-Xms-Xmx参数来实现。例如,将它们设置为更大的值,如 -Xms2g -Xmx4g(根据你的实际资源情况调整)。
  2. 优化数据迁移任务: 分批迁移:如果你的数据量非常大,可以考虑将数据迁移任务分成多个小批次进行,以减少单次任务所需的内存。 简化SQL查询:如果数据迁移任务涉及复杂的SQL查询,尝试简化这些查询或者优化数据库索引,以降低内存消耗。
  3. 处理超大字段: 检查源数据库中的”rule_engine.result_info”表,看看是否有字段包含了非常大的数据值。如果有,考虑是否可以对这些字段进行压缩、截断或者使用其他方式来减少数据大小。如果这些超大字段不是必须迁移的,你可以在DTS的任务配置中排除这些字段。

以下为热心网友提供的参考意见

您好 任务已经正常运行,oom导致的,我后端优化了参数 ,此回答整理自钉群“DTS客户交流群-2”

本文来自投稿,不代表新手站长_郑州云淘科技有限公司立场,如若转载,请注明出处:https://www.cnzhanzhang.com/10850.html

(0)
匿名
上一篇 2023年12月20日
下一篇 2023年12月20日

相关推荐

新手站长从“心”出发,感谢16年您始终不离不弃。