摘要/Abstract
摘要: 随着地震勘探技术的进步,特别是高密度地震技术的发展,地震数据的体量越来越大.如何高效的处理海量地震数据成为了一个不可避免的问题.一个有效可行的解决方案是采用分布式并行处理技术对地震处理算法进行并行化改造,提升效率.目前使用较多的分布式并行技术包括MPI、MapReduce等.但是对于地表一致性处理算法,由于其具有多阶段、迭代和全局处理的特点,基于现有并行技术的并行改造难度巨大,处理大数据的效率难以有效提升.为此,本文引入了支持内存迭代计算的并行框架Spark,并以地表一致性剩余静校正方法为例,探讨了地表一致性处理技术的Spark并行化方法.主要思路是将算法执行流程转化为数据流转过程,应用Spark提供的强大的并行操作算子,实现算法的并行.对于流转过程中数据的平滑、匹配等操作进行了优化处理,提升了大数据支撑能力和效率.应用海量数据进行的测试证明,该方法可以支撑TB级海量数据的处理,并且具有很高的处理效率,可应用于高密度地震资料处理实际生产.
PDF全文下载地址:
http://www.progeophys.cn/CN/article/downloadArticleFile.do?attachType=PDF&id=9830