hadoop - Hive动态分区-Spark的并发写入会破坏数据

标签 hadoop apache-spark hive

我们已经设置了一个 Spark 作业,以插入到Hive中(使用数据框)。配置单元表用于创建动态分区。只要我们运行一个spark作业以将数据插入Hive,一切都将正常运行。

我们遇到的问题是,我们期望运行并发的Spark作业以将数据加载到Hive中。这似乎不起作用。我读过,动态分区不提供排他锁,而是提供共享锁。在我们的案例中,我们可以看到,如果同时运行4-5个Spark作业,则数据将被破坏,某些记录将丢失。几乎每次都非常容易复制。

有人解决了吗?即使用带有并发作业的动态分区将其插入配置单元表,并仍确保不会发生数据损坏。任何输入,不胜感激!

Spark 代码的片段:

// Set hive conf to allow dynamic partitions to be created
sqlContext.setConf("hive.exec.dynamic.partition.mode", "nonstrict")

//Create temp table to load data into Hive
parsedDataDF.registerTempTable("parsedDatatempTable")

//Insert data into Hive, dynamic partitioning   
sqlContext.sql("insert into table " + hiveDBToLoad + "." + hiveTableToLoad + " partition (partition_1, partition_2, partition_3) " +
    "select * from parsedDatatempTable")

最佳答案

    $partition_tbl=array();
$partition_tbl[]=array(
    'tbl'=>$wpdb->prefix.'postmeta',
    'field'=>'meta_id',
    'limit'=>2,
    'part_key'=>'p',
);
$partition_tbl[]=array(
    'tbl'=>$wpdb->prefix.'posts',
    'field'=>'ID',
    'limit'=>2,
    'part_key'=>'pos',
);
        
if(!empty($partition_tbl)){
    foreach($partition_tbl as $ppptt){
        $field=$ppptt['field'];
        $tbl=$ppptt['tbl'];
        $limit=$ppptt['limit'];
        $part_key=$ppptt['part_key'];
        $get_max = $wpdb->get_results("SELECT * FROM ".$wpdb->prefix."postmeta ORDER BY $field DESC LIMIT 0, 1");
        if(!empty($get_max)){
            $max=$get_max[0]->$field;
            if($max > $limit){                              
                $partcc=ceil($max/$limit);          
                $has_partitions = $wpdb->get_results("EXPLAIN partitions SELECT * FROM ".$tbl);     
                $haspartarr=array('none');
                if(!empty($has_partitions)){
                    if(!empty($has_partitions[0]->partitions)){
                        $haspartarr=explode(",",$has_partitions[0]->partitions);
                        if(count($haspartarr) > 1){
                             unset($haspartarr[count($haspartarr)-1]);
                        }
                    }
                }
                $part_sql='';
                $part_arr=array();
                $first=true;
                for($i=0;$i<$partcc;$i++){
                    $cpart=$part_key.$i;
                    $reclim=$limit*($i+1);
                    if(!in_array($cpart,$haspartarr)){
                        if(empty($has_partitions[0]->partitions)){
                            $part_arr[]="PARTITION $cpart VALUES LESS THAN ($reclim)";
                        }else{
                            $nwlmn=($reclim-$limit);                        
                            if($first){
                                $part_sql.="ALTER TABLE $tbl REORGANIZE PARTITION $cpart INTO (";
                                $first=false;
                                $morel=$nwlmn-$limit;                                       
                            }
                            $part_arr[]="PARTITION $cpart VALUES LESS THAN ($reclim)";                                          
                        }
                    }
                }
                if(empty($has_partitions[0]->partitions) && !empty($part_arr)){
                    $cpart=$part_key.$i;                
                    $part_arr[]="PARTITION $cpart VALUES LESS THAN MAXVALUE";               
                    $part_sql.="ALTER TABLE $tbl PARTITION BY RANGE($field)(";
                    $part_sql.=implode(",",$part_arr);
                    $part_sql.=")";
                    $wpdb->get_results($part_sql);
                }else{
                    if(!empty($part_arr)){
                        $cpart=$part_key.$i;
                        $part_arr[]="PARTITION $cpart VALUES LESS THAN MAXVALUE";
                        $part_sql.=implode(",",$part_arr);      
                        $part_sql.=");";
                        $wpdb->get_results($part_sql);
                    }           
                }
            }
        }

    }
}

关于hadoop - Hive动态分区-Spark的并发写入会破坏数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41349118/

相关文章:

python - pyspark:从现有列创建 MapType 列

apache-spark - 为什么我的 Spark 应用程序只在 1 个执行程序中运行?

python - 在 pyspark 中不使用 pivot 进行分组的有效方法

hadoop - 将 pig 结果存储到本地文件

hadoop - 无法在 Hadoop map-reduce 作业中加载 OpenNLP 句子模型

r - Hadoop 和 R 入门

hadoop - Hive Metastore到SYS

hadoop - IIS日志实时流式传输到Hadoop

hive - Hive 脚本参数的默认值

org.apache.hadoop.conf.Configuration.getLocalpath(配置)中的 java.lang.NullPointerException