www.999yzc.com有没有宏大度为O(n)的二维数组吞并去重算法

( www.999yzc.com )

有没有宏大度为O(n)的二维数组吞并去重算法

$a = [
    ['id'=>1],
    ['id'=>2],
    ['id'=>3],
    ['id'=>4],
    ['id'=>5],
    ['id'=>6]
];
$b = [
    ['id'=>5],
    ['id'=>6],
    ['id'=>7],
];
$c = [
    ['id'=>8],
    ['id'=>9]
];

function array_unique_merge() {
    $params = func_get_args();
    $result = [];
    $hashmap = [];
    $arr_count = count($params);
    for($i = 0; $i<$arr_count; $i++) {
        foreach($params[$i] as $key => $val) {
            $md5 = md5(json_encode($val));
            if (!isset($hashmap[$md5])) {
                $hashmap[$md5] = true;
                $result[] = $val;
            }
        }
    }
    return $result;
}

print_r(array_unique_merge($a, $b, $c));

我只是贴出来一下我的想法可以这么做。假如n指的是统统数组的元素数量之和。

这个必需要用2循环,对n的定义应该是多个联络干系数组的元素之和,双循环就算是O(n)了

serialize以后当作hash比较,这个思路呢?手机我就不写代码了…

(看完/读完)这篇文章有何感想! www.999yzc.com的分享…

发表评论

电子邮件地址不会被公开。 必填项已用*标注