博客
关于我
684. Redundant Connection
阅读量:264 次
发布时间:2019-03-01

本文共 1337 字,大约阅读时间需要 4 分钟。

为了解决这个问题,我们需要从给定的图中找出一个额外的边,使得去掉这条边后,图变成一棵树。如果有多个这样的边,我们需要返回最后出现的那条边。

方法思路

我们可以使用并查集(Union-Find)数据结构来解决这个问题。并查集的基本思想是通过路径压缩和按秩合并来高效地管理和查询连通性。具体步骤如下:

  • 初始化父节点数组:每个节点的父节点最初是它自己。
  • 遍历每条边:对于每条边 (u, v),检查这两个节点是否已经连通。
    • 如果连通,说明这条边是多余的,记录下来。
    • 如果不连通,将这两个节点合并到同一个连通块中。
  • 返回最后出现的多余边:在遍历过程中,一旦发现多余边,就记录下来。最后返回这个记录的边。
  • 这种方法确保了在处理每条边时,我们能够高效地检测是否有多余边,并且在遇到多个解时返回最后一个出现的。

    解决代码

    class Solution {    int[] parent;    int n;    public int[] findRedundantConnection(int[][] edges) {        n = edges.length;        parent = new int[n + 1];        for (int i = 1; i <= n; i++) {            parent[i] = i;        }        int[] result = null;        for (int[] edge : edges) {            int u = edge[0];            int v = edge[1];            int rootU = find(u);            int rootV = find(v);            if (rootU == rootV) {                result = edge;            } else {                parent[rootU] = rootV;            }        }        return result;    }    private int find(int x) {        if (parent[x] != x) {            parent[x] = find(parent[x]);        }        return parent[x];    }}

    代码解释

  • 初始化父节点数组parent 数组用于记录每个节点的父节点,初始时每个节点的父节点是它自己。
  • 遍历每条边:对于每条边 (u, v),使用 find 方法分别查找它们的根节点。
  • 检测多余边:如果两个节点的根节点相同,说明已经连通,这条边就是多余的,记录下来。
  • 合并连通块:如果两个节点不连通,将它们的根节点合并,按秩合并(路径压缩)。
  • 返回结果:遍历完所有边后,返回记录的多余边。如果没有多余边(理论上题目中不会有这种情况),返回 null
  • 这种方法确保了在处理每条边时的高效性,并且能够正确返回最后出现的多余边。

    转载地址:http://dbxx.baihongyu.com/

    你可能感兴趣的文章
    Nginx配置TCP代理指南
    查看>>
    Nginx配置——不记录指定文件类型日志
    查看>>
    nginx配置一、二级域名、多域名对应(api接口、前端网站、后台管理网站)
    查看>>
    Nginx配置代理解决本地html进行ajax请求接口跨域问题
    查看>>
    nginx配置全解
    查看>>
    Nginx配置参数中文说明
    查看>>
    nginx配置域名和ip同时访问、开放多端口
    查看>>
    Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
    查看>>
    Nginx配置如何一键生成
    查看>>
    Nginx配置实例-负载均衡实例:平均访问多台服务器
    查看>>
    Nginx配置文件nginx.conf中文详解(总结)
    查看>>
    Nginx配置负载均衡到后台网关集群
    查看>>
    ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
    查看>>
    NHibernate学习[1]
    查看>>
    NHibernate异常:No persister for的解决办法
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>