特征向量与PCA:降维技术的原理和实践-程序员宅基地

1.背景介绍

随着数据量的不断增长,数据处理和分析的复杂性也随之增加。降维技术成为了处理高维数据的重要手段,其中特征向量和PCA(主成分分析)是常见的降维方法。本文将详细介绍特征向量与PCA的原理、算法和实践,帮助读者更好地理解和应用这些方法。

1.1 高维数据的挑战

高维数据具有以下特点:

  • 数据点数量较少,特征数量较多。
  • 特征之间存在冗余和相关性。
  • 数据分布和结构复杂,难以直观地理解和可视化。

这些特点使得高维数据处理和分析变得非常困难,导致以下问题:

  • 计算效率低,存储空间需求大。
  • 算法性能差,预测准确度低。
  • 可视化和解释困难,难以提取有意义的信息。

因此,降维技术成为了处理高维数据的关键技术之一。

1.2 降维技术的需求和目标

降维技术的需求和目标包括:

  • 减少数据的维度,降低计算和存储成本。
  • 去除冗余和相关特征,提高算法性能。
  • 简化数据分布和结构,提高可视化和解释性。
  • 保留数据的主要信息和结构,避免信息损失。

降维技术应该满足以下要求:

  • 保持数据的核心特征和结构。
  • 最小化信息损失。
  • 尽可能地保持数据的原始关系。

1.3 降维技术的分类

降维技术可以分为以下几类:

  • 基于信息论的降维:如信息瓶颈、信息纬度减少等方法。
  • 基于簇和聚类的降维:如KPCA(Kernel PCA)、LLE(Locally Linear Embedding)等方法。
  • 基于线性代数的降维:如PCA(主成分分析)、LDA(线性判别分析)等方法。
  • 基于非线性映射的降维:如Isomap、MDS(多维缩放)等方法。
  • 基于机器学习的降维:如梯度下降、支持向量机等方法。

本文主要介绍特征向量与PCA(主成分分析)的原理和实践,这些方法属于基于线性代数的降维技术。

2.核心概念与联系

2.1 特征向量

特征向量(Feature Vector)是指一个向量,用于表示一个数据实例或对象的特征。特征向量中的元素对应于数据实例的特征值,可以用于计算和分析。

特征向量的主要特点:

  • 有限维:特征向量是一个有限维的向量,可以用于表示有限个特征。
  • 数值化:特征向量的元素是数值型的,可以用于计算和分析。
  • 线性组合:特征向量可以通过线性组合得到,即一个特征向量可以通过其他特征向量的线性组合得到。

2.2 PCA(主成分分析)

PCA(主成分分析)是一种基于线性代数的降维技术,其目标是找到数据中的主要信息和结构,将其表示为一组线性无关的主成分。主成分是数据中方差最大的线性组合,可以用于降低数据的维度,同时最大限度地保留数据的核心特征和结构。

PCA的主要特点:

  • 线性组合:PCA通过线性组合原始特征得到主成分,即主成分是原始特征的线性组合。
  • 最大化方差:PCA的目标是找到方差最大的线性组合,即主成分是原始特征的方差最大的线性组合。
  • 降维:PCA的目的是降低数据的维度,同时保留数据的主要信息和结构。

2.3 特征向量与PCA的联系

特征向量和PCA在降维过程中有一定的联系,可以互相转换。具体来说,PCA可以看作是对特征向量的线性组合和重新排序的过程。PCA首先找到方差最大的线性组合,即主成分,然后将这些主成分重新排序,得到一个新的特征向量。这个新的特征向量可以用于表示数据的主要信息和结构,同时降低了数据的维度。

3.核心算法原理和具体操作步骤以及数学模型公式详细讲解

3.1 PCA算法原理

PCA算法的原理是基于线性代数和统计学的原理,包括:

  • 线性代数:PCA通过线性组合原始特征得到主成分。
  • 统计学:PCA通过最大化方差来找到原始特征的主要信息和结构。

PCA算法的核心思路是:

  1. 计算原始特征的协方差矩阵。
  2. 计算协方差矩阵的特征值和特征向量。
  3. 按照特征值的大小对特征向量进行排序。
  4. 选取部分特征向量,构建降维后的特征矩阵。

3.2 PCA算法具体操作步骤

PCA算法的具体操作步骤如下:

  1. 标准化原始数据:将原始数据进行标准化处理,使得各个特征的均值为0,方差为1。
  2. 计算协方差矩阵:计算原始特征的协方差矩阵。
  3. 计算特征值和特征向量:计算协方差矩阵的特征值和特征向量。
  4. 按照特征值的大小对特征向量进行排序:将特征向量按照特征值的大小从大到小排序。
  5. 选取部分特征向量:根据需要降低的维度数选取部分特征向量,构建降维后的特征矩阵。

3.3 数学模型公式详细讲解

3.3.1 协方差矩阵

协方差矩阵是PCA算法的核心数据结构,用于描述原始特征之间的关系。协方差矩阵的大小为原始特征的数量,元素为协方差。协方差是一个量度,用于描述两个随机变量之间的线性关系。协方差的计算公式为:

$$ cov(X,Y) = E[(X - \muX)(Y - \muY)] $$

其中,$X$ 和 $Y$ 是随机变量,$\muX$ 和 $\muY$ 是 $X$ 和 $Y$ 的均值。

3.3.2 特征值和特征向量

特征值和特征向量是协方差矩阵的主要特征,用于描述原始特征之间的关系和主要信息。特征值是协方差矩阵的特征值,特征向量是协方差矩阵的特征向量。

要计算协方差矩阵的特征值和特征向量,可以使用特征分解法(Eigenvalue Decomposition)。特征分解法的公式为:

$$ \Lambda = PDP^T $$

其中,$\Lambda$ 是特征值矩阵,$P$ 是特征向量矩阵,$D$ 是对角线矩阵,其对角线元素为特征值。

3.3.3 降维

降维是PCA算法的主要目标,可以通过选取部分特征向量来实现。降维后的特征矩阵可以通过以下公式得到:

$$ X{reduced} = XrP_r $$

其中,$X{reduced}$ 是降维后的特征矩阵,$Xr$ 是原始特征矩阵,$P_r$ 是选取的特征向量矩阵。

4.具体代码实例和详细解释说明

4.1 导入库和数据准备

首先,我们需要导入相关库和准备数据。这里使用Python的NumPy和Scikit-learn库来实现PCA算法。

```python import numpy as np from sklearn.decomposition import PCA from sklearn.preprocessing import StandardScaler from sklearn.datasets import load_iris

加载鸢尾花数据集

iris = load_iris() X = iris.data y = iris.target ```

4.2 数据标准化

接下来,我们需要对原始数据进行标准化处理,使得各个特征的均值为0,方差为1。

```python

数据标准化

scaler = StandardScaler() Xstd = scaler.fittransform(X) ```

4.3 PCA算法实现

现在,我们可以使用Scikit-learn库中的PCA类来实现PCA算法。

```python

PCA算法实现

pca = PCA(ncomponents=2) # 选取2个主成分 Xpca = pca.fittransform(Xstd) ```

4.4 结果分析

最后,我们可以对结果进行分析,查看降维后的特征矩阵和原始数据的关系。

```python

结果分析

print("降维后的特征矩阵:\n", X_pca) print("原始数据的目标变量:\n", y) ```

5.未来发展趋势与挑战

5.1 未来发展趋势

未来的发展趋势包括:

  • 多模态数据的融合和处理:多模态数据(如图像、文本、音频等)的处理和融合将成为降维技术的重要应用领域。
  • 深度学习与降维的结合:深度学习和降维技术的结合将为降维技术提供更强大的表达能力和更高的效果。
  • 自适应和在线降维:随着数据量的增加,在线和自适应的降维技术将成为重要的研究方向。
  • 融合人工智能和机器学习:人工智能和机器学习的发展将推动降维技术的创新和进步。

5.2 挑战

挑战包括:

  • 高维数据的挑战:高维数据的处理和分析仍然是降维技术的主要挑战之一。
  • 非线性数据的处理:非线性数据的处理和分析仍然是降维技术的一个难点。
  • 解释性和可视化:降维技术的结果解释性和可视化仍然是一个难题。
  • 算法效率和计算成本:降维技术的算法效率和计算成本仍然是一个问题。

6.附录常见问题与解答

6.1 常见问题

  1. PCA和LDA的区别是什么?
  2. 如何选择PCA的维度?
  3. PCA和SVD(奇异值分解)的关系是什么?
  4. 降维后的数据是否可以直接用于机器学习模型?

6.2 解答

  1. PCA和LDA的区别在于:PCA是一种基于线性代数的降维技术,其目标是找到原始特征的方差最大的线性组合;LDA是一种基于线性判别分析的降维技术,其目标是找到原始特征的判别信息最大的线性组合。
  2. 选择PCA的维度时,可以根据解释性、准确性和计算成本进行权衡。一种方法是使用交叉验证,根据验证集上的表现来选择最佳的维度数。
  3. PCA和SVD的关系是:PCA可以看作是SVD的一个特例。SVD是一种矩阵分解技术,可以用于分解矩阵并找到其主要特征。PCA是在SVD的基础上,将矩阵分解后的特征值和特征向量用于降维的一个应用。
  4. 降维后的数据可以直接用于机器学习模型,但是需要注意的是,降维后的数据可能会导致部分信息损失,因此需要在降维后进行适当的调整和优化,以确保模型的准确性和效果。

27. 特征向量与PCA:降维技术的原理和实践

1.背景介绍

随着数据量的不断增长,数据处理和分析的复杂性也随之增加。降维技术成为了处理高维数据的重要手段,其中特征向量和PCA(主成分分析)是常见的降维方法。本文将详细介绍特征向量与PCA的原理、算法和实践,帮助读者更好地理解和应用这些方法。

1.1 高维数据的挑战

高维数据具有以下特点:

  • 数据点数量较少,特征数量较多。
  • 特征之间存在冗余和相关性。
  • 数据分布和结构复杂,难以直观地理解和可视化。

这些特点使得高维数据处理和分析变得非常困难,导致以下问题:

  • 计算效率低,存储空间需求大。
  • 算法性能差,预测准确度低。
  • 可视化和解释困难,难以提取有意义的信息。

因此,降维技术成为了处理高维数据的关键技术之一。

1.2 降维技术的需求和目标

降维技术的需求和目标包括:

  • 减少数据的维度,降低计算和存储成本。
  • 去除冗余和相关特征,提高算法性能。
  • 简化数据分布和结构,提高可视化和解释性。
  • 保留数据的主要信息和结构,避免信息损失。

降维技术应该满足以下要求:

  • 保持数据的核心特征和结构。
  • 最小化信息损失。
  • 尽可能地保持数据的原始关系。

1.3 降维技术的分类

降维技术可以分为以下几类:

  • 基于信息论的降维:如信息瓶颈、信息纬度减少等方法。
  • 基于簇和聚类的降维:如KPCA(Kernel PCA)、LLE(Locally Linear Embedding)等方法。
  • 基于线性代数的降维:如PCA(主成分分析)、LDA(线性判别分析)等方法。
  • 基于非线性映射的降维:如Isomap、MDS(多维缩放)等方法。
  • 基于机器学习的降维:如梯度下降、支持向量机等方法。

本文主要介绍特征向量与PCA(主成分分析)的原理和实践,这些方法属于基于线性代数的降维技术。

2.核心概念与联系

2.1 特征向量

特征向量(Feature Vector)是指一个向量,用于表示一个数据实例或对象的特征。特征向量的元素对应于数据实例的特征值,可以用于计算和分析。

特征向量的主要特点:

  • 有限维:特征向量是一个有限维的向量,可以用于表示有限个特征。
  • 数值化:特征向量的元素是数值型的,可以用于计算和分析。
  • 线性组合:特征向量可以通过线性组合得到,即一个特征向量可以通过其他特征向量的线性组合得到。

2.2 PCA(主成分分析)

PCA(主成分分析)是一种基于线性代数的降维技术,其目标是找到数据中的主要信息和结构,将其表示为一组线性无关的主成分。主成分是数据中方差最大的线性组合,可以用于降低数据的维度,同时最大限度地保留数据的核心特征和结构。

PCA的主要特点:

  • 线性组合:PCA通过线性组合原始特征得到主成分,即主成分是原始特征的线性组合。
  • 最大化方差:PCA的目标是找到方差最大的线性组合,即主成分是原始特征的方差最大的线性组合。
  • 降维:PCA的目的是降低数据的维度,同时保留数据的主要信息和结构。

2.3 特征向量与PCA的联系

特征向量和PCA在降维过程中有一定的联系,可以互相转换。具体来说,PCA可以看作是对特征向量的线性组合和重新排序的过程。PCA首先找到方差最大的线性组合,即主成分,然后将这些主成分重新排序,得到一个新的特征向量。这个新的特征向量可以用于表示数据的主要信息和结构,同时降低了数据的维度。

3.核心算法原理和具体操作步骤以及数学模型公式详细讲解

3.1 PCA算法原理

PCA算法的原理是基于线性代数和统计学的原理,包括:

  • 线性代数:PCA通过线性组合原始特征得到主成分。
  • 统计学:PCA通过最大化方差来找到原始特征的主要信息和结构。

PCA算法的核心思路是:

  1. 计算原始特征的协方差矩阵。
  2. 计算协方差矩阵的特征值和特征向量。
  3. 按照特征值的大小对特征向量进行排序。
  4. 选取部分特征向量,构建降维后的特征矩阵。

3.2 PCA算法具体操作步骤

PCA算法的具体操作步骤如下:

  1. 标准化原始数据:将原始数据进行标准化处理,使得各个特征的均值为0,方差为1。
  2. 计算协方差矩阵:计算原始特征的协方差矩阵。
  3. 计算特征值和特征向量:计算协方差矩阵的特征值和特征向量。
  4. 按照特征值的大小对特征向量进行排序:将特征向量按照特征值的大小从大到小排序。
  5. 选取部分特征向量:根据需要降低的维度数选取部分特征向量,构建降维后的特征矩阵。

3.3 数学模型公式详细讲解

3.3.1 协方差矩阵

协方差矩阵是PCA算法的主要数据结构,用于描述原始特征之间的关系。协方差矩阵的大小为原始特征的数量,元素为协方差。协方差是一个量度,用于描述两个随机变量之间的线性关系。协方差的计算公式为:

$$ cov(X,Y) = E[(X - \muX)(Y - \muY)] $$

其中,$X$ 和 $Y$ 是随机变量,$\muX$ 和 $\muY$ 是 $X$ 和 $Y$ 的均值。

3.3.2 特征值和特征向量

特征值和特征向量是协方差矩阵的主要特征,用于描述原始特征之间的关系和主要信息。特征值是协方差矩阵的特征值,特征向量是协方差矩阵的特征向量。

要计算协方差矩阵的特征值和特征向量,可以使用特征分解法(Eigenvalue Decomposition)。特征分解法的公式为:

$$ \Lambda = PDP^T $$

其中,$\Lambda$ 是特征值矩阵,$P$ 是特征向量矩阵,$D$ 是对角线矩阵,其对角线元素为特征值。

3.3.3 降维

降维是PCA算法的主要目标,可以通过选取部分特征向量来实现。降维后的特征矩阵可以通过以下公式得到:

$$ X{reduced} = XrP_r $$

其中,$X{reduced}$ 是降维后的特征矩阵,$Xr$ 是原始特征矩阵,$P_r$ 是选取的特征向量矩阵。

4.具体代码实例和详细解释说明

4.1 导入库和数据准备

首先,我们需要导入相关库和准备数据。这里使用Python的NumPy和Scikit-learn库来实现PCA算法。

```python import numpy as np from sklearn.decomposition import PCA from sklearn.preprocessing import StandardScaler from sklearn.datasets import load_iris

加载鸢尾花数据集

iris = load_iris() X = iris.data y = iris.target ```

4.2 数据标准化

接下来,我们需要对原始数据进行标准化处理,使得各个特征的均值为0,方差为1。

```python

数据标准化

scaler = StandardScaler() Xstd = scaler.fittransform(X) ```

4.3 PCA算法实现

现在,我们可以使用Scikit-learn库中的PCA类来实现PCA算法。

```python

PCA算法实现

pca = PCA(ncomponents=2) # 选取2个主成分 Xpca = pca.fittransform(Xstd) ```

4.4 结果分析

最后,我们可以对结果进行分析,查看降维后的特征矩阵和原始数据的关系。

```python

结果分析

print("降维后的特征矩阵:\n", X_pca) print("原始数据的目标变量:\n", y) ```

5.未来发展趋势与挑战

5.1 未来发展趋势

未来的发展趋势包括:

  • 多模态数据的融合和处理:多模态数据(如图像、文本、音频等)的处理和融合将成为降维技术的重要应用领域。
  • 深度学习与降维的结合:深度学习和降维技术的结合将为降维技术提供更强大的表达能力和更高的效果。
  • 自适应和在线降维:随着数据量的增加,在线和自适应的降维技术将成为重要的研究方向。
  • 融合人工智能和机器学习:人工智能和机器学习的发展将推动降维技术的创新和进步。

5.2 挑战

挑战包括:

  • 高维数据的挑战:高维数据的处理和分析仍然是降维技术的主要挑战之一。
  • 非线性数据的处理和分析:非线性数据的处理和分析仍然是降维技术的一个难点。
  • 解释性和可视化:降维后的数据是否可以直接用于机器学习模型?
  • 算法效率和计算成本:降维技术的算法效率和计算成本仍然是一个问题。

6.附录常见问题与解答

6.1 常见问题

  1. PCA和LDA的区别是什么?
  2. 如何选择PCA的维度?
  3. PCA和SVD(奇异值分解)的关系是什么?
  4. 降维后的数据是否可以直接用于机器学习模型?

6.2 解答

  1. PCA和LDA的区别在于:PCA是一种基于线性代数的降维技术,其目标是找到原始特征的方差最大的线性组合;LDA是一种基于线性判别分析的降维技术,其目标是找到原始特征的判别信息最大的线性组合。
  2. 选择PCA的维度时,可以根据解释性、准确性和计算成本进行权衡。一种方法是使用交叉验证,根据验证集上的表现来选择最佳的维度数。
  3. PCA和SVD的关系是:PCA可以看作是SVD的一个特例。SVD是一种矩阵分解技术,可以用于分解矩阵并找到其主要特征。PCA是在SVD的基础上,将矩阵分解后的特征值和特征向量用于降维的一个应用。
  4. 降维后的数据可以直接用于机器学习模型,但是需要在降维后进行适当的调整和优化,以确保模型的准确性和效果。

27. 特征向量与PCA:降维技术的原理和实践

1.背景介绍

随着数据量的不断增长,数据处理和分析的复杂性也随之增加。降维技术成为了处理高维数据的重要手段,其中特征向量和PCA(主成分分析)是常见的降维方法。本文将详细介绍特征向量与PCA的原理、算法和实践,帮助读者更好地理解和应用这些方法。

1.1 高维数据的挑战

高维数据具有以下特点:

  • 数据点数量较少,特征数量较多。
  • 特征之间存在冗余和相关性。
  • 数据分布和结构复杂,难以直观地理解和可视化。

这些特点使得高维数据处理和分析变得非常困难,导致以下问题:

  • 计算效率低,存储空间需求大。
  • 算法性能差,预测准确度低。
  • 可视化和解释困难,难以提取有意义的信息。

因此,降维技术成为了处理高维数据的关键技术之一。

1.2 降维技术的需求和目标

降维技术的需求和目标包括:

  • 减少数据的维度,降低计算和存储成本。
  • 去除冗余和相关特征,提高算法性能。
  • 简化数据分布和结构,提高可视化和解释性。
  • 保留数据的主要信息和结构,避免信息损失。

降维技术应该满足以下要求:

  • 保持数据的核心特征和结构。
  • 最小化信息损失。
  • 尽可能地保持数据的原始关系。

1.3 降维技术的分

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/universsky2015/article/details/137288805

智能推荐

JWT(Json Web Token)实现无状态登录_无状态token登录-程序员宅基地

文章浏览阅读685次。1.1.什么是有状态?有状态服务,即服务端需要记录每次会话的客户端信息,从而识别客户端身份,根据用户身份进行请求的处理,典型的设计如tomcat中的session。例如登录:用户登录后,我们把登录者的信息保存在服务端session中,并且给用户一个cookie值,记录对应的session。然后下次请求,用户携带cookie值来,我们就能识别到对应session,从而找到用户的信息。缺点是什么?服务端保存大量数据,增加服务端压力 服务端保存用户状态,无法进行水平扩展 客户端请求依赖服务.._无状态token登录

SDUT OJ逆置正整数-程序员宅基地

文章浏览阅读293次。SDUT OnlineJudge#include<iostream>using namespace std;int main(){int a,b,c,d;cin>>a;b=a%10;c=a/10%10;d=a/100%10;int key[3];key[0]=b;key[1]=c;key[2]=d;for(int i = 0;i<3;i++){ if(key[i]!=0) { cout<<key[i.

年终奖盲区_年终奖盲区表-程序员宅基地

文章浏览阅读2.2k次。年终奖采用的平均每月的收入来评定缴税级数的,速算扣除数也按照月份计算出来,但是最终减去的也是一个月的速算扣除数。为什么这么做呢,这样的收的税更多啊,年终也是一个月的收入,凭什么减去12*速算扣除数了?这个霸道(不要脸)的说法,我们只能合理避免的这些跨级的区域了,那具体是那些区域呢?可以参考下面的表格:年终奖一列标红的一对便是盲区的上下线,发放年终奖的数额一定一定要避免这个区域,不然公司多花了钱..._年终奖盲区表

matlab 提取struct结构体中某个字段所有变量的值_matlab读取struct类型数据中的值-程序员宅基地

文章浏览阅读7.5k次,点赞5次,收藏19次。matlab结构体struct字段变量值提取_matlab读取struct类型数据中的值

Android fragment的用法_android reader fragment-程序员宅基地

文章浏览阅读4.8k次。1,什么情况下使用fragment通常用来作为一个activity的用户界面的一部分例如, 一个新闻应用可以在屏幕左侧使用一个fragment来展示一个文章的列表,然后在屏幕右侧使用另一个fragment来展示一篇文章 – 2个fragment并排显示在相同的一个activity中,并且每一个fragment拥有它自己的一套生命周期回调方法,并且处理它们自己的用户输_android reader fragment

FFT of waveIn audio signals-程序员宅基地

文章浏览阅读2.8k次。FFT of waveIn audio signalsBy Aqiruse An article on using the Fast Fourier Transform on audio signals. IntroductionThe Fast Fourier Transform (FFT) allows users to view the spectrum content of _fft of wavein audio signals

随便推点

Awesome Mac:收集的非常全面好用的Mac应用程序、软件以及工具_awesomemac-程序员宅基地

文章浏览阅读5.9k次。https://jaywcjlove.github.io/awesome-mac/ 这个仓库主要是收集非常好用的Mac应用程序、软件以及工具,主要面向开发者和设计师。有这个想法是因为我最近发了一篇较为火爆的涨粉儿微信公众号文章《工具武装的前端开发工程师》,于是建了这么一个仓库,持续更新作为补充,搜集更多好用的软件工具。请Star、Pull Request或者使劲搓它 issu_awesomemac

java前端技术---jquery基础详解_简介java中jquery技术-程序员宅基地

文章浏览阅读616次。一.jquery简介 jQuery是一个快速的,简洁的javaScript库,使用户能更方便地处理HTML documents、events、实现动画效果,并且方便地为网站提供AJAX交互 jQuery 的功能概括1、html 的元素选取2、html的元素操作3、html dom遍历和修改4、js特效和动画效果5、css操作6、html事件操作7、ajax_简介java中jquery技术

Ant Design Table换滚动条的样式_ant design ::-webkit-scrollbar-corner-程序员宅基地

文章浏览阅读1.6w次,点赞5次,收藏19次。我修改的是表格的固定列滚动而产生的滚动条引用Table的组件的css文件中加入下面的样式:.ant-table-body{ &amp;amp;::-webkit-scrollbar { height: 5px; } &amp;amp;::-webkit-scrollbar-thumb { border-radius: 5px; -webkit-box..._ant design ::-webkit-scrollbar-corner

javaWeb毕设分享 健身俱乐部会员管理系统【源码+论文】-程序员宅基地

文章浏览阅读269次。基于JSP的健身俱乐部会员管理系统项目分享:见文末!

论文开题报告怎么写?_开题报告研究难点-程序员宅基地

文章浏览阅读1.8k次,点赞2次,收藏15次。同学们,是不是又到了一年一度写开题报告的时候呀?是不是还在为不知道论文的开题报告怎么写而苦恼?Take it easy!我带着倾尽我所有开题报告写作经验总结出来的最强保姆级开题报告解说来啦,一定让你脱胎换骨,顺利拿下开题报告这个高塔,你确定还不赶快点赞收藏学起来吗?_开题报告研究难点

原生JS 与 VUE获取父级、子级、兄弟节点的方法 及一些DOM对象的获取_获取子节点的路径 vue-程序员宅基地

文章浏览阅读6k次,点赞4次,收藏17次。原生先获取对象var a = document.getElementById("dom");vue先添加ref <div class="" ref="divBox">获取对象let a = this.$refs.divBox获取父、子、兄弟节点方法var b = a.childNodes; 获取a的全部子节点 var c = a.parentNode; 获取a的父节点var d = a.nextSbiling; 获取a的下一个兄弟节点 var e = a.previ_获取子节点的路径 vue