【大模型】—AI大模型总体概述-程序员宅基地

技术标签: 语言模型  人工智能  

大模型——AI大模型总体概述

随着人工智能技术的迅猛发展,AI大模型一直被视为推动人工智能领域提升的关键因素,大模型已成为了引领技术浪潮研究和应用方向。大模型是指具有庞大规模和复杂结构的人工智能模型,它们具有数以亿计的参数和深层次的神经网络架构。这些模型通过学习海量数据和深度神经网络的优化,在各种任务上取得了令人瞩目的成果。本文将对AI大模型进行简要介绍,包括其定义、发展历程以及分类等。

1. AI大模型的定义

AI大模型是通过深度学习算法和人工神经网络训练出的具有庞大规模参数的人工智能模型。这些模型使用大量的多媒体数据资源作为输入,并通过复杂的数学运算和优化算法来完成大规模的训练,以学习和理解到输入数据的模式和特征。这些模式和特征最终通过大模型中庞大的参数进行表征,以获得与输入数据和模型设计相匹配的能力,最终来实现更复杂、更广泛的任务,如语音识别、自然语言处理、计算机视觉等。
大模型的训练过程是根据大量的输入数据,通过算法调整模型中庞大的参数来优化模型性能。在训练过程中,模型会根据输入数据进行反向传播和优化,以最小化损失函数并更新参数,在训练收敛时,参数会趋于稳定,这意味着模型已经学习到了最佳的参数设置,模型也就具备了相应的能力。这意味着模型在给定的输入下,将会产生一致的输出。这种确定性是基于训练数据的特征和模型结构所决定的,即决定模型训练能力的因素主要有输入的数据和模型算法参数的设计。 因此,模型的性能和功能不仅取决于模型参数的确定,还取决于训练数据的质量、模型架构的选择等。为了获得更好的性能和功能,需要综合考虑这些因素,并进行合适的调整和优化。
根据以上定义和理解不难推断出AI大模型的特点:
大量的参数:大模型通常具有庞大的参数规模,拥有数以亿计的参数,这些参数可以存储模型的知识和经验,更多的参数意味着模型具有更强大的学习能力和表示能力,能够更好地捕捉数据中的复杂模式和特征,以便进行推理和预测。AI大模型的目标是通过增加模型的参数数量来提高模型的表现能力。相比之下,传统的浅层神经网络或机器学习模型可能无法捕捉到更复杂的关系和模式。
上下文理解和生成:大模型能够理解和生成更具上下文和语义的内容,通过注意力机制、上下文编码器等关键技术来学习和训练大量的语言、图像等输入数据,可以从复杂的真实场景中提取有用的信息。
强大的泛化能力:大模型通过在大规模数据上进行训练,具有强大的泛化能力。它们从大量的数据中学习到广泛的特征和模式,并且能够在未学习过、未见过的数据上也同样表现良好。对未学知识的泛化能力也是评估大模型的重要指标。
计算资源需求大:大模型对于数据和计算资源的需求非常大。需要强大的计算资源来进行参数优化和推理,这需要具备出色的并行计算能力的GPU、TPU处理器集群,这使得训练和使用这些模型成为一项具有挑战性的任务。
迁移学习能力:大模型在一个或多个领域上进行预训练,并能够将学到的知识迁移到新任务或新领域中。这种迁移学习能力使得模型在新任务上的学习速度更快,同时也提高了模型在未知领域中的性能。
预训练与微调:大模型可以采用预训练和微调两阶段策略。在预训练阶段,模型通过大规模无标签数据进行学习,学习到一种通用表示。在微调阶段,模型使用有标签数据对模型进行细化训练,以适应具体的任务和领域。这种在大规模数据上进行预训练,再在具体任务上进行微调,能够让大模型适应不同的应用场景。
多领域应用:大模型应用领域广泛,可应用于多个领域,并解决多种任务,如自然语言处理、计算机视觉、语音识别等。大模型不仅在单一模态领域中有很强的表现,更能够进行跨模态的任务处理。
AI大模型具有诸多优点的同时也存在一些挑战和限制,如训练时间长、计算资源需求大、模型复杂度高、通用泛化能力受限等等。此外,由于其庞大的参数规模,大模型可能面临可解释性和隐私等方面的诸多挑战。
尽管有诸多问题和挑战,但AI大模型的蓬勃发展已经势不可挡。最近几年,随着深度学习和硬件技术的快速发展,出现了一系列强大的大模型,其中最著名的就是以Transformer架构为基础的BERT、GPT和T5等模型。以GPT-3为例,它具有1750亿个参数。该模型在自然语言处理任务中表现出色,能够生成高质量的文本、回答问题和进行对话。而这仅仅是大模型的开始…

2. AI大模型的发展历程

AI大模型的发展可以追溯到早期的人工神经网络和机器学习算法,但真正的突破始于深度学习的兴起和计算能力的提升。 AI大模型的发展历程其实就是深度学习的发展过程。以下是AI大模型发展的一些重要里程碑:
(1) 多层感知机(Multi-Layer Perceptron,MLP):20世纪80年代出现,是最早的深度学习模型之一,是一种基本的前馈神经网络模型,由多个神经网络层组成,每层包含多个神经元,每个神经元与前一层的所有神经元相连,逐层传递信息进行训练和推理,开始引入了多层结构和非线性激活函数,从而扩展了模型的表达能力。MLP的基本结构包括输入层、隐藏层和输出层。输入层接收原始数据作为输入,隐藏层通过一系列非线性变换将输入进行特征提取和转换,最后输出层产生模型的预测结果。
MLP的工作原理是通过权重和偏置参数对输入数据进行线性组合和非线性激活,以学习和表示输入数据之间的复杂关系。通过反向传播算法,MLP可以根据预定义的损失函数进行训练和优化,以使其输出尽可能地接近目标值。MLP在机器学习和模式识别领域中被广泛应用,尤其是在分类和回归任务中。它的扩展和改进形式,如卷积神经网络(CNN)和循环神经网络(RNN),已经成为深度学习中的核心模型。尽管MLP是深度学习的基础,但它在处理复杂的非线性问题和大规模数据时存在一些限制。随着深度学习的发展,MLP逐渐被更强大和灵活的模型所取代,但它仍然为理解神经网络的基本原理和概念提供了重要的基础。
(2) 循环神经网络(Recurrent Neural Networks):是在1986年由Rumelhart和McClelland提出的一种能够处理序列数据的神经网络模型,其基本概念是引入了循环连接,使得网络可以对先前的信息进行记忆和利用。该记忆机制允许信息在时间上进行传递,从而更好地捕捉序列中的上下文信息,能够从序列数据中获取上下文依赖关系,使其在自然语言处理、语音识别等任务中表现出色。
RNN在网络中引入循环连接,使得网络的输出不仅依赖于当前输入,还依赖于之前的输入和隐藏状态。其关键组成部分是隐藏状态,它可以看作是网络对之前输入的记忆。隐藏状态在每个时间步都会被更新,并传递给下一个时间步。RNN的循环连接使得网络可以对序列数据进行建模,能够捕捉序列中的时序信息和依赖关系。这使得RNN在自然语言处理、语音识别、机器翻译等任务中具有很好的表现。传统的RNN在处理长序列时存在梯度消失和梯度爆炸的问题,导致难以捕捉长距离的依赖关系。为了解决这个问题,后续出现了一些改进的RNN变体,如长短时记忆网络(LSTM)和门控循环单元(GRU),它们通过引入门控机制来改进梯度传播和记忆能力,从而更好地处理长序列数据。
(3) 卷积神经网络(Convolutional Neural Networks):是在1989年由Yann LeCun等人提出的一种专门用于处理具有网格结构数据(如图像、语音和时间序列)的深度学习模型。通过局部连接、权值共享和池化等操作,卷积神经网络有效地减少了参数数量,并提高了模型的性能。卷积神经网络被广泛研究和应用于图像处理和计算机视觉任务中。卷积神经网络通过卷积和池化运算来有效提取图像特征。
卷积神经网络设计灵感来自于生物视觉系统中的神经机制。它利用卷积操作和池化操作来有效地捕捉输入数据的局部特征,并通过多层堆叠的卷积层和全连接层进行特征提取和分类。CNN的基本组件包括卷积层、激活函数、池化层和全连接层。卷积层使用一组可学习的滤波器对输入数据进行卷积操作,以提取空间特征;激活函数引入非线性变换,增强模型的表达能力;池化层通过减少特征图的尺寸和数量来降低计算复杂度,并保留重要的特征;全连接层将汇集的特征映射转化为模型的最终输出。
CNN在计算机视觉领域中取得了巨大的成功,主要应用于图像分类、目标检测和图像分割等任务。它通过共享权重和局部连接的方式,减少了参数量,提高了模型的效率和泛化能力。CNN的设计思想也为其他领域的深度学习模型提供了启示和借鉴。随着时间的推移,CNN经历了多次改进和演化,如LeNet-5、AlexNet、VGGNet、ResNet和Inception等,这些模型在不同的任务和数据集上取得了重要的突破和成果。
(4) 长短时记忆网络(Long Short-Term Memory,LSTM):是在1997年由Hochreiter和Schmidhuber提出的一种门控循环神经网络(Gated Recurrent Neural Network,GRU)的变体,用于解决传统RNN中的梯度消失和梯度爆炸问题,并能够更好地捕捉长距离的依赖关系。LSTM的基本概念是引入了门控机制,通过控制信息的流动和记忆的更新,有效地处理长序列数据。LSTM引入了三个门控单元:遗忘门、输入门和输出门。
LSTM通过门控机制的引入,能够在时间上灵活地控制信息的流动和记忆的更新,从而更好地捕捉长距离的依赖关系。这使得LSTM在自然语言处理、语音识别、机器翻译等任务中取得了很好的表现。
(5) 深度信念网络(Deep Belief Networks):是在2006年由Hinton等人提出的一种无监督学习的深度神经网络,用于学习数据的潜在表示和特征提取,是一种能够逐层预训练的深度模型。
DBN通过多层的受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)组成,每一层的RBM都是一个生成式模型。DBN的每一层都是无监督地预训练,然后通过有监督的微调来进行训练。通过层层堆叠的方式逐渐学习到数据的分布特征。
DBN的特点是能够通过无监督学习的方式进行预训练,从而避免了需要大量标注数据的问题。它能够学习到数据的分布特征,并提取出高级的抽象特征表示,有助于解决高维数据的建模和特征提取问题。DBN在图像识别、语音识别、推荐系统等领域取得了很好的性能。
(6) 深度学习复兴:2012年开始,随着计算能力的提升和大规模数据集的可用性,深度学习经历了一次复兴。人们开始使用更深、更复杂的神经网络结构,如深层卷积神经网络和长短期记忆网络(Long Short-Term Memory),在图像识别、语音识别和自然语言处理等领域取得了突破性进展。主要表现如下:
 2012年,Hinton等人提出的AlexNet在ILSVRC图像分类竞赛中大获成功,将错误率降低到以前方法的一半以上。AlexNet采用了深度卷积神经网络,并引入了ReLU激活函数和Dropout正则化技术。
 2014年,Google的研究团队提出的GoogLeNet在ILSVRC竞赛中获得胜利,引入了Inception模块,使得网络更加深层和宽广。
 2015年,DeepMind的AlphaGo击败围棋世界冠军李世石,引起广泛关注。AlphaGo使用了深度强化学习方法,结合了深度卷积神经网络和蒙特卡洛树搜索算法。
深度学习的复兴得益于数据的丰富和计算能力的提升,以及对深度神经网络结构和训练算法的改进。这些突破使得深度学习成为当今人工智能领域最为热门和有效的方法之一。
(7) 大规模预训练模型的兴起:2018年,以Transformer模型和BERT为代表的大规模预训练模型开始崭露头角。这些模型通过在海量数据上的预训练,可以学习到丰富的语义和语言模式。在不同任务上微调之后,这些模型在自然语言处理等领域取得了突破性的成果。
深度学习在自然语言处理领域也取得了重要进展,也使得深度学习也扩展到了其他领域,如:医疗影像分析、自动驾驶、智能语音助手等领域。深度学习的模型和算法不断演进和改进,为这些领域带来了巨大的影响和推动。基于Transformer架构的大规模预训练更是为大模型的涌现提供了基石。
(8) 模型规模的不断扩大:随着硬件和计算能力的不断提升,近几年来更加庞大的大模型不断涌现,其表现能力也在不断的刷新着人们的视野,以2023年3月推出的ChatGPT仅仅用了两个月就突破了1亿月活用户,其在自然语言理解和生成上的绝佳变现让人们看到了通用人工智能的希望。随之而来的持续出现各大模型的不断涌现。

总的来说,大模型的发展历程经历了从多层感知器到深度信念网络、卷积神经网络、循环神经网络,以及大规模预训练模型等里程碑性的进展。随着数据集和计算能力的增强,以Transformer模型和BERT为代表的大规模预训练模型的兴起,进一步催生了GPT3.5和GPT4等更为先进的大模型的不断涌现,相信未来大模型也可以继续不断的推动着人工智能技术发展,也为人工智能技术的广泛应用带来更多可能性。"

3. AI大模型的分类

AI大模型根据不同维度有不同的分类方式,如根据任务类型可分为监督学习模型、无监督学习模型和强化学习模型;根据模型结构可分为DNN深度神经网络、CNN卷积神经网络、RNN循环神经网络;根据模型规模可以分为大规模模型和中小规模模型。而我们重点从模型数据类型、模型工作模式和模型开发模式来分析AI大模型的分类。
(1) 按模型数据的媒体类型,AI大模型可以分为语言模型,图像模型以及多模态模型:
语言模型(Language Models)
语言模型是一种用于预测和生成自然语言文本的统计模型,通过给定的输入序列,学习单词(或字符)之间的关系和上下文来推断一个序列中下一个词或字符的概率,旨在理解和生成自然语言文本。语言模型的训练通常需要大量的文本数据,以便能够捕捉到不同单词之间的统计规律和语义关系。训练好的语言模型可以用于机器翻译、文本生成、语音识别纠错等多种自然语言处理任务,为人工智能应用提供文本处理能力。
最常用的语言模型是基于N-gram的模型和基于神经网络的模型。N-gram模型基于前n-1个单词来预测下一个单词的概率,而神经网络模型则使用深度学习技术,如循环神经网络(RNN)或者Transformer来建模长期依赖关系和上下文信息。GPT(生成式预训练Transformer)系列模型就是一种广为使用的语言模型。
图像模型(Image Models)
图像模型是一种用于处理和分析图像数据的模型,用来理解、识别和生成图像中的内容,从而实现图像分类、目标检测、图像生成等多种计算机视觉任务。图像模型可以分为传统的基于特征工程的方法和基于深度学习的方法。基于特征工程的方法是通过手动选择和设计特征来表示图像或使用传统机器学习算法来对提取的特征进行分类或回归的方式对图像进行分析处理;基于深度学习的方法是目前常用的图像模型处理方法,如通过卷积神经网络的多个卷积层和池化层来自动学习图像中的特征,并通过全连接层进行分类或回归、再如利用预训练的大型神经网络模型来提取图像特征的迁移学习等。经典的图像模型包括AlexNet、VGG、ResNet和EfficientNet等。
多模态大模型(Multimodal Models)
多模态大模型是指能够同时处理多种输入模态(如图像、文本、语音等)和输出模态(如图像生成、文本生成、语音合成等)的庞大模型。它能够将多种模态的信息进行融合和联合建模,从而实现更复杂、更全面的多模态任务。
传统的自然语言处理模型主要关注文本输入和输出,而多模态大模型扩展了这一概念,将其他类型的输入(如图像、语音等)集成到模型中。这种集成可以通过多种方式实现,如将多个预训练模型联合使用,或者使用端到端的多模态架构。多模态大模型在各种领域中具有广泛的应用,如图像描述生成、视觉问题回答、多模态机器翻译、跨模态问答等。通过同时考虑多种模态的信息,多模态大模型能够提供更全面、更准确的任务处理和生成能力。然而,多模态大模型也面临着挑战,如需要大量跨模态数据进行训练、跨模态数据的对齐和融合,以及计算成本的增加等。随着技术的进步和数据集的丰富,预计多模态大模型将在未来得到更加广泛的应用和发展。
相比于传统的单模态模型,多模态大模型能够更全面地理解和生成跨多种媒体类型的内容。以下是多模态大模型的一些特点:
① 综合多种媒体信息:多模态大模型能够同时考虑不同媒体类型的特征,如文本、图像、音频等,从而获得更全面的信息。这使得模型在处理复杂任务时能够更好地理解输入数据。
② 跨媒体数据关联:多模态大模型可以学习到不同媒体数据之间的关联性和相互影响。例如,通过将图像与文本进行联合训练,模型可以理解图片中的内容并生成与之相关的描述。
③ 融合多模态表示:多模态大模型能够将不同媒体类型的特征进行融合,形成一个统一的表示。这种融合表示可以使得模型更好地进行跨模态的推理和生成,提高了模型的表达能力。
④ 多模态理解与生成:多模态大模型不仅能够理解多种媒体类型的输入数据,还能够生成多媒体类型的输出。例如,模型可以接受一张图片和一段文本描述,并生成与之相关的图片描述或者图像生成。
⑤ 强大的应用潜力:多模态大模型可以应用于多种任务和场景,如图像描述生成、视频标注、音视频内容分析等。它们能够处理更加复杂和多样化的数据,并在不同领域展现广泛的应用前景。
总的来说,多模态大模型通过融合多种媒体信息,提供了更全面、更丰富的数据处理和生成能力,具有更强的表达能力和更广泛的应用潜力。它们在自然语言处理、计算机视觉、多媒体处理等领域有着重要的研究和应用价值。一些著名的多模态模型包括ViT(视觉Transformer)和CLIP(Contrastive Language-Image Pretraining)等。
(2) 根据模型工作方式,AI大模型可以分为生成模型和强化学习模型:
生成模型(Generative Models)
生成模型旨在学习数据的分布,并能够生成新的样本。这些模型通常用于图像生成、文本生成等任务。代表性的生成模型包括GAN(生成对抗网络)和VAE(变分自编码器)。
生成模型是一种机器学习模型,用于生成新的数据样本,这些样本与训练数据具有相似的分布。生成模型通过学习训练数据中的统计规律和潜在结构,能够生成具有类似特征的新数据。生成模型可以用于多种任务,如图像生成、文本生成、音频生成等。它们能够模拟和生成与原始数据相似的样本,从而具有一定的创造性和应用潜力。
强化学习模型(Reinforcement Learning Models)
强化学习模型通过与环境进行交互,通过试错和奖励机制来提高性能以学习最优策略,以使代理能够在给定的环境中获得最大的累积奖励。强化学习模型是一种机器学习模型,强化学习模型包含的关键要素有环境、状态、行动、奖励、策略、值函数和学习算法。其训练过程通过与环境的交互来不断调整策略和值函数,以最大化累积奖励。模型通过试错和反馈机制来学习,并在不断的探索和利用中提高性能。强化学习模型常用于处理序贯决策问题,如机器人控制、游戏玩法优化等。典型的强化学习模型如Deep Q-Network(DQN)和Proximal Policy Optimization(PPO)等。
(3) 根据模型开发模式,AI大模型可以分为开源大模型和在线大模型:
开源大模型(Open Source Models)
开源大模型是基于开源软件许可协议发布的大型深度学习模型。通常由研究者、开发者或社区共同开发和维护,并在公开的代码库中提供。优点是可以免费获取和使用,开放的代码使得用户可以自由地查看、修改和定制模型,以适应特定的需求和任务。开源大模型也促进了学术界和业界之间的知识共享和合作。代表模型有Transformers、BERT、ChatGLM
在线大模型(Online Models)
在线大模型是指部署在云端或网络上的大型机器学习或深度学习模型。这些模型通常由云服务提供商或在线平台提供,并通过接口或API的方式进行访问和使用。在线大模型的优点是用户无需关注底层的硬件和软件架构,只需通过网络请求即可获得模型的预测结果。在线大模型还可以实现实时或按需的模型调用,适用于各种应用场景,如语音识别、图像处理和自然语言处理等。
总而言之,开源大模型和在线大模型都是为了提供大规模机器学习或深度学习模型的访问和使用。开源大模型强调了代码的开放性和自由性,而在线大模型则提供了方便、快速和按需的模型服务。

以上对AI大模型的分类只是一些常见的示例,实际上,大模型的分类可以更加细分,根据具体任务和应用领域的需求而定。并且这些分类方式并不是相互独立的,大模型可以同时涵盖多个分类维度。根据具体问题和需求选择适合的模型类型,以及对应规模大小是很重要的。

4.主流AI大模型

AI大模型作为人工智能领域的重要进展,具有庞大的参数数量和强大的计算能力。其发展历程经历了多年的技术突破和硬件进步。通过不断地研究和改进,性能更优,功能更强的AI大模型在不断的涌现,也在各行业领域中发挥更广泛、更深远的影响。
当前人工智能领域涌现出了许多强大的AI大模型,下面列举出一些目前备受瞩目的AI大模型:
OpenAI GPT大模型组
ChaGPT是OpenAI于2022年11月发布,其在自然语言的理解和生成上的卓越表现使得在短短两个月的时间用户突破1亿大关,其是基于GPT(Generative Pre-trained Transformer)架构开发大型语言模型,其为对话式交互提供更好的支持和响应,并在社交对话、问题回答和一般性对话等场景中展现出优秀的表现。OpenAI的目标是通过不断改进和提升这些大型语言模型,使其能更好地理解和生成人类语言,并更好地服务于用户需求。除此之外,OpenAI还开发了CLIP、DALL-E、Five、Whisper、Codex等多模态大模型组。
Google PaLM & PaLM 2大模型组
PaLM(Pretraining and Fine-tuning Language Model)是在2020年由Google Research团队发布的一种用于自然语言处理任务的预训练和微调模型,它的第二个版本,最新的大型语言模型PaLM 2于2023年5月在Google I/O开发者大会上推出,其将支持谷歌AI聊天机器人Bard,其凭借改进的数学、逻辑和推理技能,可以帮助生成、解释和调试 20 多种编程语言的代码。且为了满足更多的使用场景,PaLM2提供了4个模型:Gecko、Otter、Bison、Unicorn,其中最小的Gecko模型可以在移动端运行,并计划在下一代Android系统中集成。
百度文心大模型组
百度于2023年3月正式发布了AI大模型文心一言。基于百度智能云技术构建的大模型,文心一言被广泛集成到百度的所有业务中。并且推出了文心NLP大模型、文心CV大模型、文心跨模态大模型、文心生物计算大模型、文心行业大模型。且提供了多样化的大模型API服务,可通过零代码调用大模型能力,自由探索大模型技术如何满足用户需求;
讯飞星火认知大模型
科大讯飞于2023年5月正式发布了星火认知大模型,其具有7大核心能力,即文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模态能力。
阿里通义大模型
阿里通义大模型覆盖语言、听觉、多模态等领域,致力于实现接近人类智慧的通用智能,让AI从“单一感官”到“五官全开”,分别在2023年4月和6月推出了通义千问和通义听悟。
清华开源大模型ChatGLM
GLM-130B是清华智谱AI开源项目,其目的是训练出开源开放的高精度千亿中英双语模型,能够让更多研发者用上千亿参数模型。并且在2023年3月开源了更精简的低门槛大模型ChatGLM-6B,这是一个具有62亿参数的中英文双语语言模型,在6月份,推出了二代开源模型ChatGLM2-6B,具有更强大的性能、更长的上下文、更高效的推理(推理速度提升42%)、更开放的开源协议。

以上这些大模型只是当前众多AI大模型中的一小部分,随着技术的不断进步和研究的不断推进,我们可以期待更多更强大的AI大模型的涌现。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/crystal_csdn8/article/details/131529619

智能推荐

kotlin面试题android最新面试题及答案-程序员宅基地

文章浏览阅读916次,点赞21次,收藏22次。作为一名从事Android的开发者,很多人最近都在和我吐槽Android是不是快要凉了?而在我看来这正是市场成熟的表现,所有的市场都是温水煮青蛙,永远会淘汰掉不愿意学习改变,安于现状的那批人,希望所有的人能在大浪淘沙中留下来,因为对于市场的逐渐成熟,平凡并不是我们唯一的答案!GitHub地址[外链图片转存中…(img-zC3l0rPJ-1710283715230)]

计算机网络(王道考研)笔记个人整理——第四章-程序员宅基地

文章浏览阅读977次,点赞6次,收藏15次。3.组播(多播):当网络中的某些用户需要特定数据时,组播数据发送者仅发送一次数据,借助组播路由协议为组播数据包建立组播分发树,被传递的数据到达距离用户端尽可能近的节点后才开始复制和分发,是一点对多点的传输方式。转发表由路由表得来,可以用软件实现,也可以用特殊硬件实现,转发表必须包含完成转发功能所必须的信息,在转发表的每一行必须包含从要到达的目的网络到输出端口和某些MAC地址信息的映射。对地址为x的相邻路由器发来的RIP报文,修改此报文中的所有项目,把”下一跳“字段中的地址改为x,并把所有”距离“字段+1。

UVa 445 Marvelous Mazes(非凡的迷宫)_marvelous mazes uva中文-程序员宅基地

文章浏览阅读946次。Marvelous Mazes Your mission, if you decide to accept it, is to create a maze drawing program. A maze will consist of the alphabetic characters A-Z, * (asterisk), and spaces.Input an_marvelous mazes uva中文

MyBatis插入Insert、InsertSelective的不同以及使用心得_mybatis insertselective-程序员宅基地

文章浏览阅读7.9k次。逆向自动生成的mybatis对应配置Mapper文件里面,有两个方法,分别为insert和insertSelective。这两个方法均是插入对象的方法。为什么会有两个插入方法呢?这里说一下两者的区别。_mybatis insertselective

Android实现推送方式解决方案_android 个性化推送关闭方案-程序员宅基地

文章浏览阅读974次。本文介绍在Android中实现推送方式的基础知识及相关解决方案。推送功能在手机开发中应用的场景是越来起来了,不说别的,就我们手机上的新闻客户端就时不j时的推送过来新的消息,很方便的阅读最新的新闻信息。这种推送功能是好的一面,但是也会经常看到很多推送过来的垃圾信息,这就让我们感到厌烦了,关于这个我们就不能多说什么了,毕竟很多商家要做广告。本文就是来探讨下Android中实现推送功能的一些解决方案,也_android 个性化推送关闭方案

毕业年薪20万起步!24届南京航空航天大学自动化考研最新三年院校分析!_南京航空航天大学研究生院自动化学院研究生毕业前景-程序员宅基地

文章浏览阅读548次。学校简介南京航空航天大学创建于1952年10月,是新中国自己创办的第一批航空高等院校之一。1978年被国务院确定为全国重点大学;1981年经国务院批准成为全国首批具有博士学位授予权的高校;1996年进入国家“211工程”建设;2000年经教育部批准设立研究生院;2011年,成为“985工程优势学科创新平台”重点建设高校;2017年,进入国家“双一流”建设序列,现有航空宇航科学与技术、力学、控制科学与工程三个学科入选第二轮“一流学科”建设名单。学校现隶属于工业和信息化部。_南京航空航天大学研究生院自动化学院研究生毕业前景

随便推点

2022年自学Java最新学习路线(建议观看)_java学习路线-程序员宅基地

文章浏览阅读3.5k次,点赞7次,收藏29次。给大家总结了一下2022年Java最新的学习路线图,跟着这个技术栈学习Java,全部内容都熟练掌握,至少可以找到一份15K的工作。在学习过程中困难会非常多,需要用很有技巧的学习方法和耐心。一部分:入门基础二部分:Java高级技术三部分:前端技术四部分:Javaweb五部分:企业主流框架六部分:项目阶段七部分:企业专题相信今年学习Java的都是从零基础开始的,所以一定切记学习Java要系统学习,严格的跟着教程大纲走_java学习路线

Javamail发送邮件后并保存邮件到已发送_代码发送的邮件 邮件服务器有已发送的邮件吗-程序员宅基地

文章浏览阅读1.1w次。前言最近北京暴雨,不知道为什么,特喜欢下雨天,下雨天适合睡觉,同样也适合写作!需求分析最近有个需求是将发送的邮件保存到已发送,一般来说最简单的做法是在服务器上配置,但是产品说,很多用户不知道这个选项,最好技术来实现,好吧,既然这样说了,干就完了!查看JavaMail Api文档邮件是在邮件服务器上存储的,邮件服务器上建立了各种的文件夹,比如INB_代码发送的邮件 邮件服务器有已发送的邮件吗

【调剂】太原科技大学 材料科学与工程学院特种金属制造与固废高值化利用课题组招收冶金、材料、机械、化工、计算机类调剂生...-程序员宅基地

文章浏览阅读297次。公众号【计算机与软件考研】每天都会发布最新的计算机考研调剂信息!点击公众号界面左下角的调剂信息或者公众号回复“调剂”是计算机/软件等专业的所有调剂信息集合,会一直更新的。太原科技大学 材料科学与工程学院特种金属制造与固废高值化利用课题组招收冶金、材料、机械、化工、计算机类调剂生:一志愿为工学专业、数一数二均可。课题组简介:本课题组与山西建邦集团共同成立“优特钢新材料产业技术研究院”,并建设有“太原..._太原科技大学任志峰

docker-compose.yaml设置中国时区_把docker-compose.yml里的这一行 - tz=cn 改成 - tz=asia/shan-程序员宅基地

文章浏览阅读3w次,点赞11次,收藏14次。背景docker中如果对时区不加限制,默认会采用格林尼治时间(GMT),这给日常程序部署、日志查看、错误调试等带来了诸多麻烦与困扰。每次都需要将event发生的显示时间+8个时区,手工换算成北京时间,想想都令人抓狂。Dockerfile中配置时区在Dockerfile中,可以通过如下方式添加中国时区:FROM docker.io/centosMAINTAINER DAVID# 使用..._把docker-compose.yml里的这一行 - tz=cn 改成 - tz=asia/shanghai

【工具使用系列】关于 MATLAB 径向基神经网络,你需要知道的事-程序员宅基地

文章浏览阅读263次。2019独角兽企业重金招聘Python工程师标准>>> ..._径向基神经网络工具

经典搜索算法总结-程序员宅基地

文章浏览阅读1.1w次,点赞20次,收藏167次。前言0x01 搜索问题的形式化0x02 树搜索和图搜索0x03 搜索算法的评估0x04 盲目搜索算法0x04.01 宽度优先搜索算法BFS0x04.02 一致代价搜索算法UCS0x04.03 深度优先搜索算法DFS前言搜索问题是在解决各类问题时不可避免的重点难点,很多问题的求解过程都可以转变为搜索问题。比如,对于以下罗马尼亚问题,希望找到一条路径使得从城市 Arad 到城市 Bucuresti 的路径最短,这就是一个经典的搜索问题,在数据结构课程中,我们都知道使用 Dijkstra 算法来求得最优解,._搜索算法

推荐文章

热门文章

相关标签