Projects and Knowledges
- Beginning LaTex
- TensorFlow 2.x learning(官方翻译版)
- Threejs Examples
-
什么是生成式AI?
生成式人工智能
(Generative AI)是一种人工智能类型,它可以根据从现有内容中学到的知识创造新内容。这个过程被称为训练,生成式AI在给定提示时会产生一个统计模型,然后使用这个模型来预测预期的响应,从而生成新的内容。
生成式AI
的核心是能够生成原创内容的计算机模型。这些模型利用大型语言模型、神经网络和机器学习的强大功能,能够模仿人类的创造力生成新颖的内容。这些模型使用大型数据集和深度学习算法进行训练,从而学习数据中存在的底层结构、关系和模式。
生成式AI系统
可以通过学习现有的数据并生成新的数据,从而实现类似人类创造力的功能。与传统的AI系统不同,生成式AI系统能够自己创造出新的内容,而不是只能根据输入的数据进行处理和分类。
生成式AI
的应用非常广泛,包括对话、故事、图像、视频和音乐的创作。除了内容创作外,生成式人工智能还用于提高数字图像的质量、编辑视频、快速构建制造原型、使用合成数据集增强数据等。值得注意的是,生成式AI的核心是利用机器学习的最新进展。例如,一类生成式AI模型,如GPT模型,通常被称为大型语言模型(LLM),专注于基于语言的任务,例如摘要、文本生成(例如,创建博客文章)、分类、开放式问答和信息提取。大型语言模型的特别之处在于,它们可以执行更多的任务,因为它们包含大量使它们能够学习高级概念的参数。而且,通过在预训练中接触各种形式和多种模式的互联网规模数据,LLM学会了在各种环境中应用它们的知识。 -
什么是自监督学习?
自监督学习
(Self-Supervised Learning,SSL)是一种新的机器学习范式,它通过解决一系列辅助任务(称为代理任务)来进行模型的学习,这样监督信号可以从数据中自动获取,而无需人工标注的标签来对模型进行监督训练³。自监督学习的主要目标是通过精心设计的代理任务,从丰富的无标签数据中学习可迁移的知识,然后将学到的知识迁移到具有特定监督信号的下游任务中¹。
自监督学习的应用非常广泛,包括自然语言处理、计算机视觉、数据分析等领域¹。例如,自我监督学习 (SSL)支撑了深度学习在自然语言处理方面的成功,导致了从自动机器翻译到大型语言模型的发展,这些模型都是在无标签文本的网络规模语料库上训练的¹。在计算机视觉方面,SSL推出了新的模型,极大地扩充了可用数据,例如SEER对10亿幅图像进行了训练¹。SSL计算机视觉方法已经能够匹配或在某些情况下超越了经带标签数据训练的模型,甚至在ImageNet等高度竞争的基准上也是如此¹。SSL还成功地应用于其他模式,如视频、音频和时间序列¹。
自监督学习定义了一种基于未标记输入数据的代理任务,以产生可理解的表示形式¹。在自然语言中,一个常见的SSL目标是在文本中隐藏一个单词并预测周围的单词¹。这个预测单词上下文的目标鼓励模型捕捉文本中单词之间的关系,而不需要任何标签¹。相同的SSL模型表示可以在下游任务内使用,例如跨语言翻译文本、摘要或生成文本,以及许多其他任务¹。在计算机视觉中,存在类似目标的模型,如MAE或BYOL学习预测图像或表示的遮掩块¹。
自监督学习的训练策略可以分为三种²:
1). 预训练和微调:先对模型进行预训练,然后对其进行微调以适应特定的下游任务²。
2). 联合学习:同时训练代理任务和下游任务²。
3). 无监督表征学习:只训练代理任务,然后直接将学习到的表示用于下游任务²。
总的来说,自监督学习是一种强大的工具,可以从大量未标记的数据中学习有用的表示,这对于许多机器学习任务来说是非常有价值的¹²。然而,自监督学习仍然面临许多挑战,包括如何设计有效的代理任务,如何处理大规模数据,以及如何评估学习到的表示的质量等¹²。这些问题是当前自监督学习研究的重要方向¹²。
参考reference:
(1)数据挖掘领域大师俞士纶团队新作:最新图自监督学习综述-腾讯云开发者社区-腾讯云.
(2) A Cookbook of Self-Supervised Learning | 自监督学习综述 - 知乎.
(3) 图自监督学习(Graph Self-supervised Learning)最新综述+Github代码汇总
(4) 自监督学习综述 | Self-supervised Visual Feature ... - 简书.
(5) 2021最新两篇图自监督学习综述! - 知乎 - 知乎专栏.
-
什么是自回归模型?自回归模型(Autoregressive model,简称AR模型)是统计学中一种处理时间序列的方法¹²³⁴。它使用观测值的历史时间序列在不同时期取值之间存在的依存关系(即自身相关),建立起回归方程进行预测¹。具体来说,就是用一个变量的时间数列作为因变量数列,用同一变量向过去推移若干期的时间数列作自变量数列,分析一个因变量数列和另一个或多个自变量数列之间的相关关系,建立回归方程进行预测¹。再通俗一点讲,就是用过去时间点的数据预测未来时间点的数据¹。
自回归模型的定义是:时序数据Xt通常可由历史数据的加权和与随机扰动的叠加来表示¹。从定义的式子可得,时间t的Xt由前面的Xt-1....Xt-p的加权以及随机扰动项(白噪音)决定,这里为p阶自回归模型,简称AR(p)模型,称a= (a0,a1,...,ap)T是AR(p)模型中的自回归系数¹。
自回归模型被广泛运用在经济学、信息学、自然现象的预测上²。但是这种方法受到一定的限制:必须具有自相关,自相关系数(R)是关键。如果自相关系数 (R)小于0.5,则不宜采用,否则预测结果极不准确²。自回归只能适用于预测与自身前期相关的经济现象,即受自身历史因素影响较大的经济现象,如矿的开采量,各种自然资源产量等;对于受社会因素影响较大的经济现象,不宜采用自回归,而应改采可纳入其他变数的向量自回归模型²。
Reference:
(1) 时间序列分析—自回归(AR) - 知乎 - 知乎专栏.
(2) 自回归模型_百度百科.
(3) 自回归模型 - 维基百科,自由的百科全书.
(4) 自回归模型 - 维基百科,自由的百科全书.
-
什么是非自回归模型?非自回归模型(Non-autoregressive model,简称NAR模型)是一种在序列生成任务中的模型,它并行生成所有的标记,从而比自回归模型(AR模型)具有更快的生成速度,但代价是较低的准确性¹²。这种模型首次在神经机器翻译(NMT)中提出,以加速推理,已经在机器学习和自然语言处理社区引起了广泛关注²。
在自回归模型中,模型需要使用已生成的词来预测下一个位置的词⁴。而非自回归模型打破了生成时的串行顺序,希望一次能够解码出整个目标句子,从而解决自回归模型所带来的问题⁴。
尽管非自回归模型可以显著加速机器翻译的推理速度,但这种加速是以牺牲翻译准确性为代价的,相比于其对应的自回归生成²。近年来,已经设计/提出了许多新的模型和算法,以弥合非自回归生成和自回归生成之间的准确性差距²。
总的来说,非自回归模型是一种在序列生成任务中的有效模型,它通过并行生成所有的标记,实现了比自回归模型更快的生成速度,但是这种速度的提升是以牺牲准确性为代价的¹²。尽管如此,非自回归模型仍然在机器学习和自然语言处理社区引起了广泛的关注,并且已经有许多新的模型和算法被提出,以弥合非自回归生成和自回归生成之间的准确性差距²。
Reference:
(5) https://doi.org/10.48550/arXiv.2004.10454.
(6) https://doi.org/10.48550/arXiv.2204.09269. -
什么是可变自动编码器VAE?
可变自动编码器
(Variational Autoencoder,简称VAE)是一种广泛应用于机器学习和深度学习领域的神经网络模型¹²。它的主要目标是通过学习数据集的潜在分布,实现高效的样本生成和学习¹²。
VAE是一种自动编码器的扩展版本,它能够学习出输入数据的概率分布,从而使得生成的样本具备原始数据的特征¹²。与普通的自动编码器不同,VAE在学习过程中引入了一种潜在变量(latent variable),用于表示输入数据的潜在特征¹²。通过联合训练这些变量与输入数据的编码和解码过程,VAE可以学习出一个捕捉数据分布的模型¹²。
在VAE中,编码器网络将输入数据映射到一个潜在变量分布的参数上,并通过采样得到具体的潜在变量¹²。解码器网络则将潜在变量映射回原始数据空间,通过重构误差来衡量生成数据的质量¹²。通过最小化重构误差和潜在变量分布的KL散度,VAE可以同时实现数据的重构和潜在变量的学习¹²。
由于VAE的编码器网络和解码器网络都是神经网络,因此可以通过反向传播算法进行训练¹²。通过最大化数据的似然估计,VAE可以学习出数据分布的近似解,并具备生成新样本的能力¹²。这种生成样本的能力使得VAE在图像生成、文本生成等领域有广泛的应用¹²。此外,VAE还能够实现数据的降维和特征提取,为其他任务如聚类、分类等提供辅助¹²。
Reference:
(1) 使用(VAE)生成建模,理解可变自动编码器背后的数学原理 - 知乎
(2) VAE,可变分布式自动编码器(实现高效学习和生成样本的神经网络模型) | AIGC导航_生成式AI导航.
(3) 基于可变自动编码器的生成建模,理解可变自动编码器背后的原理_腾讯新闻.
(4) 使用(VAE)生成建模,理解可变自动编码器背后的数学原理_数据集实现vae-CSDN博客.
Latest updated in November,2023