生成式AI第一章 多媒体生成入门

   日期:2024-12-26    作者:xiukt 移动:http://ljhr2012.riyuangf.com/mobile/quote/35675.html

生成式模型在近年来广泛流行。在阅读本文时,读者很可能已经在与生成模型进行过互动。或许是使用ChatGPT生成文本,或许是在Instagram等应用中使用风格转换,亦或是看过那些引发热议的深度伪造视频。这些都是生成式模型的实际应用!

在系列文章中,我们将探索生成式模型的世界,从两大生成模型阵营——transformers和扩散模型(diffusion)的基础开始,逐步深入到更高级的话题。我们将介绍不同类型的生成模型,它们的原理,以及如何使用。我们还将探讨生成式模型的伦理和社会影响以及它们在现实世界中的应用。本文中,我们会回顾一下走到今天这一步的历程,并了解一些模型所提供的功能,这些功能我们在后续会进行更深入的探讨。

那么,什么是生成式模型呢?从顶层来讲,它的基本思想是向模型提供数据进行训练,以便未来能生成与训练数据相似的新数据。例如,如果我用一个包含猫咪图像的数据集来训练模型,那么我可以使用这个模型生成新的猫咪图像,这些图像看起来就像是出自原始数据集。这是一个强大的概念,具有广泛的应用范围,从创建新奇的图像和视频到生成具有特定风格的文本。

在本系列文章中,有许多流行的工具方便我们轻松使用现有的模型。在机器学习的世界中,可以找到能公开访问的在大型数据集上训练的模型,任何人都可以使用这些模型。训练这样的模型通常需要大量的资金和时间,因此能够公开访问这些模型是条捷径。这些预训练模型可以用来生成新数据、对现有数据分类等等。我们甚至可以修改这些模型使用到新的场景中。最知名的开源模型平台之一是Hugging Face,上面有数百万个用于各种机器学习任务的模型(包括图像生成)。

本文相关代码请见GitHub仓库。

我们先以开源库diffusers开始举例。diffusers是一个知名库,提供了对最炙手可热的扩散模型的访问。它是一个强大而简单的工具箱,让我们能够快速加载和训练扩散模型!

通过访问Hugging Face Hub并筛选基于文生图像(text-to-image)的模型,我们可以找到一些最流行的模型,如Stable Diffusion和SDXL。我们将使用Stable Diffusion 1.5版本,这是一种能够生成高质量图像的扩散模型!进入模型页面,可以阅读模型卡片页,这是对于观测性和可重复性至关重要的文档。在这里,我们可以了解关于模型的信息,包括它是如何训练的,预期的使用场景等等。

有了模型(Stable Diffusion)和使用模型的工具(diffusers),就可以生成我们的第一张图像了!在加载模型时,需要将它们发送到具体的硬件设备,如CPU(cpu)、GPU(cuda或cuda:0)或称为Metal的Mac硬件(mps)。以下代码将频繁出现:它会对变量赋值(如果有GPU可用);否则,则使用CPU。

接下来,我们加载Stable Diffusion 1.5。diffusers 提供了名为的高阶封装,非常适合这种情况。不必担心烦杂的参数——重点如下:

  • Stable Diffusion架构有许多模型,因此我们需要指定要使用的模型,本例中使用。
  • 我们需要指定加载模型时使用的精度。精度在之后会深入了解。从宏观上来看,生成模型由许多参数(数百万或数十亿个参数)组成。每个参数都是在训练期间学习到的一个数值,我们可以以不同精度存储这些参数(换句话说,使用更多的位数来存储模型)。较大的精度需要更多的内存和运算,通常也意味着更好的模型。而我们也可以通过来设置较低的精度,使用比默认的更少的内存。

读者可能会希望了解参数。在某些代码库中,你可能会发现具有不同精度的多个检查点。当指定时,我们下载默认模型()并将其转换为。通过指定变体,我们下载一个已经存储为精度的小检查点,下载它只需要一半的带宽和存储空间。检查你要用代码储库,看看是否有多个精度变体!

初次运行此代码时可能会花费一些时间:管道需要下载好几个GB的模型!如若是第二次加载管道,仅在Hugging Face上托管模型的远程库发生变化时,才会重新下载模型。Hugging Face库将模型放在本地缓存中,这样后续加载速度更快。

此时模型已经加载好了,我们可以定义一个提示词(prompt),也即模型将接收的文本输入。然后将提示词传递给模型,根据该文本生成一张图像!

太神奇了!只需几行代码,我们就生成了一张新奇的图像。放松时间到,用不同的提示词生成新图像。可以注意到生成的图像会有不同程度的改进。在后续文章中,我们将探讨如何细颗粒度地控制生成过程,以及最新的具有更好生成能力的一些模型。

  • 第四章和第五章深入探讨扩散模型背后的所有组件,以及如何用文本生成新的图像。在此之前,第三章介绍了一些方法,如自动编码器(autoencoders),这些方法可以从输入数据中学习有效标记,减少构建扩散模型及其他生成模型的算力需求。
  • 在第七章中,我们将学习如何向Stable Diffusion传授新概念。例如,我们可以教Stable Diffusion“”这个概念,在场景中生成作者狗狗的图像,如“狗狗登上月球”。
  • 第八章展示了扩散模型不仅可用于图像生成,还可以通过提示词编辑图像或填充图像的空白部分。

正如diffusers是一个非常便捷的扩散模型库,大名鼎鼎的transformers库在运行基于转换器的模型和适应新用例方面也极具价值。它为广泛的任务提供了标准化接口,例如生成文本、检测图像中的对象以及将音频文件转录为文本。

transformers库提供了不同层次的抽象。例如,如果不关心内部细节,最简单的方法是使用,它抽象了获取预测所需的所有处理过程。我们可以通过调用函数并指定我们想要解决的任务(如文本分类)来实例化一个管道。

模型正确地预测了输入文本中的情感是正向的。默认,文本分类管道使用的是一个情感分析模型,但我们也可以指定其他基于transformers的文本分类模型。

同样,我们可以将任务切换为文本生成(),通过它我们可以通过输入提示词生成新的文本。默认管道使用GPT-2模型。

虽然按照今天的标准,GPT-2算不上好模型,但它为我们提供了一个使用小模型初步了解transformers生成能力的机会。我们学习到的关于GPT-2的概念适用于诸如Llama或Mistral等一些(在撰写本文时)最强大的开源模型。在整个系列中,我们会平衡模型的质量和大小。通常,较大的模型会有更高质量的生成。同时,我们希望拥有消费级电脑或可以访问免费服务的人能够通过运行代码来做新的生成。

  • 第二章讲解transformer模型的工作原理。我们将深入探讨不同类型的变压器模型,以及如何使用它们生成文本。
  • 第五章介绍如何使用自有数据继续训练transformer模型以适应不同的用例。这样我们能够制作出类似于ChatGPT或Bard中的对话模型。我们还会讨论高效的训练方法,以便能在自己的电脑上进行训练!

生成式模型不仅限于图像和文本,还可以生成视频、短歌、合成语音、蛋白质结构提案等!

第九章深入探讨可以通过机器学习解决的音频相关任务,例如转录会议内容和生成音效!当前,我们可以使用我们熟悉的transformers管道,并使用由Meta发布的MusicGen小版本模型,根据文本生成音乐。

注:本地运行MusicGen要求


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号