在人工智能的浪潮中,你是否被各种专业名词所困扰?从AI到深度学习,从监督学习到无监督学习,这些词汇是否让你感到头皮发麻?别担心,本文将带你理清楚各种错综复杂的AI关系,让你轻松入门AI。作为小白入门AI的第一课,这篇文章将为你揭开AI的神秘面纱,让你对AI有更深入的了解。快来一起探索这个充满无限可能的新世界吧!
想学习AI,但是经常看到这些专业名词AI、生成式AI、AIGC、机器学习、监督学习,无监督学习,深度学习、强化学习等等各种AI专业词汇的困扰!
看到这些词汇,是不是还没开始学,头皮已经发麻!
还好,今天你刷到了小侠这期作品,今天我将用一张图带你理清楚各种错综复杂的AI关系。
AI的定义:
AI是指机器能够模拟人类的智能和行为,执行复杂的任务,如理解语言、识别图像、进行决策等。例如,自动驾驶汽车就是一种应用AI技术的典型例子,它可以通过感知环境、理解交通规则以及做出决策来实现自主驾驶。
通过定义,我们可以认识到AI就是替代人的机器,可以是软件形式也可以是硬件形式,软件形式比如装在手机里的AI聊天软件,脱离手机使用不了,硬件形式就如扫地机器人,只能解决特定问题存在。
对AI有了初步认识,接下来看看AI是如何训练出来的。
与传统软件或者硬件不同,AI并不是制作出来的,而是通过训练而来,因此与传统软件最大区别是AI可以自己决定做什么,回答什么,而传统软件要完成什么任务需要有人操作。
小侠前些天分享了一篇,里面就提到AI时代,为什么称AI为新的时代,原因就在于AI的出现,打破了我们当前生活方式和工作习惯,就如刚刚提到的,传统软件需要人操作,AI时代,软件操作并不一定由人来完成。
回到正题,提到训练AI就得提到机器学习相关知识,机器学习是指让机器自我学习和自我改进的一种技术,就像人类一样,可以从失败中成长,训练AI也和培养人一样,让机器从现有的知识里面进行学习。
看看上面这张图,机器学习里面包含监督学习、无监督学习、强化学习三种,这三种方式是让机器学习不同知识,掌握不同能力的三种训练方法,具体内容如下:
1)监督学习:
是指让机器通过已经标记好的数据或结果让AI进行学习,并做出正确判断,比如你教小孩子认识苹果,你给他看一个苹果,告诉他这是苹果,然后再给他看另一个,问他这是什么。通过不断的“教学”和“提问”,小孩子就能学会识别苹果,监督学习的原理和这个类似。
假设企业需要训练一个客服AI,让他准确回答客户问题,我们就可以通过类似方法训练AI,让他准确识别问题并找出对应答案反馈给用户。
2)无监督学习:
就是让计算机从一堆没有标记的数据中找出规律和结构,比如让小孩子从一堆没有名字的玩具中,自己分类和归纳出哪些玩具是车子、哪些是动物一样,通过多次的训练,AI自己找出规律并做总结,从而让AI具备掌握规律的能力。
假设你是一家电商公司的运营人员,你手头有一大堆用户的浏览、购买等相关数据,但是这些数据并没有明确的标签,比如哪些用户是喜欢买时尚衣服,哪些用户是喜欢买电子产品。 这时,你可以使用无监督学习的方法,让计算机自动根据用户的行为数据,将用户分成不同的群体,从而实现定制化营销的目的。
3)强化学习:
是指让计算机在不断尝试和错误中自我学习,通过相应的奖励机制让AI找到最佳结果的方法。 拿训练宠物狗举例,假设你有条小狗,你想让它知道按铃铛就能获取食物,起初宠物狗并不知道按铃铛与获得食物之间存在关系,当宠物狗按到铃铛,你就给他食物,不管他是有意识还是无意识,时间长了,宠物狗就会发现一个规律,只要按铃铛,主人就会给我食物。随后宠物狗会自我总结,验证自己的判断,尝试按铃铛是否会获取食物。
铃铛、食物一起组成了一个特定环境,在这种环境下宠物狗就能学习到获取食物的方法。 强化学习和训练宠物狗类似,就是给他奖励,做错了给与惩罚,作对了给与奖励,多次训练,AI就能找到规律并自我学习。
当然,有伙伴可能会问,狗获取食物对他来说是奖励,但是机器你总不能给他吃东西吧!
科学家也想到这个问题,方法也很简单,就是给AI设置积分,对了给分,错了扣分,大家平时用AI聊天工具是不是可以看到赞一下,踩一下的图标,其实这就是大家帮助企业强化训练他们AI的过程。
参与的越多,AI能力就越聪明。
以上三点是AI训练较为基础的部分,希望伙伴们看完这篇内容,面对这些专业词汇不再陌生。
再来看看下面这张图:
深度学习是在机器学习基础上进一步训练AI能力的方法,简单来说就是让AI模仿人类大脑,掌握学习和思考的过程,比如人类看到一张猫的照片时,我们会立刻认出这是一只猫。这是因为我们的大脑已经通过过去的经验和学习,积累了对猫的认识。深度学习也是这样,它会通过大量的图片数据来学习,逐渐识别出图片中的特征,最后就能准确地认出猫了。
生活中深度学习应用非常常见,例如刷脸支付,语音识别,自动驾驶等等场景,都是应用了AI深度学习的方法.
所以你会发现,新买的手机,扫脸解锁偶尔会出错,但是用的时间越长,出错的概率越低。
AI核心圈最里面的一个圈,大语言模型,也称之为LLM,简单理解就是语言类的AI模型。
目前我们常说的各种AI软件,背后就是用到大语言模型,他的主要特点是:
1)能够理解人类自然语言。
这点在以往任何软件中都没出现过,传统方式要识别人类语言意图,方式是识别语句中关键字,比如我要洗澡,洗澡为关键字,软件根据后台有关洗澡的答案反馈一个结果给用户。大语言模型则不同,他是通过深度学习中的 Transformer 架构来解决语义理解的问题,关于 Transformer 架构我们后面再做介绍。
2)能够生成人类语言结果反馈给用户。
与理解相反,就是AI能够根据理解的语义生成人类能够理解的语言反馈给用户,比如让AI写诗,写文章等等,都是这个能力的表现。
除大语言模型之外,还有一些垂直领域的模型,比如Stable Diffusion,擅长画画的绘画模型,本草擅长中医的中医模型等等。
以上是有关核心圈的基础知识,观看到这里的伙伴,大家都理解了吗?
如果觉得小侠分享还不错,评论区回复“666”支持一下。
接下来,我们看看大模型应用层相关知识,看看下面这张图:
先看看什么是AIGC?
AIGC与之相对的是UGC、PGC,AIGC指的是由AI生成的内容,包括文章,图片,音乐,视频等等。UGC、PGC分别指的是由用户(普通人)生产的内容和专业人士生产的内容。
作为信息时代,任何品牌,产品想要告知用户,都需要生产大量的内容发布到各大渠道,才能触达用户,比如通过直播带货,短视频带货等等方式,因此内容生产作为当前时代是非常重要的一种手段。
刚刚提到了大语言模型和其他垂直模型,不同模型可以生产不同内容,比如绘画的模型可以设计海报,写文章的模型可以输出营销软文,因此2023年作为AI最火热的概念AIGC就孕育而生。
生成式AI和Gen AI与AIGC本质上并没有什么区别,只是叫法上不一样。
文章后面会提到AI Agent,作为时下最热的两个方向,小侠个人看好的是AI Agent方向,AIGC个人认为,只是超热的概念,实际上并没有那么高价值。
这里小侠给想深入学习AI的伙伴提个醒,AI时代想抓住AI红利,重点研究学习方向一定要往AI Agent方向学习,AIGC只能说把AI当更高效的工具使用,并没有发挥AI真实价值。
而AI Agent方向,能够解决的问题实在太多,我们后面讲到大模型层知识的时候再具体细聊。
AI应用层是我们绝大多数粉丝接触最多的一个层级,伙伴们经常刷到的各种AI神器分享的视频,都是应用层的内容,应用层主要划分为:
1)AI效率工具。
有些是AI原生工具,比如火山写作,Stable Diffusion,即梦,可灵等等!这些都是基于AI单独开发出来的新型软件,传统软件是实现不了这些功能的,因此叫AI原生工具。另外一些是AI赋能,比如飞书,钉钉,剪映等等,这些原本就有,只是融合AI,让原本能力更加强悍。
2)聊天机器人。
英文名Chat Bot,这应该是大家接触最广,用的最多的AI软件,像豆包,通义千问,文心一言,Chat GPT等等,软件形式以自然语言交流为主,通过沟通方式解决用户问题。
3)Prompt工具及社区。
小白可能比较陌生,Prompt指的是提示词工程,意思就是整理能够让AI理解的命令,比如“假设你是一名律师”,“假设你是一名大学老师”等等,这种告诉AI的内容就是Prompt的知识。
为什么Prompt会是一门单独的知识,主要是因为很多场景下,需要一个精准的提示词才能够让AI完成目标任务你得让AI知道它是谁,要干什么,什么能干,什么不能干等等。还有一些特定任务安排上,也需要非常明确的提示词,AI才能真正理解你的用意,因此有对应的工具和社区。
像AI绘画玩家口中常说的炼丹,其实也是提示词工程的知识,只不过适用的模型是绘画类的模型。
4)开发者社区。
与提示词工程社区类似,都是让大家学习交流的地方,像小侠发布的【弼小侠AI基地】,也是这个定位。
5)应用开发工具。
主要是开发AI应用的平台,像小侠强烈推荐大家学习的Coze平台,Dify平台,这些平台都是用来开发AI应用的工具平台,里面包含了模型调用,插件调用,数据库,知识库等等各种开发所需要的功能。
与传统软件开发平台不一样,AI开发平台都提供无代码和低代码两种模式,特别适合新手学习,不用软件开发背景,掌握相关知识都能设计出自己或者企业用的AI。
以上是有关AIGC与AI应用层相关的知识,做个总结:
应用层是普通人能抓住AI红利的唯一机会,你可以是掌握了某些AI工具的具体使用方法,也可以是能够熟练利用AI应用开发工具设计AI软件,两种方式都能让你在AI时代找到赚钱的路径。
小侠强烈推荐的是大家务必掌握coze或者dify等AI应用开发的知识,有了AI应用开发能力,不仅能解决自身需求,还能解决企业AI数字化升级的问题。
下面我们再看看AI Agent与大模型层相关知识,看看下面这张图:
经常在网络上看到Agent相关内容,那到底什么是Agent呢?
先看看AI Agent的定义:
Agent是一种具有感知、决策、行动能力的自主系统,关注的是AI如何在复杂环境中执行任务和达成目标,生成式AI是其组成部分之一,但AI Agent的范畴远大于单纯的生成任务。
听起来是不是有点抽象?
简单理解Agent就类似传统意义机器人的简配版,相比机器人就是少了手,少了脚,不能帮你叠衣服、干家务,其他都可以帮你完成!
比如让AI帮你订机票,打电话给老婆告诉他今天晚上回来等等。
没有手和脚,AI到底能做什么?
前面提到软件形式的AI和硬件形式的AI,Agent相当于软件形式的AI。它能通过软件方式处理你安排他的任务,像我们日常工作大多数都是用手机、电脑办公,绝大多数场景都不需要用到硬件设备。
假设你是一个外卖小哥,给客户送外卖途中出现了一点小意外导致外卖无法准时送达,如果你手机里安装了Agent实现的AI助理,这个助理就能通过定位和时间等信息,帮你呼叫客户,告诉它外卖会延迟送达信息,并且帮你获取客户的理解,免得平台处罚。
这个场景下,就是应用了Agent的能力,他能让AI具备一定业务处理能力。
想要实现这个业务场景,需要让AI具备定位获取,电话获取,拨通电话,当前任务等能力和信息,我们可以借助前面提到的AI应用开发平台开发这类AI助理,给他配置相关技能,从而实现这种能力。
目前Agent发展速度非常快,相应技能和配套权限正在火速发展中,小侠去年接触到Coze平台,平台更新到今天,平台能调用的权限已经超过一万多种,足以满足大部分业务场景。
相比机器人,Agent会更加快到达我们日常生活和工作。小侠预计,最迟明年上半年,就有很多企业已经用上了私有AI解决公司实际业务问题。如果你的企业还没有考虑过AI赋能,小侠提醒,可以开始了解AI相关知识了。
提到AI,经常映入眼帘的就是各种大模型, 图中小侠罗列了一些主流的大模型,比如GPT-4,GPT-4o,豆包大模型,混元大模型,Gemin大模型还有Llama3大模型,这些可以理解为AI的大脑,主流的大模型都是大语言模型,解决语言类问题为主,适用场景广泛。
通用大模型有个弊端,就是啥都懂,但是啥都不精!
企业如果直接用通用大模型,感受相当于你用豆包APP或文心一言这种AI聊天工具,让他给你写一个会议报告,生成出来的东西初看蛮好,细看不能用的感觉。
主要原因是通用大模型训练时候主要目标是让模型具备基础能力,比如自然语言理解,数学推理,逻辑推理等基础能力,而没有针对具体业务场景单独训练,因此你让通用模型具体干某个活,它是干不好的!
这个时候就要需要我们对通用模型进行微调和配置相应技能,又回到刚刚说的Agent这里了,Agent主要解决的就是通用模型没办法胜任具体工作的问题。
垂直大模型主要是针对特定技能训练出来的模型,比如Stable Diffusion就是针对绘画技能训练出来的模型,其他能力不行,绘画却是一等一高手。后面我们会讲到Transfomer架构知识,会谈到Stable Diffusion训练方法和大语言模型的区别,这里不做扩展,大家只需知道垂直大模型主要就是针对特定场景单独训练而来就行。
这部分内容跟我们普通人关系不大,可以作为课外知识了解一下就行,具体看看下图:
基础层之所以称之为基础层,其主要解决的是AI最底层的东西,也是我们一般人接触不到的层级,主要划分可以分为:
1)AI芯片。
生产AI芯片的企业,作为AI起源地漂亮国,AI芯片目前也是他们最强,代表公司NVIDIA,NVIDIA在AI领域有如此之高的地位一个原因是他的芯片适合训练AI,另外一个就是他们的CUDA AI训练平台,可以理解为要生产一架飞机,其中发动机制造和飞机设计软件都在他们手里,所以NVIDIA的市值持续上涨。
当然,国内企业也正在这块发力,比如华为的昇腾,最近大家都看到有关华为手机AI能力的新闻了吧!相较于苹果等其他品牌的手机,华为从AI芯片到模型训练,都是自研实现,能有这么好的表现,作为中国人真的感到骄傲。
2)云计算平台。
数据服务,开源数据集,向量数据库,训练框架,推理和部署平台等等,这里就不做过多讲解,毕竟跟我们不搞科研的人关系真不大,感兴趣的可以私下了解,对普通人来说,更应该聚焦的是AI应用层和Agent方面的信息。
关于上面三部分知识点,我们有个大概认识就行,都属于AI训练相关知识。
1)Transfomer架构
Transformer架构是一种深度学习模型,专门设计用于处理序列数据,特别是在自然语言处理(NLP)任务中取得了巨大成功。
它是由Vaswani等人在2017年的论文《Attention Is All You Need》中首次提出的,并因其高效处理长距离依赖、并行计算能力和卓越性能而迅速成为NLP领域的标准模型之一。
主要组成部分包括:
自注意力机制,多头注意力,编码器和解码器几个部分组成。
对了这部分的知识很有意思,学习后相信你会对AI的未来更加有信心,另外Transformer架构不仅在语言处理上得以验证,在图片,音频,视频等领域也已经被验证可行,也就是说我们想象中的机器人已经被验证会到来。
2)NLP
NLP也就是自然语言处理是人工智能的一个分支,它涉及到计算机理解、解释和生成人类语言的技术。
NLP与Transfomer架构的关系就是NLP的实现通过RNN、LSTM、GRU、Transformer等模型实现,搞清楚这点就行。
3)CNN
这个也是非常常见AI名称,这里也简单做个介绍,CNN又称之为卷积神经网络是一种深度学习模型,主要用于图像和视频识别、分类和分割等任务。可以理解为类似Transfomer架构的一种结构,只是技术路线不一样。
另外Stable Diffusion绘画工具采用的是扩散模型的技术,英文叫Diffusion Models,也和Transfomer架构一样,是不同技术路线,都是让AI实现理解人类意图的技术方法。
好了,上述知识对于小白可能有点多,但是小侠真心希望大家都能理解并梳理清楚关系。我相信,看完小侠这期视频的伙伴,最起码对AI有个比较全面的认识,以后再遇到AI相关的知识或者课程推荐时,不至于一脸懵逼,啥都不知道,被当韭菜割了。