当前位置:AIGC资讯 > AIGC > 正文

百万粉科普博主GenJi:未来AIGC可能占据90%内容

从AI绘画开始,AIGC逐渐影响到设计、广告、影视等各行各业。GenJi是一名拥有百万粉丝的科普创作者,也是一名AI科技创业者,他从Photoshop、Premiere等教程起步,将账号“GenJi是真想教会你”做到了B站设计教学区综合影响力第一名,之后加入了AI绘画教学内容,出版了《Midjourney创作从入门到应用》等畅销书。

在2024新榜大会上,GenJi分享了AIGC在内容商业路径的探索,包括AI内容创作的工作流、企业内部的AI学习路径、AI与元宇宙的结合等。

以下内容整理自GenJi在「内容好生意」2024新榜大会的现场演讲,内容经本人确认。

大家好,我是GenJi。我本身是一名设计师,既然要讲AI相关的内容,今天的PPT我也借助了AI来制作,以往可能需要10~12天,而这套PPT我只用了一天半,还做了两套,90%都是由AI生成的。

相比AI,其实我更熟悉传统的内容生产工作流,大家常用的设计、剪辑、特效软件我都写过教材,做了很多教学视频,在B站发布的第一条视频就有100多万播放,账号正式开始做之后6个月达到100万粉丝,现在有240万。

通过公益的免费教学,我们一共服务过超4000万泛科普用户,很快我们就有了20万的付费用户,此外我们也给企业提供定制服务。

今天我想分享三个部分,一是AI内容革命重构我们的内容生产流程,我会讲讲作为博主是怎么生产内容的;二是怎么做一套完整的AI线下内训,AI学习路径到底怎么样的,我有一套完整的方法论;三是关于AI+Meta会产生什么新的效果。

AI内容革命重构我们的内容生产流程

早在2016年短视频平台流行起来的时候,大家就已经知道了“超级个体”这个词,其实真正的超级个体是六边形战士,而现在的内容生产是没有办法用一个人撬动很大的资源位和流量的,有路径,但很难。

我们现在来看AI内容生产基本的流程和逻辑,左边是ChatGPT、Midjourney和Stable Diffusion,作为科普博主,我先快速科普一下它们是怎么工作的。

ChatGPT的底层原理是自回归模型,最初基于GPT-3.5版本构建。自回归就像是完形填空,机器已经深度学习了人类复杂的知识,在这个过程中,会不断地训练和思考怎么回复下一个词会更加精准。

Stable Diffusion的技术原理是扩散,我更喜欢把它翻译成“降噪”。可以想象你是一个近视1000度的近视眼,眯着眼看这个世界就是一团杂乱无章的色块,这些像马赛克一样的东西就是噪音图,基于噪音图不断降噪的过程就是Diffusion的过程。

所以AI绘画并不是一笔一划完成的,而是通过马赛克不断降噪而成的。然后我们要靠Prompt描述词来控制最终的成片效果,这是最核心的参数。现在也由此延伸出了一个新职业叫Prompt engineer,提示词训练师。

右边这张图是我做的,这是我自己对AI生成内容和人类生产内容区别的理解。从上到下是人类生产的内容,底层是符合马斯洛的动机与人格的,我们先有一个基础动机,一般称之为创意,然后逐渐向下转换成具体的内容,当然这个内容的生产过程也可以是基于用户动机。

自下而上来看,数据、元素、内容,这个是AI生产内容的过程,从上到下是可计算的方向,而从下到上是可生成的方向,逐渐通过Prompt启动,最简单的方式就可以产生内容。

当中这个AIGC的圈远远大于UGC、PGC、OGC,甚至大于他们的总和。我个人的判断是在未来一到两年时间里,AIGC可能在数据量级上会占据所有内容的90%,但只是数据量级,而不是注意力,注意力依然被超级个体垄断,本身大家还是更喜欢碳基生物产生的东西。

说说我自己内容生产的流程,传统工作流包含策划、配音、分镜、设计、拍摄、合成、剪辑、特效和发布。其实在B站发内容还是挺干的,内容成本是大几万块钱。比如一个介绍虚幻引擎的视频,光讲一些公式函数很艰难,我们就用可视化的方式把这个过程用MG动画完整地渲染一遍,也有一些实拍的情景演绎。

现在AI超级个体的内容生产过程不一样了。这一套工作流是基于ChatGPT+Midjourney+D-ID/VEED完成基础数字人的搭建以及基础的剧情类视频。

比如两只鸽子去码头整点薯条的故事,这个插画完全是由AI生成的,在Midjourney里搭建的工作流。我还可以让GPT帮我撰写一个800字YouTube风格的脚本,从策划到分镜头的各种细节,GPT的回答最令我惊艳的一点是,在手机微信音效上,GPT写的备注叫木塞音,这个定义非常精准。

基于这些极简的工作流,AI能辅助的更多是AI文本和AI图像的基础能力。那AI生成视频或者AI生成三维模型是否有可能性呢?答案是肯定的,我们接触了很多国内头部公司,不过目前效果受限于平台本身,AI生成视频可以产出一个千万点赞的爆款短视频,但很难让它完成一个完整叙事的独立工作流。

企业内部的AI学习路径

下面讲解一些我们在企业端具体的服务路径。

我们在AI教育赛道搭建了社区、课程、赛事、媒体的轻松创作教育综合体,我们公司的slogan是想让更多人拥有AI轻松创作的能力,所做的AI课程也登过B站职业职场榜、IT互联网榜的双榜第一。

同时我们给企业做了非常多的线下培训,包括AI设计、AI开发、AI客服、AI流量和AI数字人。

AI流量就是右边这套进阶型AI自媒体培训课程,怎么建立企业的传播矩阵,我们从文本类、图文类、视频类分别讲怎么打通各个渠道,用AI强有效的服务搞定。

我们也是腾讯游戏交互领域的供应商,比如大家熟悉的吃鸡(和平精英),右侧这组图就是吃鸡里真实活动贴脸图,这张榨汁机的效果图是我们用AI训练生成的,我们能够让AI真实地参与相对高质量内容的产出。

综上所述,我们会发现AI可以为企业带来非常多的帮助和服务。

AI+META=?

最后我讲一下AI和Meta有什么样的结合和碰撞。

传统意义上大家接触过很多游戏,元宇宙(Metaverse)本身是有有限的边界,而AI才真正能够让Meta碰撞出无限的火花。

我个人认为,之前Facebook改名Meta的时候,Meta并不是国内真正的真命题,因为当时我们的一维、二维、三维资产生产效率不够高,就像是你用3G网络还不会剪辑,那你怎么做抖音呢,就不会做。

而现在AI能够快速地将一维、二维、三维信息以比较低的成本产出。我们对此抛出了三个解决方案,就是数字大脑、数字分身、数字场景,分别对应一维、二维、三维。一维数字大脑是基于NLP的;二维就是人在二维世界任何的投影,比如妙鸭相机;三维就是现实中任何一个产品在三维世界里重建并且具备唯一性的实体。

先说数字大脑,一个企业定制的Agent,一切GPTs的服务,包含线上业务员、客服、视频讲师等等,这些需要用数字化清洗一遍的传统行业,都可以再用智能化清洗一遍。

比如我们做的一个真实案例,我们的产品HAIMETA服务了一些线下门店,扫二维码点单的效率很高,但没有人情味,用上AI分身后,再扫二维码AI会回复说“老王,还是老三样吗?”AI获取了用户的消费数据,而且还能以人性化的方式跟你交流,这是数字大脑基本的实现路径。

数字分身做起来相对容易一些,大家可以理解为数字人,这方面我们做的案例非常多,既包含线下实体的柜台展示,也包含用来影视渲染的数字分身。

除此之外,我们最引以为傲的就是数字场馆。左图是可口可乐的元宇宙直播间,未来3000年新品发布会,整套直播间是由我们定制的,可以看到这个场馆在移动过程中带有景深变化。所以我们也可以把家居行业和数字场馆相结合,来定制一套Metaverse。

右图是我自己的直播间,可以点击画面全景展示,也可以变成虚拟世界里的小人在其中互动。某些大厂已经将Unity接入底层,马上大家就可能见到大量的互动直播间。

如果大家有关于数字分身、数字场景和数字大脑相关的需求,还是想讨论AI相关的内容创作,定制企业的AI内训服务,都可以联系我们。

我们工作室的slogan叫change in change,变中变,我们更喜欢翻译成《周易》里面的“易”。我们越接触AI就越发现AI领域里没有什么是不变的,因为AI本质上是真随机的过程。

西方科学是在变化中寻找不变,东方哲学是变中变的过程。在人类历史的知识长河中,我特别喜欢达芬奇,500年前,科技还没有这么发达,那时人类未知的边界还相对较小,就是一个小圆,所以达芬奇可以变成一个全知全能的全才。

而现在无论是AI还是Meta技术,底层都是在这个圆的边界上向外拓展的小点,这些小点就是新世界的黑箱子。我们可能无法像达芬奇那样探索那么多边缘,但是我们依然希望可以和各位同仁一起共勉,一起探索好奇,拥抱黑箱。

更新时间 2024-02-01