当前位置:AIGC资讯 > AIGC > 正文

AI数据告急,大厂盯上廉价年轻人

为了拿到新数据、训练AI大模型,字节等互联网大厂正在亲自下场,以单次300元不等的价格招募“AI录音员”,定制语料库。

坐落于北京大钟寺的字节办公楼,集中了字节的抖音业务团队和火山引擎业务团队,从年初便开始招募素人为豆包大模型录音。两人结组、单次3小时,包括80分钟的自由聊天,有提示词的60组对话,单次结算金额为300元。

长达3小时的录音,有至少2名字节员工全程陪同。“对话不能水时长,要有内容和信息,质量太差会酌情扣款”,“不能修改提示词,大模型理解不了”。从晚上6点到9点,字节员工在录制过程中的指令,则更多透露着对于录音质量的关注。

实际上,成都、太原、贵州等二线城市,早已成了字节、百度、阿里等大厂的AI数据外包之城。“去年,数据标注、方言朗读,专科生就能做。现在招的都是211、985的实习生带外包。”某大模型产品经理表示。

在9月刚刚推出视频大模型的MiniMax,其创始人闫俊杰告诉字母榜,在上海,除了语料公司的高质量数据之外,MiniMax也会采购一些平台化数据。

数据、算法和算力是AI大模型的三大支柱,其中数据是大模型进行训练的根基。但由于互联网数据散布在不同平台,并被重重壁垒所环绕,AI大模型可以用来训练的公开数据正在走向枯竭。

6月,研究机构Epoch AI发布了一项新研究预测,可用于AI语言模型公开训练的数据,将在2026年到2032年间,被科技公司耗尽。而早在2023年5月,OpenAI首席执行官阿尔特曼便公开承认,AI公司在不久的将来会耗尽互联网上所有的数据。

如何寻找高质量的新数据“喂养”大模型,成了所有AI大模型团队的共同难题。

由于存在擅自使用第三方数据的嫌疑,一些大公司屡屡陷入纠纷。8月,OpenAI被超过100位YouTube主播集体诉讼,指控其擅自转录了数百万个YouTube 视频来训练大模型。英伟达、苹果、Anthropic等巨头也涉及其中。

对于大厂而言,拥有自己的闭源高质量数据,才能保证喂养大模型的数据时效性和质量。而跳过品控不稳定的第三方平台,试图亲自下场为AI写“剧本”,或许是大模型厂商们的一条新路子。

A

今年初,在小红书等平台上,悄悄出现了标价300元一次的AI录音兼职。

相比起BOSS直聘等平台30-55元时薪的AI录音兼职,300元单次、录制地在北京大钟寺的所谓“头部大厂录音兼职”显得颇具诱惑力。

8月,通过微信被拉到录音群内时,字母榜(ID: wujicaijing)发现群内已经有了200多名等候录音的人。由于规定为2人一组录制对话,时间长达3小时,进群后,“找搭子”“有人和我一起录吗?”的微信消息弹出的最多。

而实际上,300元一次,做AI录音员,“给AI写剧本”并不轻松。

首先在录音前,所有人都必须上传一段2-3分钟的对话录音做“样音”,字节的审核人员要通过样音的效果来决定是否通知兼职录音。而这个过程会有3名员工负责审核,其中2名员工审核都通过,才能直接预约录音时间,如果不通过,还有交叉审核。

在样音二审过后,张雪在提交样音的第二周预约了晚上6-9点的录音时间。而在群聊内,不少人都被卡在了样音环节,“审核老师喜欢能聊的,爱聊的。”情绪高昂的对话,内容有主题,让更多的人卡在了筛选的第一道门槛。

图注:大钟寺录音群

图源:字母榜截图

录制当晚,张雪隔着录音室的透明玻璃坐在椅子上,调节到语音能够被清晰录入的最佳位置,通过耳机收听字节员工的指令。

第一个环节,就是两人80分钟的无主题自由聊天。而字节人员的要求,则是聊天不能是“片汤话”,要有内容,同时每个话题都不能超过10分钟,并且不能出现大段大段的独白,要保证是相对平均的对话状态。

张雪和搭档在录音室内隔着巨大的头麦对谈,尽量不停顿地谈话80分钟。同时,还要尽量克制身体不能乱动,发出咳嗽声、笑声等扰乱录音质量的声音。

为了保证语音质量,字节人员通过耳机不时插入,提示出现了杂音要重新录制,或者聊天“不自然,引导痕迹过重”,也要重新录制。高质量语音的标准是聊天自然、话题连续,情绪积极但不能抢话,还要有内容、不流水账。经过反复重调,第一个环节就花费了近2个小时的时间。

而到了第二个环节,要录制有提示词的60组对话。尽管有了剧本可供参考,但作为AI录音员,张雪不仅要根据情境编对话,还要保证严格的对话模式,即上一组对话是A结束收尾,那么下一组对话必须由B开始。

同时,为了适应大模型的调试需求,每一次的指令都必须清晰明确地说出提示词,“可以详细一些吗?可以更详细一些吗?可以再详细一些吗?”而在耳机内,字节人员也明确表示,剧本都可以改,但只有提示词不能动,换个说法,AI就可能难以识别。

为了保证录音质量,录音不清晰、吞字或者情绪不足,都会重新录制。等录制结束,张雪离开大钟寺,时间已经走到了晚上近10点。而一次3小时的录音,字节人员一天要录制3场,每周的日程几乎都是满的。

除了北京,字节已经在上海、杭州、重庆、南京、成都、天津等多个城市招募录音员。

B

对于渴求新数据的大模型厂商们来说,“砸钱拿数据”的操作并不新奇。

2023年,随着AI大模型成为新风口,大厂们不仅直接通过第三方公司购买数据,也创造出了“大数据标注师”、“AI编辑”等外包岗位。

2023年,小语种专业的阿琳,在考研期间就通过BOSS直聘等网站,开始为大模型“打工”。

通过一家叫做“X数据”的公司,阿霖为大模型图片识别的文字内容做验收,即检验大模型图片识别后的小语种文字是否与图片一致。按照“一个词或一句话算一个核算框,一个框算1毛钱”的价格,核算几百条,阿霖一次能赚几十元。

到了今年,阿霖同样通过第三方的数据公司接单,做翻译类的 AI 数据标注,价格涨成了1元多一条。但要人工判断大模型翻译出的法语等小语种是否准确,标注员不仅要找出错误之处,还要用不同的颜色,对5-6个大模型的翻译内容进行标注。“有时看一条得花10-15分钟”。

为AI打工之后,阿霖也发现,这些大模型,一旦脱离了原本小语种的教科书语料库,对于社交平台新的用词,或者小众人群的惯用词,即自身的数据库没有收录,大模型就开始降智,“受限于版权,学不到新的文本内容,翻译效果也受影响。”

除了第三方外包公司,大厂也建立起了自己的数据基地。

例如,百度的数据基地分布在如南昌、阳泉、太原、贵州等非一线城市,并在这些城市完成数据标注、方言朗读等数据的采集,只需“招一些当地的专科生,会操作电脑就行。月工资也往往在3000-5000元之间。”美团也早就有了自己的驻厂AI训练师。

不过,相比起舍得砸钱的大厂,大模型四小龙们想要拿到高质量数据,难度高了不少。

“核心的闭源高质量数据,往往都已经被大厂垄断,AI创业公司,甚至是AI四小龙,都可能只能拿到边缘数据。”某大模型厂商的算法人员Leo告诉字母榜。

由于高质量数据能够显著提升模型效果,因此,在开源的公开数据数据之外,大模型厂商们为了实现技术迭代,需要更高质量的数据完成训练。但这些数据往往被大公司把握,如国内的新闻数据掌握在腾讯、字节等大厂内部,海外则由Common Crawl、GDELT、The Pile等占据。

在海外,即便是YouTube,也在6月底宣布,将向顶级唱片公司提供许可协议,以换取版权音乐用于训练。OpenAI 一直在与 Politico、《大西洋月刊》、《时代》、《金融时报》等新闻出版商达成付费协议,使用并引用它们的新闻资料。

当关键数据主要掌握在“渠道方”内部,比如腾讯、字节和Meta等公司,关键用户数据早在移动互联网时代被瓜分完毕,要想实现技术突围,AI四小龙首先就得交一笔不小的“数据费”。

C

对于厂商们来说,行至大模型创业下半场,“大数据幻觉”也是大模型集体降智、测不出9.11和9.9哪个大的原因之一。

当字母榜在MiniMax的海螺AI内输入“一个小女孩怀里抱着一只布偶猫”,耗时2分钟,生成的6秒视频内,小女孩抱猫咪的手指细节丰富,只是怀里抱着的,并非是一只布偶猫。

面对生成结果,MiniMax的视频大模型员工解释,“这是因为用于训练大模型的数据,在猫咪的绑定图片里,并没有布偶猫。”

当模型生成的内容与现实世界事实或用户输入不一致,即大模型出现幻觉,开始“胡说八道”。对于渴望新用户的大模型厂商而言,生成效果显然决定了产品是否有机会出圈。

“输入的指令是提取8月所有娱乐新闻,结果AI生成的是2019年8月的娱乐新闻内容。”在使用某头部大模型产品时,忠实用户孔昉已经抓到了好几次AI“胡言乱语”的瞬间,或是编纂出根本不存在的引用文献,或是不能理解近两年的新概念,这让孔昉对大模型产生了信任危机。

现在,孔昉会同时用2-3个不同厂商的大模型“跑”同一个问题,然后交叉对比,对于时间、数量、文献等关键信息,也会通过搜索引擎二次确认,“现在AI生成很像抽卡,效果不可控,而且还容易智障。”孔昉无奈道。

而高质量数据或将逐渐耗尽,想要解决“大模型幻觉”问题,拿什么数据来“喂养”大模型,显然颇为关键。

某接近百度的人士告诉字母榜,大模型厂商们都会通过三方公司直接购买数据,省时省力但并“不省事”,就是因为购买来的数据,无论是文本、录音还是视频,质量都是不可控的。

对于积极发展B端客户的头部大模型而言,针对某个客户,更个性化地定制大模型成为如今大厂AI业务主要的收入来源。但想要训练出这样个性化的模型,就需要相应高标准筛选下的数据来“喂养”,甚至根据不同阶段大模型的学习效果,进行数据需求的调控,“不是随便买一堆语音来,大模型就能学会的”。

在某三方数据工作做过AI翻译的阿霖也发现,“作为提供数据的甲方,她所在的公司似乎并不真的关心大模型生成的语音质量。”

对于专攻法语、西班牙语等小语种的阿霖来说,她需要为甲方同时对比5-6个大模型将小语种语音翻译成文字的生成效果,但只需要粗略得打分,对于生成的5-6份文字,到底有哪些细节的语言差异,能够如何改进,三方公司并不会询问,“漠不关心”。

而缺乏高质量数据,或许也正是不少用户表示“用哪家的大模型生成的内容都差不多”的原因,也正是用户一旦“一家大模型收费,就直接换另一家”的根因。

对于用户而言,宣称追赶OpenAI,在技术上持续迭代的国产大模型,或许并无实质差异,也谈不上成为忠诚用户,这也给急着商业化的大模型厂商们蒙上了一层淡淡的阴影。

因此,即便亲自下场“为AI编剧本”费时费力又费钱,字节也趟出了一条新路子。而可以预见的是,为了解决商业化和用户拉新的关键问题,大手笔咬牙“买数据”,恐怕将成为大模型厂商们的新赛点。

(文中阿霖、孔昉、张雪为化名)

总结

这篇文章主要讨论了互联网大厂,包括字节等,为了训练和提升AI大模型的能力,如何亲自下场招募“AI录音员”定制语料库。文章从以下几个方面进行了详细阐述:
1. **招募录音员情况**:字节等大厂在北京等城市招募素人为其AI大模型录音,单次300元,需录制3小时,包括80分钟的无主题自由聊天和有提示词的60组对话。这种高标准的录音要求体现了大厂对数据质量的严格把控。
2. **录音过程与质量监控**:录音过程中,至少有两名字节员工陪同,确保录音对话有内容和信息,对话自然、不流水账。同时,字节员工会通过耳机实时提示和指导录音员,以确保录音质量。
3. **数据标注与外包**:不仅大厂直接招募录音员,还通过第三方公司进行更广泛的数据标注和采集,包括方言朗读、图片识别等。阿里的语音翻译项目也显示了类似的模式。然而,这些数据的质量参差不齐,需要严格筛选和控制。
4. **数据枯竭与高质量数据难度**:随着AI大模型训练的数据需求量增加,互联网上的公开、可训练的数据正在迅速耗尽。预计到2026年至2032年间,可训练的数据将被耗尽。因此,大厂纷纷寻求高质量数据以保证模型训练效果,并避免使用第三方可能带来的版权问题。
5. **大厂与创业公司的数据分歧**:大厂因资金和能力的优势,更容易获取核心的高质量数据,而创业公司和小型大模型厂商则面临更大的数据获取难度,不得不依赖边缘数据。
6. **大模型的“大数据幻觉”**:许多大模型因为缺乏足够的训练数据或者数据质量不高,而产生与现实世界不符的幻觉问题。这不仅影响用户体验,也对大模型的商业化应用构成阻碍。
7. **新路径与商业化前景**:为了解决数据问题,大厂们亲自下场为AI写“剧本”,试图通过定制化的高质量数据来提升大模型的效果。这不仅是大厂在寻求技术突破的新路径,也将成为大模型厂商们在商业化和用户拉新中的新赛点。
总结来说,大模型训练对数据的需求日益增加,但互联网上的公开、可训练数据即将枯竭。为了提升大模型的效果和商业化前景,大厂纷纷下场亲自招募和优化数据,这在AI大模型领域成为了一种新的趋势和竞争焦点。

更新时间 2024-09-03