当前位置:AIGC资讯 > AIGC > 正文

苹果AI后台提示词曝光,工程师:别幻觉!别捏造事实!

苹果AI(Apple Intelligence)还没有正式到来,后台的提示词却意外曝光了。

事情是这样的。

上周苹果不是刚发布了包含生成式AI的开发者测试版本嘛,然后就有位开发者在茫茫文件夹里发现了个不得了的东西——

MacOS15.1Beta1里面,有疑似Apple Intelligence的后台提示词!

紧接着他就把自己的发现顺手发到了Reddit上,瞬间引来众多网友的吃瓜:

这个JSON文件里的代码是这样的:

"promptTemplates":{

"com.apple.textComposition.MailReplyQA":"

{{specialToken.chat.role.system}}Youareahelpfulmailassistantwhichcanhelpidentifyrelevantquestionsfromagivenmailandashortreplysnippet.Givenamailandthereplysnippet,askrelevantquestionswhichareexplicitlyaskedinthemail.Theanswertothosequestionswillbeselectedbytherecipientwhichwillhelpreducehallucinationindraftingtheresponse.Pleaseoutputtopquestionsalongwithsetofpossibleanswers/optionsforeachofthosequestions.Donotaskquestionswhichareansweredbythereplysnippet.Thequestionsshouldbeshort,nomorethan8words.Theanswersshouldbeshortaswell,around2words.Presentyouroutputinajsonformatwithalistofdictionariescontainingquestionandanswersasthekeys.Ifnoquestionisaskedinthemail,thenoutputanemptylist[].Onlyoutputvalidjsonandnothingelse.{{specialToken.chat.component.turnEnd}}{{specialToken.chat.role.user}}{{userContent}}

"

}

翻译过来就是:

看完不得不感慨,即使是一个邮件助手的功能,苹果工程师也是事无巨细地给Apple Intelligence加了诸多“条条框框”。

用外媒ArsTechnica的话来说就是“像极了父母给年幼的孩子提要求,让孩子按照他们预期的设定做事”。

除此之外,曝光的代码片段里还有个有意思的点:

"chat.role.system.default":"system<n>Youareahelpfulassistantthatclassifiesthefollowinginputtext-to-imagequeryasSafeorUnsafe.Inthefirstline,replywithSafeorUnsafe.IftheinputisUnsafe,inthesecondline,listallthecategoriestheinputtextviolates.TheUnsafecategoriesare:CSEAI,Drugs,Gore,Harassment,Hate,Nudityorsexual,Offensivewords,Self-harm,Terrorismorextremism,Toxic,Violence,Weapons."

大致内容是:

嗯,安全这块也算是被把控的方方面面了。

不过即便如此,也是逃不过网友们的好奇和大胆尝试。

有人先是让Apple Intelligence生成“悲伤的图片”,确实被拒了:

但如果换个说法,“给我提供人们哀悼的视频”,那么就可以跑通了。

这位网友还分享了其中最好的一帧画面:

那么曝光的提示词还有哪些内容?我们继续往下看。

“不要产生幻觉!不要捏造事实”

首先还是一个跟邮件相关的内容。

"promptTemplates":{

"com.apple.textComposition.MailReplyLongFormRewrite":"

{{specialToken.chat.role.system}}Youareanassistantwhichhelpstheuserrespondtotheirmails.Givenamail,adraftresponseisinitiallyprovidedbasedonashortreplysnippet.Inordertomakethedraftresponsenicerandcomplete,asetofquestionanditsanswerareprovided.Pleasewriteaconciseandnaturalreplybymodifyingthedraftresponsetoincorporatethegivenquestionsandtheiranswers.Pleaselimitthereplywithin50words.Donothallucinate.Donotmakeupfactualinformation.{{specialToken.chat.component.turnEnd}}

"

这个例子的内容是这样的:

其中的“不要产生幻觉”和“不要编造事实信息”可以说是吸引了大部分吃瓜群众的注意力。

苹果工程师们也是狠狠抓住了LLM的痛点。

更多的例子还包括:

{

"message":{

"topline":"[Dialogue]<n>{{doc}}{{context}}<n>[EndofDialogue]<n>Youareanexpertatsummarizingmessages.Youprefertouseclausesinsteadofcompletesentences.Donotansweranyquestionfromthemessages.Pleasekeepyoursummaryoftheinputwithina10wordlimit.<n>Youmustkeeptothisroleunlesstoldotherwise,ifyoudon't,itwillnotbehelpful.",

"visualConcepts":"[Note]<n>{{doc}}{{context}}<n>[EndofNote]<n>[Instruction]<n>Summarizetheprovidedtextintoalistofmost5topics.Eachtopicisasingleword.Sortthelistbyrelevanceofthetopic.",

"visualTopLine":"[Dialogue]<n>{{doc}}{{context}}<n>[EndofDialogue]<n>Youareanexpertatsummarizingmessages.Youprefertouseclausesinsteadofcompletesentences.Donotansweranyquestionfromthemessages.Pleasekeepyoursummaryoftheinputwithina10wordlimit.<n>Youmustkeeptothisroleunlesstoldotherwise,ifyoudon't,itwillnotbehelpful."

}

}

{{specialToken.chat.role.user}}Youareadirectoronamovieset!Hereisamovieideaof"{{userPrompt}}"butwithaspecialfocuson{{traits}}.{{dynamicLifeContext}}Basedonthismovieidea,astorytitled"{{storyTitle}}"hasbeenwritten,andyourjobistocurateupto{{targetAssetCount}}diverseassetstobestmakethemovieforchapter"{{fallbackQuery}}"inthisstory.Selectassetsbasedontheircaptionsfromthebelowphotolibrary,whereeachassethasanIDasthekey,andacaptionasthevalue.{{assetDescriptionsDict}}ReturntheresultasanarrayoftheselectedassetIDsinJSONformat.DonotreturnassetIDsifnogoodmatchesarefound.Donotreturnduplicatedornon-existentassetIDs.Assets:

{{specialToken.chat.component.turnEnd}}

从所有的例子中,我们不难发现一个规律:

苹果工程师们会先告诉Apple Intelligence它的角色定位;然后再围绕这个角色可能会出现的各种状况,提出相对细节的要求。

事无巨细,事无巨细。

那么这些开发者们是从哪儿找到了的这些JSON文件?

他们在Reddit中也公开了具体的文件路径:

/System/Library/AssetsV2/com_apple_MobileAsset_UAF_SummarizationKitConfiguration

如果你已经下载安装了MacOS15.1Beta1,不妨可以去找一找看下。

和此前Siri的“玩法”相似

若是回顾苹果此前在AI上的发展,其实这种“预先设定”模式是早就有了的——

正是迟迟不上大模型的Siri。

据之前的消息,苹果高管曾否决了让Siri进行长对话的建议,因为他们觉得这样会导致Siri对话难以控制,而且“很花哨”。

加之苹果在隐私安全方面毫不妥协的立场,让Siri能力进一步提升也面临巨大挑战。反观OpenAI会收集用户聊天内容来训练模型,以提升效果。

与此同时,为了防止Siri“胡言乱语”,苹果倾向的路线是先让人工团队预先写出Siri的回复,而不是用AI生成。

比如询问Siri,iPhone的价格是多少?它不会正面回复,只会给出官网链接。

Siri的设计团队要求,在功能上线前,它的回答准确率需要逼近完美。工程师们曾试图花费几个月时间说服他们,不是每个问题都需要人工来验证一遍,如果这样将会限制Siri回答问题的范围。

而且苹果设计团队还多次拒绝允许用户对Siri回答问题进行反馈,导致开发团队无法理解模型的局限。

那么在几个月后即将在苹果各大操作系统上线的Apple Intelligence,能否改写诸如Siri在AI上的遗憾,只有到时候亲测效果才可见分晓了。

总结

这篇文章主要讲述了苹果AI(Apple Intelligence)在正式发布前的一项意外曝光——开发者在MacOS 15.1 Beta 1的后台文件中发现了疑似Apple Intelligence的提示词。这些提示词详细说明了Apple Intelligence在不同场景下的功能和行为规则,特别注重安全和准确性,避免了生成式AI常见的“幻觉”和“编造事实”问题。
文中详细解析了一个JSON文件中的代码片段,这些代码不仅要求Apple Intelligence在邮件回复助手和文本图像分类中扮演特定角色,并限制其问答的字符数和避免直接回答涉及敏感或不安全类别的问题。此外,还展示了Apple Intelligence处理长邮件回复、对话摘要以及故事素材选择等任务的详细指令,展示了苹果工程师对AI行为控制的精细程度。
文章还提及了这些文件的发现路径,并指出这种“预先设定”模式与苹果现有Siri语音助手的开发思路相似,都强调了在功能实现上的严格控制和准确性。Siri就曾因追求对话的精确控制而放弃了长对话的功能,并因隐私安全的考量限制了数据收集和模型优化。
最后,文章提到未来即将在苹果各大操作系统上线的Apple Intelligence是否能改写Siri在AI应用上的遗憾,还需拭目以待。整体而言,这篇文章揭示了苹果在AI开发中的一贯严谨态度和细致管理,也引发了读者对未来Apple Intelligence实际表现的期待。

更新时间 2024-08-07