随着AIGC应用的逐步深入,大家也开始逐渐将文生图大模型集成到自家的产品中,以求让自己的产品在竞争中更加突出。其中效果最好的图文模型依然是Midjourney, Stable Diffusion XL和Dall.E-3这三个老牌的模型。
不过这三个模型在对于中文的解析还是差强人意,调用上也各有特点和限制。其中Dall.E只能说对于中文的理解略好,但是实际按照用户中文要求直接生成的效果依然不太理想。
我们先来看一下这三个模型对于中文的直接解析效果。
提示词(用户要求):“生成科技产品上新用户很高兴的配图, 绿色系,科技感”。
Midjourney对于用户中文要求的直接效果,不说是“南辕北辙”,也可以说是“毫不相干”。
Midjourney直接按照用户中文要求生成而Stable Diffusion XL则会直接报错“Invalid prompts detected”。
Dall.E 3的效果只能说是“好像理解,但是又好像没有完全理解”。
Dall.E 3 直接按照用户中文要求生成图片如果将这个生成的效果直接提交给产品或者甲方爸爸,那么等待我们的估计将会长达数十分钟的吐槽。
网上有各种长达数页的教程交给用户如何适应图文模型,写出能达到满意效果的提示词。这个要求律己尚可,如果以此要求用户和甲方爸爸确实有点不太现实。相信他们会默默的关闭应用,并给出只有1星的评价和吐槽。
那么我们应该如何将图文模型,方便快捷的集成到自家的产品中,又能做到满足客户的要求呢?
日月摘星针对大家的这种场景,特别做了提示词优化,更可以让用户以API的方式来调用三大图文模型,让您可以10分钟轻松完美的完成图文模型的集成,更能让图文模型听懂用户中文描述的”人话“。
您所要做的只需要在调用日月摘星的图像生成接口时传入优化提示词的参数即可(默认也会为您开启优化)。
具体的例子如下:
https://api.riyuexinzhu.com/images/models/midjourney/generate
传入参数时指定options.to_tune_prompt参数为1即可(不传入也是默认开启哦)。
{
"text": "生成科技产品上新用户很高兴的配图, 绿色系,科技感",
"options": {
"return_mode": "url",
"to_tune_prompt": 1
}
}
在返回的参数中,您可以在tuned_text看到日月摘星为您优化之后的提示词。我们也可以看到日月摘星并不是简单的翻译成英文,也会针对图文模型的生成作出提示词的优化调整,包括风格和图片的要求。
{
"resp_code": 200,
"resp_message": "SUCCESS",
"data": {
"images": [
"https://ai-agency-pro.oss-cn-beijing.aliyuncs.com/users/xxxx/images/midjourney/1701085711e320b9828d1a11ee9e5f02420a0005cb.png?xxxxxx&Signature=lAFQnDSytEmnPU2p6SaM0upnKRU%3D"
],
"midjourney_task_id": "1701085666853491"
},
"pricing": {
"account_balance": "24.5194",
"price": "0.2862"
},
"tuned_text": "A futuristic, sleek, and minimalist greentoned illustration of a delighted new user interacting with a cuttingedge tech product. Hightech, vibrant color scheme, modern, clean lines, sharp focus."
}
我们来看一下日月摘星优化过之后的三大模型生成图片的效果。
日月摘星优化提示词之后,Midjourney生成图片效果 日月摘星优化提示词之后,Stable XL生成图片效果 日月摘星优化提示词之后,Dall.E 3生成图片效果对比直接将用户的中文要求传给图文模型,图片生成的效果还是可以得到明显提升。
更多接口调用的具体内容您可以参照日月摘星接口描述。
现在注册日月摘星,10分钟帮助您的产品接入AI大模型,马上进入AI新时代。
上车入口: 日月摘星官网。现在注册认证更送6.66元体验金。
此时不入,更待何时!
日月摘星,为您摘得AI时代最闪亮的星!