Task2:精读代码,实战进阶
聊聊相关:虽然现在很多的AI绘图都能被大家说“一眼鉴AI”,但随着技术日新月异的变化,我们也需要掌握辨识和判别他的能力。
Deepfake是一种使用人工智能技术生成的伪造媒体,特别是视频和音频,它们看起来或听起来非常真实,但实际上是由计算机生成的。这种技术通常涉及到深度学习算法,特别是生成对抗网络(GANs),它们能够学习真实数据的特征,并生成新的、逼真的数据。
通过以下几点或许可以帮助我们更好地判断。
观察图片的细节。仔细检查人物的面部特征,尤其是眼睛和嘴巴
检查光线和阴影。分析图片中的光源是否一致,阴影的方向是否与光源相符,是否存在不自然的光线或阴影
分析像素。放大图片,寻找是否有模糊或像素化的部分。
注意背景。检查背景中是否有不协调的元素,比如物体边缘是否平滑,背景中是否有不自然的重复模式。
而这些细节上的AI特性,也许就是我们在某些特定场景下需要解决的挑战。
Part1:磨刀准备一一认识通义千问
https://tongyi.aliyun.com/qianwen/
这个就不必多说了吧,真的很实用啊(泪目),就是提问的时候需要注意一下字数限制,然后还有提问的方式,争取让AI清晰明白你的需求即可。
Part2:精读baseline——从零入门AI生图
首先我们来直观感知下这个文生图代码的框架结构:
接着我们利用关键问题的引用,键入相关需求
你是一个优秀的python开发工程师,现在我们需要你帮我们分析这个代码的主体框架,
你需要把代码按照工作流分成几部分,用中文回答我的问题。{此处替换前面的代码}
baseline中代码如下:
!pip install simple-aesthetics-predictor
!pip install -v -e data-juicer
!pip uninstall pytorch-lightning -y
!pip install peft lightning pandas torchvision
!pip install -e DiffSynth-Studio
from modelscope.msdatasets import MsDataset
ds = MsDataset.load(
'AI-ModelScope/lowres_anime',
subset_name='default',
split='train',
cache_dir="/mnt/workspace/kolors/data"
)
import json, os
from data_juicer.utils.mm_utils import SpecialTokens
from tqdm import tqdm
os.makedirs("./data/lora_dataset/train", exist_ok=True)
os.makedirs("./data/data-juicer/input", exist_ok=True)
with open("./data/data-juicer/input/metadata.jsonl", "w") as f:
for data_id, data in enumerate(tqdm(ds)):
image = data["image"].convert("RGB")
image.save(f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg")
metadata = {"text": "二次元", "image": [f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg"]}
f.write(json.dumps(metadata))
f.write("\n")
data_juicer_config = """
# global parameters
project_name: 'data-process'
dataset_path: './data/data-juicer/input/metadata.jsonl' # path to your dataset directory or file
np: 4 # number of subprocess to process your dataset
text_keys: 'text'
image_key: 'image'
image_special_token: '<__dj__image>'
export_path: './data/data-juicer/output/result.jsonl'
# process schedule
# a list of several process operators with their arguments
process:
- image_shape_filter:
min_width: 1024
min_height: 1024
any_or_all: any
- image_aspect_ratio_filter:
min_ratio: 0.5
max_ratio: 2.0
any_or_all: any
"""
with open("data/data-juicer/data_juicer_config.yaml", "w") as file:
file.write(data_juicer_config.strip())
!dj-process --config data/data-juicer/data_juicer_config.yaml
import pandas as pd
import os, json
from PIL import Image
from tqdm import tqdm
texts, file_names = [], []
os.makedirs("./data/data-juicer/output/images", exist_ok=True)
with open("./data/data-juicer/output/result.jsonl", "r") as f:
for line in tqdm(f):
metadata = json.loads(line)
texts.append(metadata["text"])
file_names.append(metadata["image"][0])
df = pd.DataFrame({"text": texts, "file_name": file_names})
df.to_csv("./data/data-juicer/output/result.csv", index=False)
df
from transformers import CLIPProcessor, CLIPModel
import torch
model = CLIPModel.from_pretrained("openai/clip-vit-base-patch32")
processor = CLIPProcessor.from_pretrained("openai/clip-vit-base-patch32")
images = [Image.open(img_path) for img_path in df["file_name"]]
inputs = processor(text=df["text"].tolist(), images=images, return_tensors="pt", padding=True)
outputs = model(**inputs)
logits_per_image = outputs.logits_per_image # this is the image-text similarity score
probs = logits_per_image.softmax(dim=1) # we can take the softmax to get the probabilities
probs
from torch.utils.data import Dataset, DataLoader
class CustomDataset(Dataset):
def __init__(self, df, processor):
self.texts = df["text"].tolist()
self.images = [Image.open(img_path) for img_path in df["file_name"]]
self.processor = processor
def __len__(self):
return len(self.texts)
def __getitem__(self, idx):
inputs = self.processor(text=self.texts[idx], images=self.images[idx], return_tensors="pt", padding=True)
return inputs
dataset = CustomDataset(df, processor)
dataloader = DataLoader(dataset, batch_size=8)
for batch in dataloader:
outputs = model(**batch)
logits_per_image = outputs.logits_per_image
probs = logits_per_image.softmax(dim=1)
print(probs)
import torch
from diffusers import StableDiffusionPipeline
torch.manual_seed(1)
pipe = StableDiffusionPipeline.from_pretrained("CompVis/stable-diffusion-v-1-4", torch_dtype=torch.float16)
pipe = pipe.to("cuda")
prompt = "二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒"
negative_prompt = "丑陋、变形、嘈杂、模糊、低对比度"
guidance_scale = 4
num_inference_steps = 50
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
guidance_scale=guidance_scale,
num_inference_steps=num_inference_steps,
height=1024,
width=1024,
).images[0]
image.save("example_image.png")
image
from PIL import Image
torch.manual_seed(1)
image = pipe(
prompt="二次元,日系动漫,演唱会的观众席,人山人海,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,舞台上衣着华丽的歌星们在唱歌",
negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
cfg_scale=4,
num_inference_steps=50, height=1024, width=1024,
)
image.save("1.jpg")
torch.manual_seed(1)
image = pipe(
prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",
negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",
cfg_scale=4,
num_inference_steps=50, height=1024, width=1024,
)
image.save("2.jpg")
torch.manual_seed(2)
image = pipe(
prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",
negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",
cfg_scale=4,
num_inference_steps=50, height=1024, width=1024,
)
image.save("3.jpg")
torch.manual_seed(5)
image = pipe(
prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙,对着流星许愿,闭着眼睛,十指交叉,侧面",
negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,扭曲的手指,多余的手指",
cfg_scale=4,
num_inference_steps=50, height=1024, width=1024,
)
image.save("4.jpg")
torch.manual_seed(0)
image = pipe(
prompt="二次元,一个紫色中等长度头发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌",
negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
cfg_scale=4,
num_inference_steps=50, height=1024, width=1024,
)
image.save("5.jpg")
torch.manual_seed(1)
image = pipe(
prompt="二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒",
negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
cfg_scale=4,
num_inference_steps=50, height=1024, width=1024,
)
image.save("6.jpg")
torch.manual_seed(7)
image = pipe(
prompt="二次元,紫色长发少女,穿着黑色连衣裙,试衣间,心情忐忑",
negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
cfg_scale=4,
num_inference_steps=50, height=1024, width=1024,
)
image.save("7.jpg")
torch.manual_seed(0)
image = pipe(
prompt="二次元,紫色长发少女,穿着黑色礼服,连衣裙,在台上唱歌",
negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
cfg_scale=4,
num_inference_steps=50, height=1024, width=1024,
)
image.save("8.jpg")
import numpy as np
from PIL import Image
images = [np.array(Image.open(f"{i}.jpg")) for i in range(1, 9)]
image = np.concatenate([
np.concatenate(images[0:2], axis=1),
np.concatenate(images[2:4], axis=1),
np.concatenate(images[4:6], axis=1),
np.concatenate(images[6:8], axis=1),
], axis=0)
image = Image.fromarray(image).resize((1024, 2048))
image
返回的结果
这段代码主要分为以下几个部分:
1.安装和卸载依赖包
使用 !pip
命令来安装或卸载 Python 包。包括:
simple-aesthetics-predictor
, data-juicer
, peft
, lightning
, pandas
, torchvision
, 和 DiffSynth-Studio
的安装。
卸载 pytorch-lightning
(使用 -y
自动确认卸载)。
2.加载数据集
使用 ModelScope 的 MsDataset
类加载名为 AI-ModelScope/lowres_anime
的数据集,并指定子集名称为 default
和分割为 train
,缓存目录设置为 /mnt/workspace/kolors/data
。
3.数据预处理
将数据集中的图像转换为 RGB 模式,并保存到指定目录。
创建包含图像路径和文本描述的元数据文件 metadata.jsonl
。
编写并保存 data_juicer_config.yaml
配置文件,用于后续的数据过滤和处理。
4.使用 Data-Juicer 进行数据处理
使用 dj-process
命令根据配置文件对数据进行过滤和处理,生成 result.jsonl
文件。
5.数据整理与训练
读取 result.jsonl
文件中的数据,并将其转换为 Pandas DataFrame,然后保存为 CSV 文件,并且将图片保存到./data/lora_dataset_processed/train文件夹下。
下载模型download_models(["Kolors", "SDXL-vae-fp16-fix"])
在前面模型的基础上,执行Lora微调训练
加载微调后的模型
6.图像生成
设置正向提示词,反向提示词,执行次数,图片尺寸
设置随机种子,控制图片是否可以重复生成,并将图像保存为 .jpg
文件。
7.合并图像
最后,将生成的多个图像合并成一个大图像,并调整大小。
整个流程涵盖了从数据加载、预处理、特征提取、模型预测到图像生成等多个方面。每一部分都有其特定的功能,共同构成了一个完整的二次元图像处理和生成的工作流。
执行过程如下:
返回结果图如下:
另外,还可以选择更改提问方式,例如:
你是一个优秀的python开发工程师,现在我们需要你帮我们逐行分析这个代码,
用中文回答我的问题。{此处替换前面的代码}
返回的结果
这段代码主要完成以下功能:
安装和卸载一些Python包。
从ModelScope加载一个名为lowres_anime
的数据集,并保存图像到指定目录。
创建并处理一个用于数据清洗的JSONL文件。
使用data-juicer
工具过滤和处理数据集。
将处理后的数据集转换为CSV格式。
根据数据集通过DiffSynth做Lora微调
加载Lora微调后的模型
设置提示词,用微调后的模型生成图片
你也根据自己的相关需要,对AI进行进一步的提问
Part3:实战演练
1.首先给出相关的提示词(可根据自己的需要进行相关调整)
2.自己在通义的返回的基础上,多多调整,争取打磨出一个最佳的提示词
3.最后在TASK1的基础上,修改相关提示词
双击进入baseline文件
找到生成图像的板块
依次替换8张图片的正向提示词和反向提示词
4.结果展示
场景1: 电竞选手小帽正在房间里偷偷玩游戏
风格: 可爱漫画 人物: 一个黑色头发的小帽弟弟 场景: 坐在电竞椅上,上半身,蓝白色睡衣 做啥事情: 偷偷打游戏,戴着耳机,专注地看着电脑屏幕 提示词: "可爱漫画,一个黑色头发的小帽弟弟,戴着耳机,专注地看着电脑屏幕,偷偷打游戏,上半身,蓝白色睡衣,坐在电竞椅上"场景2: 开始睡着了
风格: 可爱漫画 人物: 小帽弟弟 场景: 躺在床上,盖着蓝色的被子 做啥事情: 睡着了,手里还握着手机 提示词: "可爱漫画,小帽弟弟躺在床上,盖着蓝色的被子,手里握着手机,睡着了,全身"场景3: 进入梦乡,梦到自己来到了哥哥的演唱会
风格: 可爱漫画 人物: 小帽弟弟 场景: 在一个演唱会现场 做啥事情: 举着荧光棒,兴奋地看着舞台 提示词: "可爱漫画,小帽弟弟举着荧光棒,兴奋地看着舞台,站在演唱会现场的人群中,上半身"场景4: 哥哥正在台上唱歌,底下是一堆欢呼的观众
风格: 可爱漫画 人物: 哥哥 场景: 在演唱会上 做啥事情: 正在台上唱歌,观众欢呼 提示词: "可爱漫画,哥哥在台上唱歌,底下是一堆欢呼的观众,舞台灯光闪烁,全身"场景5: 太阳逐渐从地平线升了起来
风格: 可爱漫画 人物: 不需要人物 场景: 日出时刻的地平线 做啥事情: 太阳正从地平线上升起 提示词: "可爱漫画,太阳逐渐从地平线升了起来,天空呈现出渐变的橙色和粉色,地平线"场景6: 大家一边唱歌一边看日出
风格: 可爱漫画 人物: 小帽弟弟和朋友们 场景: 在海边看日出 做啥事情: 一边唱歌一边看日出 提示词: "可爱漫画,小帽弟弟和朋友们一边唱歌一边看日出,站在海边,天空呈现出渐变的橙色和粉色,全身"场景7: 哥哥敲了敲门,叫他起床
风格: 可爱漫画 人物: 哥哥和小帽弟弟 场景: 卧室门口 做啥事情: 哥哥敲门叫小帽起床 提示词: "可爱漫画,哥哥敲了敲门,叫小帽起床,小帽弟弟躺在床上,盖着蓝色的被子,卧室门口,上半身"场景8: 哥哥给他端来了糊面包早餐
风格: 可爱漫画 人物: 哥哥和小帽弟弟 场景: 厨房餐桌旁 做啥事情: 哥哥端着一盘糊面包给小帽吃 提示词: "可爱漫画,哥哥端着一盘糊面包给小帽吃,小帽弟弟坐在餐桌旁,穿着睡衣,上半身,厨房餐桌旁"Part4:更多的选择一一浅尝scepter webui
scepter webUI私有部署
魔搭社区提供的体验地址里面缺失了微调模型的功能,如果大家希望能使用secpter完整的功能,我们可以将其私有部署到我们自己的服务器。
魔搭体验网址:https://www.modelscope.cn/studios/iic/scepter_studio
github地址:https://github.com/modelscope/scepter
可以通过官方readme文件中的教程进行操作
总结
### 文章总结#### Task2:精读代码,实战进阶
**背景介绍**:
随着AI绘图技术的快速发展,辨识和判别AI生成图像的能力变得尤为重要。Deepfake技术利用深度学习算法,特别是生成对抗网络(GANs),生成逼真的伪造媒体。文章提供了几个关键点帮助我们判断AI生成的图像。
**判断AI图像的方法**:
1. **观察细节**:仔细检查面部特征,特别是眼睛和嘴巴。
2. **检查光线和阴影**:分析光源一致性及阴影方向。
3. **分析像素**:放大图片寻找模糊或像素化部分。
4. **注意背景**:检查背景中不协调的元素或重复模式。
#### Part1:磨刀准备——认识通义千问
- **通义千问**:一个实用的AI工具,提问时需注意字数限制和提问方式,确保AI清晰理解需求。
#### Part2:精读baseline——从零入门AI生图
- **代码框架**:
1. **安装和卸载依赖包**:使用`!pip`命令安装和卸载必要的Python包。
2. **加载数据集**:使用ModelScope的`MsDataset`加载数据集。
3. **数据预处理**:转换图像格式,创建元数据文件,并编写配置文件。
4. **使用Data-Juicer处理数据**:根据配置文件过滤和处理数据。
5. **数据整理与训练**:将处理后的数据转换为CSV格式,并准备模型训练。
6. **图像生成**:设置提示词和参数,使用StableDiffusionPipeline生成图像。
7. **合并图像**:将多个生成的图像合并成一个大图像。
- **执行过程**:涵盖了从数据加载、预处理、特征提取、模型预测到图像生成的完整工作流。
#### Part3:实战演练
- **步骤**:
1. **给出提示词**:根据需求调整正向和反向提示词。
2. **调整提示词**:在通义千问返回的基础上,优化提示词以获得最佳效果。
3. **修改baseline**:在TASK1基础上,替换生成图像板块中的提示词。
- **示例场景**:提供了8个不同场景的提示词,展示了如何生成特定风格的二次元图像。
#### Part4:更多的选择——浅尝scepter webui
- **scepter webui**:
- **私有部署**:魔搭社区提供的体验地址缺少微调模型功能,可通过私有部署到服务器获得完整功能。
- **资源**:提供了魔搭体验网址和GitHub地址,用户可根据官方教程进行操作。
### 总结
本文详细介绍了如何通过精读代码和实战演练,掌握AI图像生成和辨识的技术。从基础的数据处理到高级的图像生成,再到实战中的提示词优化,每一步都详细阐述了操作方法和注意事项。同时,还介绍了scepter webui的私有部署方法,为用户提供更多选择和可能性。