当前位置:AIGC资讯 > AIGC > 正文

DataWhale夏令营第四期魔搭- AIGC方向 task02笔记#Datawhale AI夏令营

Task2:精读代码,实战进阶

聊聊相关:虽然现在很多的AI绘图都能被大家说“一眼鉴AI”,但随着技术日新月异的变化,我们也需要掌握辨识和判别他的能力。

Deepfake是一种使用人工智能技术生成的伪造媒体,特别是视频和音频,它们看起来或听起来非常真实,但实际上是由计算机生成的。这种技术通常涉及到深度学习算法,特别是生成对抗网络(GANs),它们能够学习真实数据的特征,并生成新的、逼真的数据。

通过以下几点或许可以帮助我们更好地判断。

观察图片的细节。仔细检查人物的面部特征,尤其是眼睛和嘴巴

检查光线和阴影。分析图片中的光源是否一致,阴影的方向是否与光源相符,是否存在不自然的光线或阴影

分析像素。放大图片,寻找是否有模糊或像素化的部分。

注意背景。检查背景中是否有不协调的元素,比如物体边缘是否平滑,背景中是否有不自然的重复模式。

而这些细节上的AI特性,也许就是我们在某些特定场景下需要解决的挑战。

Part1:磨刀准备一一认识通义千问

https://tongyi.aliyun.com/qianwen/

这个就不必多说了吧,真的很实用啊(泪目),就是提问的时候需要注意一下字数限制,然后还有提问的方式,争取让AI清晰明白你的需求即可。

Part2:精读baseline——从零入门AI生图

首先我们来直观感知下这个文生图代码的框架结构:

接着我们利用关键问题的引用,键入相关需求

你是一个优秀的python开发工程师,现在我们需要你帮我们分析这个代码的主体框架,
你需要把代码按照工作流分成几部分,用中文回答我的问题。{此处替换前面的代码}

baseline中代码如下:

!pip install simple-aesthetics-predictor

!pip install -v -e data-juicer

!pip uninstall pytorch-lightning -y
!pip install peft lightning pandas torchvision

!pip install -e DiffSynth-Studio

from modelscope.msdatasets import MsDataset

ds = MsDataset.load(
    'AI-ModelScope/lowres_anime',
    subset_name='default',
    split='train',
    cache_dir="/mnt/workspace/kolors/data"
)

import json, os
from data_juicer.utils.mm_utils import SpecialTokens
from tqdm import tqdm


os.makedirs("./data/lora_dataset/train", exist_ok=True)
os.makedirs("./data/data-juicer/input", exist_ok=True)
with open("./data/data-juicer/input/metadata.jsonl", "w") as f:
    for data_id, data in enumerate(tqdm(ds)):
        image = data["image"].convert("RGB")
        image.save(f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg")
        metadata = {"text": "二次元", "image": [f"/mnt/workspace/kolors/data/lora_dataset/train/{data_id}.jpg"]}
        f.write(json.dumps(metadata))
        f.write("\n")

data_juicer_config = """
# global parameters
project_name: 'data-process'
dataset_path: './data/data-juicer/input/metadata.jsonl'  # path to your dataset directory or file
np: 4  # number of subprocess to process your dataset

text_keys: 'text'
image_key: 'image'
image_special_token: '<__dj__image>'

export_path: './data/data-juicer/output/result.jsonl'

# process schedule
# a list of several process operators with their arguments
process:
    - image_shape_filter:
        min_width: 1024
        min_height: 1024
        any_or_all: any
    - image_aspect_ratio_filter:
        min_ratio: 0.5
        max_ratio: 2.0
        any_or_all: any
"""
with open("data/data-juicer/data_juicer_config.yaml", "w") as file:
    file.write(data_juicer_config.strip())

!dj-process --config data/data-juicer/data_juicer_config.yaml

import pandas as pd
import os, json
from PIL import Image
from tqdm import tqdm


texts, file_names = [], []
os.makedirs("./data/data-juicer/output/images", exist_ok=True)
with open("./data/data-juicer/output/result.jsonl", "r") as f:
    for line in tqdm(f):
        metadata = json.loads(line)
        texts.append(metadata["text"])
        file_names.append(metadata["image"][0])

df = pd.DataFrame({"text": texts, "file_name": file_names})
df.to_csv("./data/data-juicer/output/result.csv", index=False)

df

from transformers import CLIPProcessor, CLIPModel
import torch

model = CLIPModel.from_pretrained("openai/clip-vit-base-patch32")
processor = CLIPProcessor.from_pretrained("openai/clip-vit-base-patch32")

images = [Image.open(img_path) for img_path in df["file_name"]]
inputs = processor(text=df["text"].tolist(), images=images, return_tensors="pt", padding=True)

outputs = model(**inputs)
logits_per_image = outputs.logits_per_image  # this is the image-text similarity score
probs = logits_per_image.softmax(dim=1)  # we can take the softmax to get the probabilities

probs

from torch.utils.data import Dataset, DataLoader

class CustomDataset(Dataset):
    def __init__(self, df, processor):
        self.texts = df["text"].tolist()
        self.images = [Image.open(img_path) for img_path in df["file_name"]]
        self.processor = processor

    def __len__(self):
        return len(self.texts)

    def __getitem__(self, idx):
        inputs = self.processor(text=self.texts[idx], images=self.images[idx], return_tensors="pt", padding=True)
        return inputs

dataset = CustomDataset(df, processor)
dataloader = DataLoader(dataset, batch_size=8)

for batch in dataloader:
    outputs = model(**batch)
    logits_per_image = outputs.logits_per_image
    probs = logits_per_image.softmax(dim=1)
    print(probs)

import torch
from diffusers import StableDiffusionPipeline

torch.manual_seed(1)
pipe = StableDiffusionPipeline.from_pretrained("CompVis/stable-diffusion-v-1-4", torch_dtype=torch.float16)
pipe = pipe.to("cuda")

prompt = "二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒"
negative_prompt = "丑陋、变形、嘈杂、模糊、低对比度"
guidance_scale = 4
num_inference_steps = 50

image = pipe(
    prompt=prompt,
    negative_prompt=negative_prompt,
    guidance_scale=guidance_scale,
    num_inference_steps=num_inference_steps,
    height=1024,
    width=1024,
).images[0]

image.save("example_image.png")
image

from PIL import Image

torch.manual_seed(1)
image = pipe(
    prompt="二次元,日系动漫,演唱会的观众席,人山人海,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,舞台上衣着华丽的歌星们在唱歌",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("1.jpg")

torch.manual_seed(1)
image = pipe(
    prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("2.jpg")

torch.manual_seed(2)
image = pipe(
    prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙坐在演唱会的观众席,露出憧憬的神情",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,色情擦边",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("3.jpg")

torch.manual_seed(5)
image = pipe(
    prompt="二次元,一个紫色短发小女孩穿着粉色吊带漏肩连衣裙,对着流星许愿,闭着眼睛,十指交叉,侧面",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度,扭曲的手指,多余的手指",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("4.jpg")

torch.manual_seed(0)
image = pipe(
    prompt="二次元,一个紫色中等长度头发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("5.jpg")

torch.manual_seed(1)
image = pipe(
    prompt="二次元,一个紫色长发小女孩穿着粉色吊带漏肩连衣裙,在练习室练习唱歌,手持话筒",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("6.jpg")

torch.manual_seed(7)
image = pipe(
    prompt="二次元,紫色长发少女,穿着黑色连衣裙,试衣间,心情忐忑",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("7.jpg")

torch.manual_seed(0)
image = pipe(
    prompt="二次元,紫色长发少女,穿着黑色礼服,连衣裙,在台上唱歌",
    negative_prompt="丑陋、变形、嘈杂、模糊、低对比度",
    cfg_scale=4,
    num_inference_steps=50, height=1024, width=1024,
)
image.save("8.jpg")

import numpy as np
from PIL import Image


images = [np.array(Image.open(f"{i}.jpg")) for i in range(1, 9)]
image = np.concatenate([
    np.concatenate(images[0:2], axis=1),
    np.concatenate(images[2:4], axis=1),
    np.concatenate(images[4:6], axis=1),
    np.concatenate(images[6:8], axis=1),
], axis=0)
image = Image.fromarray(image).resize((1024, 2048))
image

返回的结果

这段代码主要分为以下几个部分:

1.安装和卸载依赖包

使用 !pip 命令来安装或卸载 Python 包。包括:

simple-aesthetics-predictor, data-juicer, peft, lightning, pandas, torchvision, 和 DiffSynth-Studio 的安装。

卸载 pytorch-lightning(使用 -y 自动确认卸载)。

2.加载数据集

使用 ModelScope 的 MsDataset 类加载名为 AI-ModelScope/lowres_anime 的数据集,并指定子集名称为 default 和分割为 train,缓存目录设置为 /mnt/workspace/kolors/data

3.数据预处理

将数据集中的图像转换为 RGB 模式,并保存到指定目录。

创建包含图像路径和文本描述的元数据文件 metadata.jsonl

编写并保存 data_juicer_config.yaml 配置文件,用于后续的数据过滤和处理。

4.使用 Data-Juicer 进行数据处理

使用 dj-process 命令根据配置文件对数据进行过滤和处理,生成 result.jsonl 文件。

5.数据整理与训练

读取 result.jsonl 文件中的数据,并将其转换为 Pandas DataFrame,然后保存为 CSV 文件,并且将图片保存到./data/lora_dataset_processed/train文件夹下。

下载模型download_models(["Kolors", "SDXL-vae-fp16-fix"])

在前面模型的基础上,执行Lora微调训练

加载微调后的模型

6.图像生成

设置正向提示词,反向提示词,执行次数,图片尺寸

设置随机种子,控制图片是否可以重复生成,并将图像保存为 .jpg 文件。

7.合并图像

最后,将生成的多个图像合并成一个大图像,并调整大小。

整个流程涵盖了从数据加载、预处理、特征提取、模型预测到图像生成等多个方面。每一部分都有其特定的功能,共同构成了一个完整的二次元图像处理和生成的工作流。

执行过程如下:

返回结果图如下:

另外,还可以选择更改提问方式,例如:

你是一个优秀的python开发工程师,现在我们需要你帮我们逐行分析这个代码,
用中文回答我的问题。{此处替换前面的代码}

返回的结果

这段代码主要完成以下功能:

安装和卸载一些Python包。

从ModelScope加载一个名为lowres_anime的数据集,并保存图像到指定目录。

创建并处理一个用于数据清洗的JSONL文件。

使用data-juicer工具过滤和处理数据集。

将处理后的数据集转换为CSV格式。

根据数据集通过DiffSynth做Lora微调

加载Lora微调后的模型

设置提示词,用微调后的模型生成图片

你也根据自己的相关需要,对AI进行进一步的提问

Part3:实战演练

1.首先给出相关的提示词(可根据自己的需要进行相关调整)
2.自己在通义的返回的基础上,多多调整,争取打磨出一个最佳的提示词
3.最后在TASK1的基础上,修改相关提示词

双击进入baseline文件

找到生成图像的板块

依次替换8张图片的正向提示词和反向提示词

4.结果展示

场景1: 电竞选手小帽正在房间里偷偷玩游戏

风格: 可爱漫画 人物: 一个黑色头发的小帽弟弟 场景: 坐在电竞椅上,上半身,蓝白色睡衣 做啥事情: 偷偷打游戏,戴着耳机,专注地看着电脑屏幕 提示词: "可爱漫画,一个黑色头发的小帽弟弟,戴着耳机,专注地看着电脑屏幕,偷偷打游戏,上半身,蓝白色睡衣,坐在电竞椅上"

场景2: 开始睡着了

风格: 可爱漫画 人物: 小帽弟弟 场景: 躺在床上,盖着蓝色的被子 做啥事情: 睡着了,手里还握着手机 提示词: "可爱漫画,小帽弟弟躺在床上,盖着蓝色的被子,手里握着手机,睡着了,全身"

场景3: 进入梦乡,梦到自己来到了哥哥的演唱会

风格: 可爱漫画 人物: 小帽弟弟 场景: 在一个演唱会现场 做啥事情: 举着荧光棒,兴奋地看着舞台 提示词: "可爱漫画,小帽弟弟举着荧光棒,兴奋地看着舞台,站在演唱会现场的人群中,上半身"

场景4: 哥哥正在台上唱歌,底下是一堆欢呼的观众

风格: 可爱漫画 人物: 哥哥 场景: 在演唱会上 做啥事情: 正在台上唱歌,观众欢呼 提示词: "可爱漫画,哥哥在台上唱歌,底下是一堆欢呼的观众,舞台灯光闪烁,全身"

场景5: 太阳逐渐从地平线升了起来

风格: 可爱漫画 人物: 不需要人物 场景: 日出时刻的地平线 做啥事情: 太阳正从地平线上升起 提示词: "可爱漫画,太阳逐渐从地平线升了起来,天空呈现出渐变的橙色和粉色,地平线"

场景6: 大家一边唱歌一边看日出

风格: 可爱漫画 人物: 小帽弟弟和朋友们 场景: 在海边看日出 做啥事情: 一边唱歌一边看日出 提示词: "可爱漫画,小帽弟弟和朋友们一边唱歌一边看日出,站在海边,天空呈现出渐变的橙色和粉色,全身"

场景7: 哥哥敲了敲门,叫他起床

风格: 可爱漫画 人物: 哥哥和小帽弟弟 场景: 卧室门口 做啥事情: 哥哥敲门叫小帽起床 提示词: "可爱漫画,哥哥敲了敲门,叫小帽起床,小帽弟弟躺在床上,盖着蓝色的被子,卧室门口,上半身"

场景8: 哥哥给他端来了糊面包早餐

风格: 可爱漫画 人物: 哥哥和小帽弟弟 场景: 厨房餐桌旁 做啥事情: 哥哥端着一盘糊面包给小帽吃 提示词: "可爱漫画,哥哥端着一盘糊面包给小帽吃,小帽弟弟坐在餐桌旁,穿着睡衣,上半身,厨房餐桌旁"

Part4:更多的选择一一浅尝scepter webui

scepter webUI私有部署
魔搭社区提供的体验地址里面缺失了微调模型的功能,如果大家希望能使用secpter完整的功能,我们可以将其私有部署到我们自己的服务器。
魔搭体验网址:https://www.modelscope.cn/studios/iic/scepter_studio
github地址:https://github.com/modelscope/scepter
可以通过官方readme文件中的教程进行操作

总结

### 文章总结
#### Task2:精读代码,实战进阶
**背景介绍**:
随着AI绘图技术的快速发展,辨识和判别AI生成图像的能力变得尤为重要。Deepfake技术利用深度学习算法,特别是生成对抗网络(GANs),生成逼真的伪造媒体。文章提供了几个关键点帮助我们判断AI生成的图像。
**判断AI图像的方法**:
1. **观察细节**:仔细检查面部特征,特别是眼睛和嘴巴。
2. **检查光线和阴影**:分析光源一致性及阴影方向。
3. **分析像素**:放大图片寻找模糊或像素化部分。
4. **注意背景**:检查背景中不协调的元素或重复模式。
#### Part1:磨刀准备——认识通义千问
- **通义千问**:一个实用的AI工具,提问时需注意字数限制和提问方式,确保AI清晰理解需求。
#### Part2:精读baseline——从零入门AI生图
- **代码框架**:
1. **安装和卸载依赖包**:使用`!pip`命令安装和卸载必要的Python包。
2. **加载数据集**:使用ModelScope的`MsDataset`加载数据集。
3. **数据预处理**:转换图像格式,创建元数据文件,并编写配置文件。
4. **使用Data-Juicer处理数据**:根据配置文件过滤和处理数据。
5. **数据整理与训练**:将处理后的数据转换为CSV格式,并准备模型训练。
6. **图像生成**:设置提示词和参数,使用StableDiffusionPipeline生成图像。
7. **合并图像**:将多个生成的图像合并成一个大图像。
- **执行过程**:涵盖了从数据加载、预处理、特征提取、模型预测到图像生成的完整工作流。
#### Part3:实战演练
- **步骤**:
1. **给出提示词**:根据需求调整正向和反向提示词。
2. **调整提示词**:在通义千问返回的基础上,优化提示词以获得最佳效果。
3. **修改baseline**:在TASK1基础上,替换生成图像板块中的提示词。

- **示例场景**:提供了8个不同场景的提示词,展示了如何生成特定风格的二次元图像。
#### Part4:更多的选择——浅尝scepter webui
- **scepter webui**:
- **私有部署**:魔搭社区提供的体验地址缺少微调模型功能,可通过私有部署到服务器获得完整功能。
- **资源**:提供了魔搭体验网址和GitHub地址,用户可根据官方教程进行操作。
### 总结
本文详细介绍了如何通过精读代码和实战演练,掌握AI图像生成和辨识的技术。从基础的数据处理到高级的图像生成,再到实战中的提示词优化,每一步都详细阐述了操作方法和注意事项。同时,还介绍了scepter webui的私有部署方法,为用户提供更多选择和可能性。

更新时间 2024-09-04