-
Stable Diffusion 系列教程 | 打破模型壁垒
目录 1.模型基本分类 1.1 CheckPoint 大模型/底模型/主模型 1.2 VAE美化模型/变分自编码器 1.3 HyperNetwork 超网络 1.4 embeddings(/Textual Inversion) 嵌入式向量 1....
-
几种技巧让大模型(ChatGPT、文心一言)帮你提高写代码效率!
代码神器 自从大模型推出来之后,似乎没有什么工作是大模型不能做的。特别是在文本生成、文案写作、代码提示、代码生成、代码改错等方面都表现出不错的能力。下面我将介绍运用大模型写代码的几种方式,帮助程序员写出更好的代码!(大模型包括但不限于ChatGPT、文心...
-
通过100个关键词学习法来学习人工智能(AI)
100个关键词学习法是一种高效的学习方法,它的核心思想是围绕关键词(也就是重点)来进行学习。这套方法论最初由冯唐在世界顶级咨询公司中总结出来。具体来说,不论你想学习哪个行业的知识,首先需要掌握这个行业最重要的一百个关键词。这些关键词可以帮助你快速理解并掌...
-
马里兰&NYU合力解剖神经网络 模型反转用于解释AI生成图像
马里兰&NYU合力解剖神经网络,推出一种新的类反转方法,称为"Plug-In Inversion (PII)",用于生成神经网络模型的可解释图像。 在神经网络训练中,一些神经元可能永远输出0,被称为"死节点",而这些节点可以通过优化算法生成诡异和恐...
-
AI生图太诡异?马里兰&NYU合力解剖神经网络,CLIP模型神经元形似骷髅头
AI黑盒如何才能解? 神经网络模型在训练的时,会有些ReLU节点「死亡」,也就是永远输出0,不再有用。 它们往往会被被删除或者忽略。 恰好赶上了模糊了生与死的界限的节日——万圣节,所以这是探索那些「死节点」的好时机。 对于大多数图像生成模型来说,会输出正...
-
吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室
现在,大模型也学会“吃一堑,长一智”了。 来自香港科技大学和华为诺亚方舟实验室的最新研究发现: 相比于一味规避“有毒”数据,以毒攻毒,干脆给大模型喂点错误文本,再让模型剖析、反思出错的原因,反而能够让模型真正理解“错在哪儿了”,进而避免胡说八道。 具体...
-
「解释一切」图像概念解释器来了,港科大团队出品
你是否好奇当一个黑盒深度神经网络 (DNN 预测下图的时候,图中哪个部分对于输出预测为「击球手」的帮助最大? 香港科技大学团队最新的 NeurIPS2023 研究成果给出了他们的答案。 论文:https://arxiv.org/abs/2305....