当前位置:AIGC资讯 > 模型解释 第2页
-
马里兰&NYU合力解剖神经网络 模型反转用于解释AI生成图像
马里兰&NYU合力解剖神经网络,推出一种新的类反转方法,称为"Plug-In Inversion (PII)",用于生成神经网络模型的可解释图像。 在神经网络训练中,一些神经元可能永远输出0,被称为"死节点",而这些节点可以通过优化算法生成诡异和恐...
-
AI生图太诡异?马里兰&NYU合力解剖神经网络,CLIP模型神经元形似骷髅头
AI黑盒如何才能解? 神经网络模型在训练的时,会有些ReLU节点「死亡」,也就是永远输出0,不再有用。 它们往往会被被删除或者忽略。 恰好赶上了模糊了生与死的界限的节日——万圣节,所以这是探索那些「死节点」的好时机。 对于大多数图像生成模型来说,会输出正...
-
吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室
现在,大模型也学会“吃一堑,长一智”了。 来自香港科技大学和华为诺亚方舟实验室的最新研究发现: 相比于一味规避“有毒”数据,以毒攻毒,干脆给大模型喂点错误文本,再让模型剖析、反思出错的原因,反而能够让模型真正理解“错在哪儿了”,进而避免胡说八道。 具体...
-
「解释一切」图像概念解释器来了,港科大团队出品
你是否好奇当一个黑盒深度神经网络 (DNN 预测下图的时候,图中哪个部分对于输出预测为「击球手」的帮助最大? 香港科技大学团队最新的 NeurIPS2023 研究成果给出了他们的答案。 论文:https://arxiv.org/abs/2305....