在训练阶段,两者都提出了一种新的方法来减少蒸馏误差,使得模型能更准确的跟踪扩散过程的轨迹: a) CTM提出了软一致性匹配(soft consistency matching),通过随机选择教师模型的中间时间步u来决定蒸馏的信息量。 b) TCD提出了轨迹一致性函数(TCF),通过扩展边界条件到任意时间步来减少蒸馏误差。 尽管具体做法不同,但两者的目标都是让学生模型更好的模仿教师模型在扩散轨迹上的行为;
在采样阶段,两者都引入了一定的随机性来减少多步采样中的误差累积: a) CTM提出了γ-采样,通过可调参数γ来控制每一步去噪和扩散的程度,在确定性和随机性之间进行权衡。 b) TCD提出了策略随机采样(SSS),通过参数γ来控制去噪步骤的目标时间点和扩散步骤的噪声水平。 虽然具体策略有所不同,但引入随机性的思想是一致的。
CTM团队希望引起TCD团队对以下几点的注意,涉及论文的引用问题:a) TCD论文第4节提出的“anytime-to-anytime”预测同时包含score和long jump的想法与CTM第3节是一致的。 b) TCD的公式(15)和(19)与CTM的公式3.1 & B.1 & C.1相似,因此这部分应该被引用。 c) CTM的定理1,2以及CTM第4节的内容已经指出了TCD定理4.1 & 4.2的结果,所以如果要在TCD中引用对应的部分,应参考CTM的定理1,8和命题3。 d) TCD的训练损失(TCD的公式(22))是在CTM中作为soft matching被引入的,所以应该引用它。 e) 虽然TCD的strategic stochastic sampling在第4.2节被作为新颖的内容提出,但它与CTM的第4节和算法3实际上是一样的。因此,应该引用CTM。
What can I say? 太嚣张了吧,有没有NTU的朋友麻烦举报到学术委员会...
再次update:
真的给我气乐了,这种回应就是明目张胆在侮辱学术。
拜托这位phd有没有接受过学术道德培养?真不知道phd毕业要求学术道德是第一位的?
认为不妥,所以改改就完事了?有没有一种可能,一但学术不端,你的博士学位就不应该取得...一句道歉重改就可以隐瞒学术不端的事实?本科生学术不端尚且可以严重到退学处分,请问博士生只需要道歉即可吗?这是处理事情的态度吗?
不仅仅没有丝毫悔过。并且亲自下次撕逼,这么长时间也不给出为什么这么抄袭的理由,反而在这里花时间怒喷网友...令人触目惊心、瞠目结舌。