AI 技術社群精選內容,按時間排序瀏覽所有策展貼文。共 1 篇
為什麼 dLLM 在 RL 中容易崩潰 在先前關於 dLLM 的討論中,重點通常在於它們與自回歸(autoregressive)模型的區別:前者從左到右生成 token,而後者透過去噪(denoising)逐漸逼近完整的序列。前者的機...