1、diffusion步数压缩:探索diffusion模型的one-step / few-steps的无损蒸馏算法,跟进学术界最前沿的few-steps diffusion算法,包括但不限于consistency modeling、shortcut、score distillation等方案,打造实时化的极致高效可灵/可图大模型;
2、高效attention设计:探索新一代注意力实现机制,包括但不限于sparse/quant-attention、linear-attention、mamba等,打破attention计算平方复杂度限制,解决长序列视频/图像引起的推理挑战,推进可灵/可图大模型的长序列场景下的推理极限;
3、强化反馈优化:应用DPO/GRPO/PPO等强化学习的手段调优模型效果,在模型压缩的前置条件下探索强化学习与压缩算法的化学反应,推动可灵/可图大模型的效果-效率帕雷托前沿新SOTA。