Avatar

廖奕凯的技术博客

探索编程、人工智能与生活

  1. 主页
  2. AI 搜索
  3. 搜索
  4. 归档
  5. 关于
  6. 友链
    1. Dark Mode

Archives

2025 8
2022 1

Categories

每日论文

Tags

AI LLM 推理 DINOv2 FLUX.1 LlamaGen LoRA MoE OOD泛化 个性化
每日论文

每日论文:语言生成的密度度量

本文提出了一种量化语言生成中广度与有效性权衡的密度度量方法,基于极限语言生成框架,通过动态调整、回退机制、令牌系统和树结构优化生成算法,确保高密度输出。

AI LLM 语言生成 密度度量 理论模型
4月 22, 2025
3 minute read
English
每日论文

每日论文:思维操纵

本文提出 ThoughtMani,一种无需训练的方法,通过利用小模型生成的链式思维(CoT)减少大型推理模型的冗余推理,提升效率和安全性。

AI LLM 推理 思维链 效率
4月 21, 2025
2 minute read
English
每日论文

每日论文:反蒸馏采样

本文提出反蒸馏采样方法,通过在生成时毒化大语言模型的推理轨迹来干扰模型蒸馏,同时保持原始模型性能。

AI LLM 模型蒸馏 采样 安全
4月 19, 2025
2 minute read
English
每日论文

每日论文:Meta-LoRA - 用于领域感知身份个性化的元学习LoRA组件

提出Meta-LoRA,一个基于元学习的LoRA框架,通过学习共享的LoRA底层组件来编码领域先验,实现扩散模型(如FLUX.1)高效且高保真度的少样本身份个性化。发布了新的评测基准Meta-PHD和指标R-FaceSim。

AI LoRA 元学习 个性化 扩散模型 少样本学习 FLUX.1
4月 19, 2025
3 minute read
English
每日论文

每日论文:Predictable Scale: Part I — 大模型预训练超参数缩放定律

提出经验性超参数缩放定律 (Step Law),可根据模型和数据规模精确估算最优Batch Size和Learning Rate,并在不同模型结构、稀疏度、数据分布下表现稳健。

AI LLM 缩放定律 超参数 预训练 MoE
4月 18, 2025
3 minute read
English
每日论文

每日论文:EditAR - 基于自回归模型的统一条件图像生成

提出EditAR,一个基于LlamaGen的统一自回归框架,通过处理token化的图像和文本输入,结合DINOv2特征蒸馏,能够处理图像编辑、depth-to-image、edge-to-image、segmentation-to-image等多种条件生成任务。

AI 自回归模型 条件生成 图像编辑 图像翻译 计算机视觉 特征蒸馏 LlamaGen DINOv2
4月 18, 2025
3 minute read
English
每日论文

每日论文:对象中心学习 (OCL) 的下一步是什么?

论文认为,得益于强大的分割模型 (如HQES, SAM),无监督的物体发现任务已基本解决。提出OCCAM探测框架,论证OCL的重心应转向利用对象中心表示解决OOD泛化、组合性等下游挑战,而非继续优化分割机制。

AI 对象中心学习 表示学习 OOD泛化 组合性 分割模型
4月 17, 2025
3 minute read
English
每日论文

每日论文:Trelawney - 超越下一个Token的预测

提出Trelawney训练方法,通过在训练序列中显式插入用特殊标记(<T>, </T>)界定的未来信息(lookahead tokens),使语言模型学习规划和利用未来目标,提升其在规划、算法推理和故事生成等任务上的表现。

AI LLM 规划 推理 语言模型训练 可控生成
4月 17, 2025
3 minute read
English
Featured image of post 你好,世界

你好,世界

欢迎使用 Hugo 主题 Stack

3月 06, 2022
1 minute read
English
© 2020 - 2025 © 2024 Your Name or Company Name
Built with Hugo
Theme Stack designed by Jimmy