Tag: LLM
All the papers with the tag "LLM".
EMORL: Ensemble Multi-Objective Reinforcement Learning for Efficient and Flexible LLM Fine-Tuning
grok-3-latestScore: 0.70Published: at 11:30EMORL 框架通过集成学习和隐藏状态聚合,为多目标 LLM 微调提供了一种高效、灵活且可解释的方法,在资源消耗和稳定性上显著优于传统方法,同时保持了相当的性能。
Bielik v3 Small: Technical Report
grok-3-latestScore: 0.67Published: at 10:39本文通过创新架构设计、高质量波兰语数据处理和高效训练策略,开发了参数高效的 Bielik v3 模型(1.5B 和 4.5B),为资源受限语言的语言模型开发树立了新标杆。
Large Language Model Partitioning for Low-Latency Inference at the Edge
grok-3-latestScore: 0.63Published: at 10:16本文提出一种资源感知的 Transformer 分区算法,通过注意力头级别的细粒度分区和动态块迁移,显著降低边缘环境下大型语言模型的推理延迟并优化内存使用。
Beyond the model: Key differentiators in large language models and multi-agent services
grok-3-latestScore: 0.60Published: at 09:15本文通过系统综述,揭示了生成式 AI 从模型中心向生态系统中心转变的趋势,总结了数据质量、计算效率、延迟优化、评估框架和数据管理等关键差异化因素,为 AI 服务优化提供了全面参考。
SEFE: Superficial and Essential Forgetting Eliminator for Multimodal Continual Instruction Tuning
grok-3-latestScore: 0.64Published: at 09:09本文提出 SEFE 方法,通过 ASD 范式和 RegLoRA 分别解决多模态持续指令微调中的表面遗忘和本质遗忘问题,显著提升模型性能并实现最先进的遗忘缓解效果。
Rewriting Pre-Training Data Boosts LLM Performance in Math and Code
grok-3-latestScore: 0.81Published: at 07:38本文通过系统性重写预训练数据,构建 SwallowCode 和 SwallowMath 数据集,显著提升了大型语言模型在代码生成和数学推理任务上的性能,提出了一种创新的‘改造并保留’数据处理范式。