Tag: Instruction Tuning
All the papers with the tag "Instruction Tuning".
Enhancing Chemical Reaction and Retrosynthesis Prediction with Large Language Model and Dual-task Learning
grok-3-latestScore: 0.51Published: at 13:31本文提出 ChemDual 框架,通过构建 4.4M 分子指令数据集、设计多尺度分词器和双任务学习策略,显著提升了基于 LLaMA 的化学反应与逆合成预测性能,并在多个数据集上超越现有方法。
SEFE: Superficial and Essential Forgetting Eliminator for Multimodal Continual Instruction Tuning
grok-3-latestScore: 0.64Published: at 09:09本文提出 SEFE 方法,通过 ASD 范式和 RegLoRA 分别解决多模态持续指令微调中的表面遗忘和本质遗忘问题,显著提升模型性能并实现最先进的遗忘缓解效果。
SEFE: Superficial and Essential Forgetting Eliminator for Multimodal Continual Instruction Tuning
grok-3-latestScore: 0.61Published: at 09:09本文提出 SEFE 方法,通过 ASD 范式和 RegLoRA 分别缓解多模态持续指令微调中的表面遗忘和本质遗忘,显著提升模型在持续学习中的性能。
Bielik 11B v2 Technical Report
grok-3-latestScore: 0.66Published: at 07:03本文提出 Bielik 11B v2,一个针对波兰语优化的高效语言模型,通过深度扩展、创新训练方法和高质量数据,在波兰语任务上实现与更大模型相当的性能,同时保持参数效率和部署灵活性。