#ICLR 2024
SWE-bench - 基于GitHub问题的语言模型评估
Github开源项目GitHubDockerICLR 2024SWE-benchPrinceton NLP
SWE-bench是一个基准测试平台,用于评估语言模型在解决GitHub问题中的表现。提供代码库和问题描述,模型生成修复补丁。项目支持Docker容器实现高效可重复测试。最新更新包括SWE-agent的引入,提升评估基准表现。支持x86_64和实验性arm64架构,提供多样数据集和模型下载选项。欢迎NLP、机器学习和软件工程领域的贡献和反馈。
MobileAgent - 移动设备多模态操作助手
Github开源项目Mobile-Agent移动设备操作助手多代理协作CCL 2024ICLR 2024
移动设备操作助手家族,包括Mobile-Agent-v3和Mobile-Agent-v2,支持多模态操作和高效导航。该项目通过多代理协作实现快速推理和低内存消耗,适用于各类应用场景。Mobile-Agent在CCL 2024上荣获最佳演示奖,并提供在Hugging Face和ModelScope上的在线体验,无需额外配置即可使用,满足智能操作需求。
Time-LLM - 开发用于时序预测的高级语言模型
Github开源项目大语言模型时间序列预测ICLR 2024Time-LLM框架重编程
Time-LLM将大型语言模型重新用于时序预测,利用其强大功能处理时序数据,并结合专家知识和任务说明提升预测精度。支持Llama-7B、GPT-2和BERT等模型,框架灵活且适应性广泛。了解Time-LLM的最新更新、使用案例和技术细节,访问我们的详细介绍及相关资源。
ctm - 创新的单步扩散模型采样方法
Github开源项目图像生成扩散模型ICLR 2024CTM单步采样
Consistency Trajectory Model (CTM)是一种新型扩散模型采样方法。该模型在CIFAR-10和ImageNet 64x64数据集的单步采样中表现出色,FID分数分别为1.73和1.92。CTM提供多种采样选项,平衡了计算资源和样本质量。项目开源了PyTorch实现,包含模型训练、采样和评估代码,方便研究人员使用。
FeatUp - 提升任意模型特征空间分辨率的框架
Github开源项目ICLR 2024FeatUp特征上采样模型无关框架分辨率提升
FeatUp是一个模型无关的特征提升框架,可将任意模型的特征空间分辨率提高16-32倍,同时保持语义一致性。该框架支持DINO、CLIP和ResNet50等多种预训练模型,适用于图像分割、目标检测等视觉任务。FeatUp提供简洁的API接口和开源代码,为计算机视觉研究和应用开辟了新途径。
ToG - 将知识图谱与大语言模型结合的先进推理框架
Github开源项目大语言模型知识图谱ICLR 2024深度推理ToG
ToG是一个结合知识图谱与大语言模型的推理框架,通过'图思考'方式增强模型的推理能力。该框架支持Freebase和Wikidata知识图谱,显著提高了模型在复杂任务中的表现。ToG项目已在GitHub开源,提供了代码和详细说明,为相关研究提供了实验基础。该框架的创新在于深度融合知识图谱,实现了更精确和可靠的推理过程。
LanguageBind_Audio_FT - LanguageBind:跨模态语义对齐的音频预训练模型
Github开源项目模型HuggingfaceICLR 2024多模态预训练LanguageBind视频语言VIDAL-10M
LanguageBind_Audio_FT是一个基于语言中心方法的音频预训练模型,通过语义对齐实现音频与语言的跨模态理解。该模型在VIDAL-10M数据集上训练,采用多视角增强的语言描述,无需中间模态即可实现高性能。在5个音频-语言数据集上,LanguageBind_Audio_FT展现了优秀的跨模态理解能力,达到了领先水平。