Project Icon

rellm

使用正则表达式提高语言模型输出的准确性

ReLLM项目利用正则表达式控制语言模型的输出,可生成特定的语法或语义结构,如日期、数字或完整模板。ReLLM在生成前过滤不匹配的词元,提升生成质量。即使是小型模型,也能在ReLLM的帮助下提高输出质量。该项目适用于需要解析JSON、XML等上下文无关文法的场景。

Time-LLM - 开发用于时序预测的高级语言模型
GithubICLR 2024Time-LLM大语言模型开源项目时间序列预测框架重编程
Time-LLM将大型语言模型重新用于时序预测,利用其强大功能处理时序数据,并结合专家知识和任务说明提升预测精度。支持Llama-7B、GPT-2和BERT等模型,框架灵活且适应性广泛。了解Time-LLM的最新更新、使用案例和技术细节,访问我们的详细介绍及相关资源。
ReAlign - 重新格式化指令数据以提升大语言模型性能
GithubReAlign大语言模型对齐开源项目指令数据提示工程
ReAlign是一种指令数据优化方法,通过重新格式化现有指令数据的响应,使其更符合预设标准和相关证据。该方法减少了人工标注需求,同时提升了大语言模型的对齐能力、数学推理、事实性和可读性。实验显示,仅通过重新格式化响应,LLaMA-2-13B在GSM8K上的数学推理准确率提高了近10个百分点。ReAlign强调人类和大语言模型在对齐过程中的协作,为相关研究提供新思路。
Recurrent-LLM - RecurrentGPT 模拟 LSTM 实现无长度限制文本生成
AI As ContentsGithubRecurrent-LLMRecurrentGPTTransformer开源项目长短时记忆
RecurrentGPT 模拟 LSTM 的长短时记忆机制,解决了 GPT 生成文本长度受限的问题。每次生成时段文本并更新记忆,便于用户观测和修改。这提高了文本生成的可解释性和互动性,并展示了其在互动小说和个性化内容创作中的潜力。RecurrentGPT 运用了认知科学和深度学习的流行设计概念,推动了下一代计算机辅助写作系统的发展。
RLMRec - 融合大语言模型的推荐系统表示学习框架
GithubRLMRec协同过滤大语言模型开源项目推荐系统表示学习
RLMRec是一个模型无关的推荐系统框架,利用大语言模型增强表示学习。该框架整合表示学习与大语言模型,深入捕捉用户行为和偏好的语义特征。RLMRec引入辅助文本信息,构建大语言模型支持的用户和物品画像,并通过跨视图对齐方法整合语义空间和协同关系信号。在多个公开数据集的评估中,RLMRec展现出显著的性能提升。
self-refine - LLM自我反馈迭代优化自然语言处理任务
GithubLLMSelf-Refine开源项目自我反馈自然语言处理迭代优化
Self-Refine是一个创新的自然语言处理项目,利用大型语言模型(LLM)生成、评估和改进自身输出。通过迭代过程,LLM对自己的工作提供反馈并持续优化结果。该项目在缩写生成、对话响应和代码可读性改进等多个任务中展现了效果。这种自我完善方法为提升AI系统性能和可靠性开辟了新途径。
TextRL - 通过强化学习提高文本生成质量,广泛支持多种模型
GithubHugging Face's TransformersOpenAI GYMTextRL开源项目强化学习文本生成
TextRL是一个Python库,结合Hugging Face的Transformers、PFRL和OpenAI GYM,通过强化学习优化文本生成。该库支持多种文本生成模型,如GPT-2、FLAN-T5和Bigscience/BLOOM,并具备高度的可定制性,适用于各种应用场景,从而提升文本生成的准确性和表现力。
LLM2LLM - 探索迭代数据增强提升语言模型性能
GSM8KGithubLLM2LLM大语言模型开源项目数据增强迭代学习
LLM2LLM项目提出了一种迭代数据增强方法,旨在提升大型语言模型的性能。该方法通过数据生成和筛选,创建高质量训练数据,逐步改进模型能力。研究团队在GSM8K等数据集上的实验证实了方法的有效性。项目已开源代码并提供复现指南,为相关研究和开发工作提供了参考资源。
DALM - 优化AI语言模型的开源自适应工具包
ArceeDALMGithubLlama-2-7b-hfRAG-end2endcontrastive learning开源项目
Arcee开源的领域自适应语言模型工具包(DALM)结合了RAG-e2e架构,实现LLM与向量存储的高效整合。该工具包支持Llama、Falcon和GPT等解码器,适用于特定领域的高级定制。工具包包括数据处理、训练和评估的完整代码库,支持对比学习和高效的检索生成联合训练。
PairRM - LLM质量提升的Pairwise奖励模型
GithubHuggingfaceLLM评估Pairwise Reward ModelRLHF方法开源项目模型相对质量高效解码
Pairwise Reward Model通过比较一对候选输出对每个候选分配质量评分。该模型可用于有效评估LLM质量,通过对候选输出重新排序,增强LLM输出效果,并支持RLHF方法的指令调整。模型基于microsoft/deberta-v3-large,利用多样化的人类偏好数据集进行训练,性能接近GPT-4,在有限资源下实现高效对齐和质量提升。
RoleLLM-public - 评估与提升大语言模型角色扮演能力的框架
GithubRoleLLM基准测试大语言模型开源项目微调角色扮演
RoleLLM框架旨在评估和增强大语言模型的角色扮演能力。该框架包含RoleBench数据集、Context-Instruct知识提取方法、RoleGPT风格模仿技术和RoCIT微调策略。通过这些组件,RoleLLM显著提升了开源模型的角色扮演表现,在某些方面达到了与GPT-4相当的水平。这一框架为大语言模型在角色扮演任务中的应用提供了新的研究方向。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号