#大型语言模型
MeshXL - 通过神经坐标场生成高质量的3D网格模型
MeshXL3D网格生成神经坐标场大型语言模型生成预训练Github开源项目
MeshXL是一款基于神经坐标场的3D网格生成工具,采用现代大语言模型技术生成高质量的3D网格数据。该项目提供多种预训练模型,支持不同规模的3D网格生成。项目页面包含详细的模型权重下载、环境设置和样本生成教程,帮助用户在多种应用场景中高效生成并利用3D网格数据。
reasoning-on-graphs - 基于大语言模型和知识图谱的忠实可解释推理
Reasoning on GraphsRoG大型语言模型知识图谱解释性推理Github开源项目
利用大语言模型与知识图谱,提供优化的规划-检索-推理框架,实现忠实与可解释的推理。预训练权重和自动下载的数据集简化了关系路径生成和答案推理过程,并支持多种大语言模型的插拔式推理,使推理结果更具解释性和灵活性。
DeepInception - 通过DeepInception方法探索大型语言模型的安全弱点
DeepInception大型语言模型对抗性攻击Milgram实验VicunaGithub开源项目
DeepInception是一种创新的轻量级方法,能够诱导大型语言模型(LLM)绕过安全防护,持续进行越狱操作。该方法通过构建嵌套场景,利用LLM的拟人化能力,实现自适应逃逸。实验证明,DeepInception在开源和闭源LLM(如Falcon, Vicuna, Llama-2, GPT-3.5/4/4V)上表现出高成功率,揭示了LLM的安全弱点。此研究强调了增强LLM安全措施和防范风险的重要性。
gpttools - 通过gpttools在R项目中无缝集成大型语言模型
gpttoolsR语言大型语言模型API服务隐私声明Github开源项目
gpttools旨在帮助R包开发者方便地在项目工作流中集成大型语言模型(LLMs)。该工具兼容OpenAI和其他热门AI服务提供商,如Anthropic、HuggingFace、Google AI Studio和Azure OpenAI,提供多样化的选择。安装便捷,可从GitHub和R-Universe获取。用户需注意配置API服务和保护隐私,包括设置OpenAI API密钥并在版本控制中忽略敏感信息。
langchain-js-tutorial - 介绍了如何使用Langchain框架与工具库构建定制化的数据驱动的大型语言模型应用的教程
LangChaintypescript教程javascript开发者大型语言模型自定义数据应用Github开源项目
该教程详细介绍了如何使用Langchain框架与工具库构建定制化的数据驱动的大型语言模型应用,为开发个性化聊天机器人和自然语言响应助手提供了便捷方案。涵盖快速安装指南、环境变量配置和示例运行方式,特别适合Typescript和Javascript开发者。
awesome-RLHF - 人类反馈下的强化学习文献合集
RLHFReinforcement Learning人类反馈大型语言模型奖励模型Github开源项目
此页面汇集了关于强化学习与人类反馈(RLHF)的最新研究论文,涵盖从基础概念到高级技术,包括大语言模型、视频游戏、机器人和个性化推荐系统等应用。页面将持续更新,跟踪此领域的前沿进展。
lmql - 为大语言模型(LLMs)设计的基于Python的编程语言
LMQL编程语言大型语言模型Python高级解码Github开源项目
LMQL是一种基于Python的编程语言,专为大语言模型(LLMs)设计。它结合传统编程与LLM调用,实现代码级的LLM互动。LMQL允许在执行过程中实时调用LLM,并通过约束机制控制模型行为。支持多种解码算法和多模型集成,通过丰富的控制流和异步API,提高语言模型应用效率。用户可以通过浏览器内的Playground IDE探索更多示例和文档。
ppl.llm.serving - 基于ppl.nn的大型语言模型服务框架
PPL LLM Serving大型语言模型推理服务CUDAgRPCGithub开源项目
ppl.llm.serving是基于ppl.nn的大型语言模型服务框架,提供gRPC服务器支持LLaMA等模型推理。该项目支持多GPU、离线推理,并具备模型导出、服务部署和性能测试功能。适用于x86_64和arm64平台,可用于构建和部署大规模语言模型服务。
financial-datasets - 开源Python库利用LLM生成金融问答数据集
Financial DatasetsPython库金融数据集生成大型语言模型问答数据集Github开源项目
Financial Datasets是一个开源Python库,利用大型语言模型从金融文本生成问答数据集。支持从文本、PDF和10-K报告生成数据,提供灵活API。该库安装简便,可通过pip或Poetry集成。为金融分析和机器学习研究提供了便捷工具,能高效创建训练数据。
grok-1 - 314B参数语言模型 支持混合专家系统和8位量化
Grok-1大型语言模型混合专家模型开源权重模型规格Github开源项目
Grok-1是一个开源的大型语言模型,拥有314B参数和8,192个token的最大序列长度。它采用混合专家系统架构,每个token使用2个专家,包含64层结构。模型具有48个查询注意力头和8个键/值注意力头,嵌入维度为6,144。Grok-1支持激活分片和8位量化。项目提供JAX示例代码用于加载和运行模型,并可通过种子链接或Hugging Face下载权重。
MiniGPT-4 - 视觉语言多任务学习的统一接口
MiniGPT-v2视觉语言模型多任务学习大型语言模型图像理解Github开源项目
MiniGPT-4是一个视觉语言理解项目,整合了Llama 2和Vicuna模型以增强多模态能力。它支持图像描述、视觉问答和多任务学习,能够处理复杂的视觉理解任务。项目的开源性和灵活架构为研究人员和开发者提供了探索视觉语言AI的工具。
musiclang - Python音乐语言框架 实现智能编曲分析和预测
MusicLang音乐语言Python框架符号音乐大型语言模型Github开源项目
MusicLang是一个Python音乐框架,实现了新型调性音乐语言。框架支持简便高效地加载、创作、转换和预测符号音乐。内置大型语言模型可预测乐谱发展。适用于快速生成音乐创意、符号音乐预测或修复,以及创建MIDI文件的可解释文本表示。为音乐创作和分析提供功能丰富的工具。
MAP-NEO - 开源大语言模型 性能卓越且训练过程透明
MAP-NEO大型语言模型开源训练数据性能评估Github开源项目
MAP-NEO是一个完全开源的大语言模型,其预训练数据、处理流程、脚本和代码均可获取。该模型在4.5T英中文数据上训练,性能与LLaMA2 7B相当。在推理、数学和编码等任务中,MAP-NEO表现优异。项目公开了训练全过程,包括检查点、分词器、语料库和优化代码,为大语言模型研究提供了宝贵资源。
ktransformers - 体验前沿LLM推理优化的灵活框架
KTransformersLLM推理优化大型语言模型深度学习框架GPU加速Github开源项目
KTransformers是一个灵活的Python框架,通过高级内核优化和并行策略增强Transformers性能。框架支持单行代码注入优化模块,提供Transformers兼容接口、OpenAI和Ollama标准RESTful API及简化的ChatGPT风格Web UI。专注本地部署和异构计算优化,KTransformers集成Llamafile和Marlin内核,为LLM推理优化实验提供灵活平台。
ml-mgie - 基于多模态大语言模型的智能图像编辑技术
MGIE图像编辑大型语言模型多模态指令引导Github开源项目
MGIE项目通过多模态大语言模型增强指令式图像编辑能力。该技术生成详细指令并提供明确指导,使编辑模型能更准确理解和执行编辑意图。结合端到端训练的视觉想象和图像操作,MGIE为图像编辑提供更灵活精确的控制方法。
Doctor-Dignity - 基于开源AI的本地医疗助手 隐私保护且免费使用
Doctor DignityAI医疗助手大型语言模型开源项目离线使用Github
Doctor-Dignity是一个基于Llama2模型的开源AI医疗助手项目。通过医疗对话数据集微调和强化学习,该模型能够通过美国医疗执照考试。项目仅占3GB空间,可在本地设备运行,保护用户隐私。支持iOS、Android和Web平台,提供免费离线的医疗咨询服务。该项目欢迎社区贡献,共同改进AI医疗助手的性能。
azure-genai-design-patterns - Azure自主AI系统设计模式与实践
人工智能代理设计模式Azure大型语言模型自主系统Github开源项目
该项目提供了构建Azure自主AI系统的设计模式和最佳实践。涵盖基础概念、设计模式、参考架构和加速器,助力开发者实现具自主性、推理能力和适应性的AI系统。同时关注负责任AI和用户体验,为从概念到实施提供全面指导。项目包含生产就绪考虑因素,适合寻求创建高级AI解决方案的开发团队。
Galactica Demo - 大型语言模型Galactica的研究与开发
AI工具MetaAI研究Galactica大型语言模型开放透明
Galactica是Meta公司开发的大型语言模型,旨在通过开放、透明和可复现的方式推进AI研究。该模型经过高质量科学和学术数据训练,但可能产生不准确输出。Meta曾发布Galactica演示版以促进公众理解和获取反馈,但因模型可能生成看似真实却不准确的内容而撤下。目前,Galactica仍对研究人员开放,供进一步学习和结果复现。
Sanctum - 本地运行的私密AI助手应用
AI工具SanctumAI助手本地运行隐私保护大型语言模型
Sanctum是一款在本地设备上运行开源大语言模型的AI助手应用。通过本地加密技术确保数据私密性,支持AI对话和PDF文档分析等功能。该应用适合注重数据安全同时希望使用AI功能的用户,无需网络连接即可运行完整的AI模型。
VectorShift - 综合AI自动化平台 简化智能应用开发
AI工具VectorShiftAI应用无代码平台自动化大型语言模型
VectorShift是一个端到端的AI自动化平台,面向技术创新领域。平台提供无代码、低代码和即用型生成式AI解决方案,用于开发AI搜索引擎、智能助手、聊天机器人和自动化流程。它集成了直观的无代码界面和功能强大的代码SDK,支持拖放式操作和编程开发。此外,VectorShift还具备广泛的集成能力和自动化功能,可访问最新的大型语言模型,并能处理多种数据格式。该平台为企业提供了构建、部署和管理AI应用的完整生态系统,助力各行业充分发挥AI技术潜力。
Awesome-Story-Generation - 大语言模型推动故事生成技术进步与前沿研究
故事生成大型语言模型自然语言处理人工智能文本生成Github开源项目
该项目汇集了故事生成和讲故事领域的关键论文,聚焦大语言模型时代的最新研究。内容覆盖情节发展、写作风格、角色塑造等多个方面,按时间顺序呈现并附带引用计数。项目还包括文献综述和公共资源,为研究者和实践者提供全面参考。
AceGPT - 优化阿拉伯语大型语言模型的文化适应性
AceGPT阿拉伯语言模型大型语言模型文化对齐性能评估Github开源项目
AceGPT是一个针对阿拉伯语优化的开源大型语言模型。该项目不仅关注语言处理,还注重文化适应性和本地价值观融合。通过创新的训练方法,AceGPT在多项阿拉伯语基准测试中展现出优异性能。项目开放了训练代码、模型和评估数据,为阿拉伯语自然语言处理研究提供了宝贵资源。
folotoy-server-self-hosting - AI 对话服务器支持多种语言模型和语音技术
Folotoy自托管服务器语音交互大型语言模型MQTTGithub开源项目
folotoy-server-self-hosting 是一个自托管的 AI 对话服务器。它支持语音输入输出,集成多种语言模型、语音识别和文本转语音技术。该项目通过 MQTT 发布对话数据,提供灵活的 AI 交互体验。适合开发者和爱好者自定义 AI 对话解决方案。
Awesome-Scientific-Language-Models - 科学领域预训练语言模型资源汇总
大型语言模型科学领域预训练模型模态知识表示Github开源项目
Awesome-Scientific-Language-Models是一个涵盖多个科学领域预训练语言模型的资源列表。该项目收录了数学、物理、化学等领域的模型,包括不同参数规模和多种模态。资源列表持续更新,为科研人员提供丰富的语言模型参考和应用案例。
HalluQA - 中文大语言模型幻觉评估基准
HalluQA大型语言模型中文幻觉评估基准问答任务Github开源项目
HalluQA是一个评估中文大语言模型幻觉问题的基准测试。该项目包含450个涵盖多领域的对抗性问题,考虑中国特色文化因素。HalluQA提供数据集、评估脚本和多选任务,采用GPT-4评估非幻觉率。研究结果揭示不同模型在处理误导性和知识性问题的表现,为中文大语言模型的改进提供参考。
gptscript - 连接大语言模型与多元系统的开源框架
GPTScript大型语言模型系统交互框架OpenAIGithub开源项目
GPTScript是一个开源框架,旨在促进大语言模型与多样化系统的互动。它支持本地执行文件、OpenAPI应用、SDK库和RAG解决方案等多种系统类型。开发者通过简洁的提示即可实现LLM与本地或远程系统的集成。GPTScript具备多种应用场景,如CLI交互、API调用、文件操作和自动化流程。该框架兼容MacOS、Linux和Windows,安装便捷,为LLM应用开发提供了灵活高效的工具支持。
ollama-voice - 离线语音交互AI助手 集成语音识别对话和合成功能
ollama-voice语音识别大型语言模型文字转语音离线模式Github开源项目
ollama-voice是一个集成Whisper语音识别、Ollama大语言模型和pyttsx3文本转语音技术的开源项目。它创建了一个完全离线的语音交互AI助手,支持本地语音识别、自然语言处理和语音合成。用户通过按住空格键即可与AI对话,适用于需要隐私保护或离线环境的语音交互场景。
Awesome-TimeSeries-SpatioTemporal-LM-LLM - 大型语言模型在时序和时空数据分析中的应用资源
大型语言模型时间序列时空数据基础模型预训练模型Github开源项目
该项目汇集了用于时间序列、时空数据和事件数据分析的大型语言模型及基础模型资源。内容全面涵盖了最新研究进展,包括论文、代码和数据集。涉及领域包括通用时间序列分析、交通、金融、医疗等多个应用方向,以及事件分析、时空图和视频数据等相关主题。项目为研究人员和实践者提供了一个综合性资源库,并持续更新最新成果。
Transformers-for-NLP-and-Computer-Vision-3rd-Edition - 深入探索Transformers在NLP和计算机视觉中的应用
Transformers自然语言处理计算机视觉生成式AI大型语言模型Github开源项目
该书全面介绍Transformers在NLP和计算机视觉领域的应用,探讨大型语言模型架构、预训练和微调技术,以及Hugging Face、OpenAI和Google Vertex AI平台的使用。内容涵盖跨平台链式模型实现、视觉transformers处理,并探索CLIP、DALL-E 3和GPT-4V等前沿技术。此外还讨论模型解释性、tokenizer优化和LLM风险缓解等关键主题,为读者提供Transformers应用的实践指南。
Agent-Driver - 革命性智能驾驶系统 融合人类智慧与AI技术
Agent-Driver自动驾驶大型语言模型认知代理人工智能Github开源项目
Agent-Driver是一个创新型自动驾驶系统,通过大型语言模型作为认知代理,将人类智能整合到自动驾驶中。系统包括多功能工具库、认知记忆和推理引擎,实现类人的推理和决策能力。在nuScenes基准测试中,Agent-Driver性能显著超越现有方法,并展现出优秀的可解释性和少样本学习能力。这一项目为自动驾驶领域提供了新的研究方向,向实现人类级别驾驶迈进。
SiLLM - Apple Silicon大语言模型训练与推理工具包
SiLLM大型语言模型Apple SiliconMLX低秩适应Github开源项目
SiLLM是专为Apple Silicon设计的大语言模型工具包,基于MLX框架优化LLM训练和运行流程。支持多种模型架构,提供Web应用和API服务,实现LoRA和DPO等先进训练技术。该项目还引入控制向量和特征消融等实验性功能,便于探索LLM内部机制,旨在让更广泛的Apple Silicon用户群体能够使用最新的LLM技术。
Lion - 对抗蒸馏框架提升大型语言模型能力
Lion大型语言模型对抗蒸馏指令微调自然语言处理Github开源项目
Lion项目开发了一种对抗蒸馏框架,通过模仿、辨别和生成三个阶段从专有大型语言模型中提取知识。该框架不断挑战学生模型,提升其能力。使用70k指令数据训练后,Lion (7B)模型性能接近ChatGPT。项目公开了模型权重、训练和推理代码,在开放式生成和推理任务中表现出色。Lion致力于推进语言模型研究,仅限研究用途。
llm-jp-3-13b-instruct - 提供多语言大规模模型,支持多编程环境
数据集Github模型transformers大型语言模型开源项目Huggingfacellm-jp-3-13b-instruct自然语言处理
项目由日本国立信息学研究所研发,部分支持来自GENIAC。模型包含13b版,基于Transformer架构,支持多种语言如Python、Java、Rust。预训练数据集丰富,适用于日语、英语等多语言环境。项目使用Huggingface的Transformers,评估覆盖多领域任务。模型处于早期阶段,尚未完全对输出的人类意图和安全性进行调校。
Vectorize - 将非结构化数据高效转换为优化的向量搜索索引
AI工具VectorizeRAG生成式AI向量搜索大型语言模型
Vectorize提供专为RAG设计的工具,将非结构化数据转化为优化的向量搜索索引。平台支持多种数据来源连接,帮助企业迅速构建生成式应用,提升客户体验和生产力。
Meta-Llama-3-70B-Instruct - Meta开发的700亿参数指令微调大语言模型用于对话和生成
模型大型语言模型人工智能GithubLlama 3Huggingface开源项目Meta自然语言处理
Meta-Llama-3-70B-Instruct是Meta公司开发的700亿参数大语言模型,经指令微调优化对话能力。模型支持8k上下文长度,采用GQA架构提升推理效率。在多项基准测试中表现出色,具有良好的实用性和安全性。该模型可用于构建对话助手等自然语言生成任务,支持商业和研究用途。模型提供商业许可,可通过Transformers或原生llama3代码库使用。
Mistral-7B-Instruct-v0.3-GGUF - 高性能量化版指令微调大语言模型
提示模板模型量化Mistral-7B-Instruct-v0.3大型语言模型硬件要求GithubHuggingface开源项目
Mistral-7B-Instruct-v0.3 GGUF是一系列针对不同硬件条件优化的量化模型。支持32k上下文长度、扩展词表和函数调用,适用于对话等交互任务。模型大小从2.72GB到14.5GB不等,提供多种精度选择,平衡性能和资源消耗。GGUF格式便于在各类设备上高效部署和使用。
相关文章
Phidata:8.3k星星!用GPT-4o创建具有长期记忆的 AI Agent
2024年08月03日
LLocalSearch:完全本地化的搜索Agent助手,自动整理全网搜索结果,已开源可立即体验!
2024年08月03日
Mem0: 为个性化AI打造智能记忆层
3 个月前
Mem0: 革新AI交互的智能记忆层
3 个月前
Mem0: 革新个性化AI的智能记忆层
3 个月前
StyleTTS2: 突破性的人类级语音合成技术
3 个月前
LLM微调技术全面指南:方法、最佳实践与应用
3 个月前
RAG技术综述:检索增强生成在人工智能内容生成中的应用与发展
3 个月前
FinRobot:这都开源!专为金融开发的AI代理,可以预测股票走向、生成金融分析报告
2024年08月03日