Project Icon

electra_large_discriminator_squad2_512

ELECTRA大型判别器模型在SQuAD2.0数据集上的问答系统微调

electra_large_discriminator_squad2_512是基于ELECTRA大型判别器模型在SQuAD2.0数据集上微调的问答系统。该模型在精确匹配和F1分数上分别达到87.10%和89.98%。它使用PyTorch和Transformers库实现,最大序列长度为512,经3轮训练后展现出优秀的问答性能。该项目还提供了详细的训练脚本和系统环境信息,便于其他研究者复现和改进。

Qwen2.5-72B-Instruct-AWQ - 高性能量化开源大模型 支持多语言及长文本处理的人工智能助手
GithubHuggingfaceQwen2.5transformers大语言模型开源项目模型自然语言处理量化模型
Qwen2.5-72B-Instruct-AWQ是一款采用4位量化技术的大规模语言模型,具备29种语言处理能力。模型支持128K tokens的上下文理解和8K tokens的文本生成,搭载80层神经网络及64/8注意力头架构。该模型在代码生成、数学计算、结构化数据处理等方面展现出稳定性能,并可进行长文本处理和JSON格式输出。
deberta-v3-base - 高效预训练语言模型提升自然语言理解任务性能
DeBERTaGithubHuggingface开源项目文本分类模型深度学习自然语言处理预训练模型
DeBERTa-v3-base是一种改进的预训练语言模型,采用ELECTRA风格预训练和梯度解耦嵌入共享技术。该模型在SQuAD 2.0和MNLI等自然语言理解任务上表现优异,超越了RoBERTa等基准模型。它具有12层结构、768维隐藏层、86M骨干参数和128K词表。研究人员可通过Hugging Face Transformers库对其进行微调,应用于多种自然语言处理任务。
tapas-base-finetuned-wtq - TAPAS基础模型在WikiTable Questions数据集上的微调版本
GithubHuggingfaceTAPAS开源项目微调模型自然语言处理表格问答预训练模型
该项目是TAPAS基础模型在WikiTable Questions (WTQ)数据集上的微调版本。模型采用相对位置嵌入,经过掩码语言建模和中间预训练后,通过SQA、WikiSQL和WTQ数据集进行链式微调。在WTQ开发集上,模型达到46.38%的准确率。项目提供两个版本:默认的相对位置嵌入版本和可选的绝对位置嵌入版本,可用于表格相关的问答任务。
ScienceQA - 多模态推理与思维链技术在科学问题回答中的创新应用
GithubScienceQA人工智能多模态推理大语言模型开源项目科学问答
ScienceQA项目结合多模态推理和思维链技术,开发了一个包含图像和文本的大规模科学问题数据集。通过利用GPT等先进语言模型,该项目在科学问题回答任务中实现了高达96%的准确率。ScienceQA已被多家机构采用,并在多个顶级学术会议上展示,展现了其在科学教育和人工智能领域的应用潜力。
tiny-doc-qa-vision-encoder-decoder - 文档问答任务的轻量级测试模型
GithubHuggingfaceMITpipeline开源项目文档问答模型测试许可证
tiny-doc-qa-vision-encoder-decoder是一个轻量级的文档问答模型,目前处于测试阶段。该项目使用MIT许可证,适用于文档问答任务。模型为开发者提供了一个简洁的工具,用于探索文档问答功能。由于是测试版本,主要用于验证基本概念和功能,为后续开发更复杂的文档问答应用奠定基础。
laser - 层选择低秩化技术提升语言模型推理能力
GithubLASERLayer-Selective Rank Reductiontransformer低秩近似大语言模型开源项目
LASER技术通过选择性替换LLM权重矩阵的低秩近似值,在无需额外训练的情况下显著提升问答任务性能。本项目提供了多个LLM和基准支持的代码,并通过示例展示如何运行实验。最新更新包括结果表和讨论页面,2024年1月将进行代码重构,以提高灵活性和易用性。
Aquila2 - Aquila2开源模型与聊天模型指南
Aquila2AquilaChat2Github开源开源项目模型现在的用户
页面提供详细的Aquila2系列(包括Aquila2-7B、Aquila2-34B和Aquila2-70B-Expr)和AquilaChat2系列(包括AquilaChat2-7B、AquilaChat2-34B和AquilaChat2-70B-Expr)开源模型信息,包含快速入门指南、微调教程、长文本理解与评估方法及模型下载链接。最新新闻和更新展示了这些模型在多个数据集上的性能,及其在长文本理解和推理任务中的表现,帮助用户全面了解与应用。
drqa - 结合Langchain与大型语言模型实现文档问答
GPT-3GithubLangChainPDF文档Qdrant开源项目问答系统
该项目构建了一个结合Langchain与大型语言模型(如OpenAI的GPT-3)的问答系统,旨在准确回答问题。系统前端采用React/Typescript开发,后端使用FastAPI框架,实现了PDF文档到文本的转换和嵌入处理,同时支持多种文档类型并优化了搜索与检索速度。项目有效减少了API调用成本,并规划了多项未来改进,如流处理、缓存机制、UI优化和长对话的记忆与总结功能。
large-ocr-model.github.io - OCR 技术提升多模态大模型视觉问答性能研究
GithubOCR多模态大型模型开源项目缩放法则视觉问答
本项目研究 OCR 技术对多模态大模型性能的影响。实验表明,OCR 能显著提高模型在视觉问答任务中的表现。研究者构建了 REBU-Syn 数据集,验证了 OCR 领域的缩放法则,并开发了高精度 OCR 模型。这项工作为多模态大模型的应用开辟了新方向,揭示了 OCR 在增强模型能力方面的重要价值。
paper-qa - 基于文档的智能问答系统 实现精准信息检索和回答生成
GithubLLMPaperQA嵌入式向量开源项目异步处理文献问答
paper-qa是一款轻量级文档问答工具包,专门从PDF和文本文件中提取信息并生成回答。通过文档嵌入、向量搜索和摘要生成等技术,结合大型语言模型,paper-qa能够提供高质量且有据可依的回答。支持OpenAI、Anthropic等多种嵌入和语言模型,并可集成本地托管模型。工具提供异步API,支持自定义文档添加和引用格式推断,还可整合外部向量存储。这些特性使paper-qa成为科研和信息检索领域的实用解决方案。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号