Project Icon

Phi-CAT

在连续对抗训练中优化Phi-3-mini-4k模型

该项目通过Continuous Adversarial Training(CAT)算法,对Phi-3-mini-4k-instruct模型进行优化,增强其对抗性攻击的抵御能力,提升鲁棒性。项目详细信息可在Github查阅,有关研究发表在arXiv。

pythia-6.9b - 促进大规模语言模型可解释性研究的开源工具
GithubHuggingfacePythia大语言模型开源项目机器学习模型模型训练自然语言处理
Pythia-6.9b是EleutherAI开发的开源大规模语言模型,旨在促进可解释性研究。该模型包含69亿参数,在Pile数据集上训练,提供154个中间检查点,便于研究人员探索模型训练过程。Pythia-6.9b采用Transformer架构,性能与同类模型相当,主要用于学术研究而非直接部署。模型可能存在偏见风险,研究人员可通过Hugging Face Transformers库轻松使用。Pythia-6.9b为语言模型研究提供了理想的实验平台。
phobert-base - 突破性的越南语预训练语言模型
GithubHuggingfacePhoBERTRoBERTa开源项目模型自然语言处理语言模型越南语
PhoBERT作为针对越南语开发的预训练语言模型,提供base和large两个版本。该模型基于RoBERTa框架,优化了BERT的预训练方法。在词性标注、依存句法分析、命名实体识别和自然语言推理等多个越南语NLP任务中,PhoBERT均实现了性能突破,超越了现有的单语言和多语言模型。这一创新为越南语自然语言处理的研究与应用奠定了坚实基础。
resnet-50-finetuned-cats_vs_dogs - ResNet-50微调模型实现高精度猫狗图像分类
GithubHuggingfaceResNet-50图像分类开源项目模型模型微调深度学习猫狗识别
项目利用微软的ResNet-50架构,通过在cats_vs_dogs数据集上进行微调,开发出一个高效的猫狗图像分类模型。训练过程中使用Adam优化器和线性学习率调度器,仅需3个训练周期即达到优异性能:评估集准确率98.93%,验证损失0.0889。这一成果展示了预训练模型在特定图像分类任务中的适应性和高效性。
Qwen2-7B-Instruct-abliterated - 权重正交化在文本生成模型性能中的应用
GithubHuggingfaceQwen2-7B-Instruct-abliteratedtransformers大语言模型开源项目权重正交化模型模型评估
本项目通过利用failspy的笔记本对Qwen2-7B-Instruct模型进行权重正交化优化,旨在削弱模型的强拒绝方向。尽管模型在优化后可能仍会出现拒绝请求或误解意图的情况,其在ARC、Winogrande等数据集上的性能仍保持高水平。使用lm-evaluation-harness 0.4.2进行评估,结果显示在ARC、GSM8K、HellaSwag等数据集上的表现优异,适合相关应用。
pythia-12b - Pythia语言模型套件提供多种规模及训练检查点
GithubHuggingfacePythia大语言模型开源项目模型模型训练模型评估解释性研究
Pythia-12b是EleutherAI开发的语言模型研究套件中的一员,拥有113亿参数。该套件包含从70M到12B参数的8种规模模型,每种规模提供两个版本:一个在Pile数据集上训练,另一个在去重后的Pile上训练。所有模型使用相同的数据和训练顺序,并提供154个中间检查点。Pythia-12b采用Transformer架构,主要用于语言模型的可解释性研究。虽然在多项基准测试中表现出色,但并非针对下游应用优化。
pythia-160m - EleutherAI开发的160M参数语言模型 专为NLP研究设计
EleutherAIGithubHuggingfacePythia大语言模型开源项目机器学习模型自然语言处理
Pythia-160M是一个160M参数的英语语言模型,由EleutherAI开发,主要用于自然语言处理研究。该模型在Pile数据集上训练,提供154个中间检查点,便于分析模型行为。虽然主要用于研究目的,但其性能可与同规模的商业模型相媲美。Pythia-160M采用Transformer架构,可通过Hugging Face Transformers库轻松加载使用,适合进一步微调,但不建议直接部署。
pythia-2.8b - 大规模语言模型研究工具包,提供多尺度模型和训练检查点
GithubHuggingfacePyTorchPythia人工智能开源项目机器学习模型语言模型
Pythia-2.8B是EleutherAI开发的大规模语言模型研究套件中的一员,专注于促进模型可解释性研究。该模型包含25亿参数,基于Transformer架构,使用Pile数据集训练。提供154个训练检查点,便于深入分析模型演化过程。尽管主要用于研究,其性能与同等规模的OPT和GPT-Neo模型相当。Pythia-2.8B采用Apache 2.0许可证,可通过Hugging Face Transformers库轻松部署。
phobert-large - 越南语PhoBERT模型优化实现多项NLP任务性能突破
GithubHuggingfacePhoBERTRoBERTa开源项目模型自然语言处理语言模型越南语处理
PhoBERT是首个公开的大规模越南语单语预训练模型,基于RoBERTa优化BERT,超越以往多语言和单语方法,显著提升词类标注、依赖解析、命名实体识别和自然语言推理等越南语NLP任务效果。
Platypus2-13B - LLaMA2架构下通过指令微调优化的模型及其表现
GithubHuggingfacePlatypus2-13B人工智能开源项目机器学习模型训练数据集语言模型
该模型基于LLaMA2-13B架构进行指令微调,具备自动回归功能。使用STEM和逻辑数据集进行训练,在ARC和HellaSwag等任务中表现优异。开发者应在应用前进行安全测试,以验证适用性并减轻可能的偏见。
Configurable-Yi-1.5-9B-Chat - 提升语言模型安全性和灵活性的方法
Configurable-Yi-1.5-9BGithubHuggingface准确率安全调优开源项目数据集文本生成模型
该项目应用Configurable Safety Tuning (CST)技术对语言模型进行微调,以提升其在各种任务场景中的表现与安全性。项目支持多种系统提示,能够适应不同需求,比如无偏见助手或完全开放的助手。在AI2 Reasoning Challenge、HellaSwag、MMLU等多项任务中,该模型展示了卓越的准确性。针对需要调整AI助手安全性和行为的应用场景,该项目提供了一种理想的框架,使模型既能保持有用性又能避免生成非法内容。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号