💨 诺图斯
诺图斯是一系列使用SFT、DPO、SFT+DPO和/或其他RLAIF/RLHF技术微调的模型集合;遵循以数据为先、以人为本的方法,因为这正是我们在Argilla最擅长的。
诺图斯模型旨在通过类似聊天的应用程序作为助手使用,并通过聊天(MT-Bench、AlpacaEval)和学术(Open LLM Leaderboard)基准进行评估,以便与其他类似的LLMs直接比较。
诺图斯的名字来源于古希腊神话中的南风之神诺图斯,这是对西风之神泽菲尔的一个暗示;不同之处在于诺图斯是南风之神,而泽菲尔是西风之神。更多信息请访问https://en.wikipedia.org/wiki/Anemoi。
如果没有开源社区的无价帮助和所有面向公众的惊人资源,我们就无法在保持以数据为先的方法的同时微调LLMs。我们对此深表感谢,并希望我们的工作也能对他人有所帮助。
🎩 向HuggingFace H4团队致敬,感谢他们在alignment-handbook
上的出色工作,以及我们与他们进行的富有成效的讨论和他们的支持。
新闻
- 2023年12月1日:诺图斯7B v1发布!🎉 使用与Zephyr 7B Beta相同的DPO微调方法,但将数据源从UltraFeedback更改为使用不同标准的平均值来二值化,而不是使用批评分数。诺图斯7B在AlpacaEval和LM Eval Harness上都比Zephyr 7B Beta有所改进,而在MT-Bench上的结果则不相上下。更多信息请查看
v1/
。
资源
🤗 HuggingFace Hub 集合
可在以下地址获取:https://huggingface.co/collections/argilla/notus-7b-v1-655529d7c73cb6c830e9555a
💬 聊天界面
在https://argilla-notus-chat-ui.hf.space/与诺图斯聊天(由https://github.com/huggingface/chat-ui提供支持)
引用
由于大部分内容都是从huggingface/alignment-handbook
移植/改编的,我们建议引用他们的工作。
@misc{alignment_handbook2023,
author = {Lewis Tunstall and Edward Beeching and Nathan Lambert and Nazneen Rajani and Alexander M. Rush and Thomas Wolf},
title = {The Alignment Handbook},
year = {2023},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/huggingface/alignment-handbook}}
}
此外,如果您发现本仓库中的任何内容有用,请随意使用以下BibTeX引用:
@misc{notus2023,
author = {Alvaro Bartolome and Gabriel Martin and Daniel Vila},
title = {Notus},
year = {2023},
publisher = {GitHub},
journal = {GitHub Repository},
howpublished = {\url{https://github.com/argilla-io/notus}}
}
[!NOTE] 由于贡献相同,作者按姓氏字母顺序排列。