相关项目
llm_steer
LLM Steer是一个专为大型语言模型设计的Python模块,通过在模型的不同层添加引导向量来实现激活工程。它能够引导模型响应朝向特定主题,并提高模型解决复杂逻辑问题的能力。该模块与transformers库兼容,支持LLaMa、Mistral等多种架构。LLM Steer提供简洁的API,方便用户进行灵活的实验和优化。这个工具为AI研究人员和开发者提供了一种新的方法来增强和定制语言模型的输出。
electra-ko-en-small
TUNiB-Electra是一款韩英双语的自然语言处理模型,扩大了ELECTRA在多语言环境中的应用。通过大规模的韩语语料库训练,该模型在Korean NER、STS、NLI等下游任务中表现优异,同时在英语的CoLA、MRPC、SST等任务中展现出色性能。使用transformers库即可方便地应用此模型,以提高文本分析、情感分类和关系推断等自然语言处理任务的效率。
indo-sentence-bert-base
indo-sentence-bert-base提供印尼语的文本相似度计算和语义搜索功能,通过高维向量实现精准句子比较,适用于集群分析和语义检索,支持HuggingFace和Sentence-Transformers库,具备高效的训练和评估机制。
biomedical-ner-all
该AI模型基于Maccrobat数据集训练,可以识别107种生物医学实体,适用于案例报告等文本工作。通过distilbert-base-uncased构建,拥有低碳排放(0.0279千克)和30.17分钟的训练时间。通过Huggingface API或transformers库,可便捷应用于生物医学领域;教程视频提供详细使用说明。