Project Icon

ailia-models

跨平台AI推理SDK,支持多种编程语言和模型

ailia SDK 是一款跨平台高速AI推理工具,适用于Windows、Mac、Linux、iOS、Android、Jetson和Raspberry Pi平台,并支持Unity (C#)、Python、Rust、Flutter (Dart) 和 JNI。该SDK通过Vulkan和Metal利用GPU增强计算性能。用户可通过pip3安装并使用丰富的预训练模型库,包括动作识别、异常检测和音频处理等领域。最新更新增加了mahalanobis-ad和t5_base_japanese_ner模型。

预训练的先进AI模型集合。

关于ailia SDK

ailia SDK 是一个自包含、跨平台、高速推理的AI SDK。ailia SDK在Windows、Mac、Linux、iOS、Android、Jetson和Raspberry Pi平台上提供统一的C++ API。它还支持Unity(C#)、Python、Rust、Flutter(Dart)和JNI,以实现高效的AI应用。ailia SDK通过Vulkan和Metal广泛利用GPU,实现加速计算。

如何使用

新功能 - ailia SDK现在可以通过"pip3 install ailia"安装!

ailia MODELS教程

ailia MODELS教程 日文版

支持的模型

截至2024年8月9日有340个模型

最新更新

  • 2024.08.09 添加mahalanobis-ad, t5_base_japanese_ner
  • 2024.08.08 添加sdxl-turbo, sd-turbo
  • 2024.08.05 从Transformers迁移到ailia Tokenizer 1.3
  • 2024.07.16 添加grounded_sam
  • 2024.07.12 添加llava
  • 2024.07.09 添加GroundingDINO
  • 更多信息请见我们的Wiki

动作识别

异常检测

模型参考导出自支持的Ailia版本博客
padimPaDiM-Anomaly-Detection-Localization-masterPytorch1.2.6及以上EN JP
spade-pytorchSub-Image Anomaly Detection with Deep Pyramid CorrespondencesPytorch1.2.6及以上
patchcorePatchCore_anomaly_detectionPytorch1.2.6及以上
mahalanobisadMahalanobisAD-pytorchPytorch1.2.9及以上

音频处理

模型参考导出自支持的Ailia版本博客
crnn_audio_classificationcrnn-audio-classificationPytorch1.2.5及以上EN JP
deepspeech2deepspeech.pytorchPytorch1.2.2及以上EN JP
pytorch-dc-ttsEfficiently Trainable Text-to-Speech System Based on Deep Convolutional Networks with Guided AttentionPytorch1.2.6及以上EN JP
unet_source_separationsource_separationPytorch1.2.6及以上EN JP
transformer-cnn-emotion-recognitionCombining Spatial and Temporal Feature Representions of Speech Emotion by Parallelizing CNNs and Transformer-EncodersPytorch1.2.5及以上
auto_speechAutoSpeech: Neural Architecture Search for Speaker RecognitionPytorch1.2.5及以上EN JP
voicefilterVoiceFilterPytorch1.2.7及以上EN JP
whisperWhisperPytorch1.2.10及以上JP
clapCLAPPytorch1.2.6及以上
wespeakerWeSpeakerOnnxruntime1.2.9及以上
tacotron2Tacotron2Pytorch1.2.15及以上JP
silero-vadSilero VADPytorch1.2.15及以上JP
rvcRetrieval-based-Voice-Conversion-WebUIPytorch1.2.12及以上JP
crepetorchcrepePytorch1.2.10及以上JP
vall-e-xVALL-E-XPytorch1.2.15及以上
hifiganHiFi-GANPytorch1.2.9及以上
distil-whisperHugging Face - Distil-WhisperPytorch1.2.16及以上
microsoft clapCLAPPytorch1.2.11及以上
narabasnarabas: Japanese phoneme forced alignment toolPytorch1.2.11及以上
rnnoisernnoiseKeras1.2.15及以上
audioset_tagging_cnnPANNs: Large-Scale Pretrained Audio Neural Networks for Audio Pattern RecognitionPytorch1.2.9及以上
deep music enhancerOn Filter Generalization for Music Bandwidth Extension Using Deep Neural NetworksPytorch1.2.6及以上
pyannote-audioPyannote-audioPytorch1.2.15及以上JP
kotoba-whisperkotoba-whisperPytorch1.2.16及以上
reazon_speechReazonSpeechPytorch1.4.0及以上版本
reazon_speech2ReazonSpeech2Pytorch1.4.0及以上版本
gpt-sovitsGPT-SoVITSPytorch1.4.0及以上版本JP

背景移除

人群计数

深度时尚

深度估计

模型参考来源支持的 Ailia 版本博客
monodepth2Monocular depth estimation from a single imagePytorch1.2.2 及更高版本
midasTowards Robust Monocular Depth Estimation:
Mixing Datasets for Zero-shot Cross-dataset Transfer
Pytorch1.2.4 及更高版本EN JP
fcrn-depthpredictionDeeper Depth Prediction with Fully Convolutional Residual NetworksTensorFlow1.2.6 及更高版本
fast-depthICRA 2019 "FastDepth: Fast Monocular Depth Estimation on Embedded Systems"Pytorch1.2.5 及更高版本
lap-depthLapDepth-releasePytorch1.2.9 及更高版本
hitnetONNX-HITNET-Stereo-Depth-estimationPytorch1.2.9 及更高版本
crestereoONNX-CREStereo-Depth-EstimationPytorch1.2.13 及更高版本
mobilestereonetMobileStereoNetPytorch1.2.13 及更高版本
zoe_depthZoeDepthPytorch1.3.0 及更高版本
模型参考来源支持的Ailia版本博客
:-----------------------::------------::------------::------------::------------:
latent-diffusion-txt2imgLatent Diffusion - txt2imgPytorch1.2.10及以后
latent-diffusion-inpaintingLatent Diffusion - inpaintingPytorch1.2.10及以后
latent-diffusion-superresolutionLatent Diffusion - Super-resolutionPytorch1.2.10及以后
stable-diffusion-txt2imgStable DiffusionPytorch1.2.14及以后JP
control_netControlNetPytorch1.2.15及以后
DA-CLIPDA-CLIPPytorch1.2.16及以后
riffusionRiffusionPytorch1.2.16及以后
marigoldMarigold: Repurposing Diffusion-Based Image Generators for Monocular Depth EstimationPytorch1.2.16及以后
sdxl-turboHugging Face - SDXL-TurboPytorch1.2.16及以后
sd-turboHugging Face - SD-TurboPytorch1.2.16及以后

面部检测

模型参考来源支持的Ailia版本博客
yolov1-faceYOLO-Face-detectionDarknet1.1.0及以后
yolov3-faceFace detection using keras-yolov3Keras1.2.1及以后
blazefaceBlazeFace-PyTorchPytorch1.2.1及以后EN JP
face-mask-detectionFace detection using keras-yolov3Keras1.2.1及以后EN JP
dbfaceDBFace : real-time, single-stage detector for face detection,
with faster speed and higher accuracy
Pytorch1.2.2及以后
retinafaceRetinaFace: Single-stage Dense Face Localisation in the Wild.Pytorch1.2.5及以后JP
anime-face-detectorAnime Face DetectorPytorch1.2.6及以后
face-detection-adasface-detection-adas-0001OpenVINO1.2.5及以后
mtcnnmtcnnKeras1.2.10及以后
模型引用导出自支持的Ailia版本博客
:-----------------------::------------::------------::------------::------------:
vggface2用于人脸识别的VGGFace2数据集Caffe1.1.0及以上
arcfaceArcFace的Pytorch实现Pytorch1.2.1及以上英文 日文
insightfaceInsightFace:2D和3D人脸分析项目Pytorch1.2.5及以上
cosfaceCosFace的Pytorch实现Pytorch1.2.10及以上
facenet_pytorch使用Pytorch进行人脸识别Pytorch1.2.6及以上

人脸识别

面部交换

模型参考导出自支持的 Ailia 版本博客
facefusionFaceFusionONNXRuntime1.2.10 及以上

帧插值

生成对抗网络

手势检测

模型参考导出自支持的 Ailia 版本博客
yolov3-hand使用 keras-yolov3 的人脸检测分支的手检测Keras1.2.1 及以上
hand_detection_pytorchhand-detection.PyTorchPytorch1.2.2 及以上
blazepalmMediaPipePyTorchPytorch1.2.5 及以上

手势识别

模型参考导出自支持的 Ailia 版本博客
blazehandMediaPipePyTorchPytorch1.2.5 及以上英文 日文
hand3dColorHandPose3D networkTensorFlow1.2.5 及以上
minimal-handMinimal HandTensorFlow1.2.8 及以上
v2v-posenetV2V-PoseNetPytorch1.2.6 及以上
hands_segmentation_pytorchhands-segmentation-pytorchPytorch1.2.10 及以上

图像描述

模型参考导出自支持的 Ailia 版本博客
illustration2vecIllustration2VecCaffe1.2.2 及以上
image_captioning_pytorchImage Captioning pytorchPytorch1.2.5 及以上英文 日文
blip2Hugging Face - BLIP-2Pytorch1.2.16 及以上

图像分类

图像修复

图像操作

图像修复

模型参考导出自支持的Ailia版本博客
nafnetNAFNet: Nonlinear Activation Free Network for Image RestorationPytorch1.2.10及以上

图像分割

| | 模型 | 参考 | 导出自 | 支持的 Ailia 版本 | 博客 |
|:-----------|------------:|:------------:|:------------:|:------------:|:------------:|
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/86482ba2-87bc-4775-b500-084913324d00.png" width=128px>](image_segmentation/deeplabv3/) | [deeplabv3](/image_segmentation/deeplabv3/) | [DeepLab v3+的Xception65主干网络](https://github.com/tensorflow/models/tree/master/research/deeplab) | Chainer | 1.2.0及更高版本 |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/40d6b198-22e0-4a76-b050-ebc2515a97ee.png" width=128px>](image_segmentation/hrnet_segmentation/) | [hrnet_segmentation](/image_segmentation/hrnet_segmentation/) | [高分辨率网络(HRNets)用于语义分割](https://github.com/HRNet/HRNet-Semantic-Segmentation) | Pytorch | 1.2.1及更高版本 | |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/1e320bcc-53eb-406d-aa8a-515fcd22eb59.png" width=128px>](image_segmentation/hair_segmentation/) | [hair_segmentation](/image_segmentation/hair_segmentation/) | [移动设备上的头发分割](https://github.com/thangtran480/hair-segmentation) | Keras | 1.2.1及更高版本 | |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/04966dfb-1ece-4e10-81e3-3889bb017322.png" width=128px>](image_segmentation/pspnet-hair-segmentation/) | [pspnet-hair-segmentation](/image_segmentation/pspnet-hair-segmentation/) | [pytorch-头发分割](https://github.com/YBIGTA/pytorch-hair-segmentation) | Pytorch | 1.2.2及更高版本 | |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/25de63d3-8862-4074-bca6-d44c10cc2650.png" width=128px>](image_segmentation/human_part_segmentation/) | [human_part_segmentation](/image_segmentation/human_part_segmentation/) | [人体解析的自我纠正](https://github.com/PeikeLi/Self-Correction-Human-Parsing) | Pytorch | 1.2.4及更高版本 | [EN](https://medium.com/axinc-ai/humanpartsegmentation-a-machine-learning-model-for-segmenting-human-parts-cd7e39480714) [JP](https://medium.com/axinc/humanpartsegmentation-%E5%8B%95%E7%94%BB%E3%81%8B%E3%82%89%E4%BD%93%E3%81%AE%E9%83%A8%E4%BD%8D%E3%82%92%E3%82%BB%E3%82%B0%E3%83%A1%E3%83%B3%E3%83%86%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3%E3%81%99%E3%82%8B%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%83%A2%E3%83%87%E3%83%AB-e8a0e405255) |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/86449775-771e-413d-928f-49cf76ba9ffd.png" width=128px>](image_segmentation/semantic-segmentation-mobilenet-v3/) | [semantic-segmentation-mobilenet-v3](/image_segmentation/semantic-segmentation-mobilenet-v3) | [使用MobileNetV3进行语义分割](https://github.com/OniroAI/Semantic-segmentation-with-MobileNetV3) | TensorFlow | 1.2.5及更高版本 | |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/0e4dd8bc-92a9-4125-bb4c-d30f23e1213b.jpg" width=128px>](image_segmentation/pytorch-unet/) | [pytorch-unet](/image_segmentation/pytorch-unet/) | [Pytorch-Unet](https://github.com/milesial/Pytorch-UNet) | Pytorch | 1.2.5及更高版本 | |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/c181f4bc-2cfa-4804-aeeb-60267951122f.png" width=128px>](image_segmentation/pytorch-enet/) | [pytorch-enet](/image_segmentation/pytorch-enet/) | [PyTorch-ENet](https://github.com/davidtvs/PyTorch-ENet) | Pytorch | 1.2.8及更高版本 | |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/2662f1e7-4ee3-4091-b743-4000ae4335c2.png" width=128px>](image_segmentation/yet-another-anime-segmenter/) | [yet-another-anime-segmenter](/image_segmentation/yet-another-anime-segmenter/) | [Yet Another Anime Segmenter](https://github.com/zymk9/Yet-Another-Anime-Segmenter) | Pytorch | 1.2.6及更高版本 | |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/6dc9b9f1-6ac0-492d-82b7-1317637fd6b6.png" width=128px>](image_segmentation/swiftnet/) | [swiftnet](/image_segmentation/swiftnet/) | [SwiftNet](https://github.com/orsic/swiftnet) | Pytorch | 1.2.6及更高版本 | |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/926da1b5-88a0-4188-bbd4-9043c5afc654.png" width=128px>](image_segmentation/dense_prediction_transformers/) | [dense_prediction_transformers](/image_segmentation/dense_prediction_transformers/) | [用于密集预测的视觉Transformer](https://github.com/intel-isl/DPT)   | Pytorch | 1.2.7及更高版本 | [EN](https://medium.com/axinc-ai/dpt-segmentation-model-using-vision-transformer-b479f3027468) [JP](https://medium.com/axinc/dpt-vision-transformer%E3%82%92%E4%BD%BF%E7%94%A8%E3%81%97%E3%81%9F%E3%82%BB%E3%82%B0%E3%83%A1%E3%83%B3%E3%83%86%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3%E3%83%A2%E3%83%87%E3%83%AB-88db4842b4a7) |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/5d7ebfb6-aa18-4f59-b800-60637ae534d8.png" width=128px>](image_segmentation/paddleseg/) | [paddleseg](/image_segmentation/paddleseg/) | [PaddleSeg](https://github.com/PaddlePaddle/PaddleSeg/tree/release/2.3/contrib/CityscapesSOTA) | Pytorch | 1.2.7及更高版本 | [EN](https://medium.com/axinc-ai/paddleseg-highly-accurate-segmentation-model-using-hierarchical-attention-18e69363dc2a) [JP](https://medium.com/axinc/paddleseg-%E9%9A%8E%E5%B1%A4%E7%9A%84%E3%81%AA%E3%82%A2%E3%83%86%E3%83%B3%E3%82%B7%E3%83%A7%E3%83%B3%E3%82%92%E4%BD%BF%E7%94%A8%E3%81%97%E3%81%9F%E9%AB%98%E7%B2%BE%E5%BA%A6%E3%81%AA%E3%82%BB%E3%82%B0%E3%83%A1%E3%83%B3%E3%83%86%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3%E3%83%A2%E3%83%87%E3%83%AB-acc89bf50423) |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/49c8de46-512a-46e2-bee5-6965a9cb12ee.png" width=128px>](image_segmentation/pp_liteseg/) | [pp_liteseg](/image_segmentation/pp_liteseg/) | [PP-LiteSeg](https://github.com/PaddlePaddle/PaddleSeg/tree/develop/configs/pp_liteseg) | Pytorch | 1.2.10及更高版本 |  |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/dabc6212-5b12-46da-8f1b-a0660e55b638.jpg" width=128px>](image_segmentation/suim/) | [suim](/image_segmentation/suim/) | [SUIM](https://github.com/IRVLab/SUIM) | Keras | 1.2.6及更高版本 |  |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/724e5404-a272-4eba-afa8-eb7dbf0f3472.png" width=128px>](image_segmentation/group_vit/) | [group_vit](/image_segmentation/group_vit/) | [GroupViT](https://github.com/NVlabs/GroupViT) | Pytorch | 1.2.10及更高版本 |  |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/de9b5887-9c5a-4f46-ba5c-519b575b8409.png" width=128px>](image_segmentation/anime-segmentation/) | [anime-segmentation](/image_segmentation/anime-segmentation/) | [动漫分割](https://github.com/SkyTNT/anime-segmentation) | Pytorch | 1.2.9及更高版本 |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/00b27b55-6b7d-45f0-9401-4fa29c4d3b86.png" width=128px>](image_segmentation/segment-anything/) | [segment-anything](/image_segmentation/segment-anything/) | [Segment Anything](https://github.com/facebookresearch/segment-anything) | Pytorch | 1.2.16及更高版本 |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/e3a704dc-e733-40d5-bf3b-047adb2218e3.png" width=128px>](image_segmentation/tusimple-DUC/) | [tusimple-DUC](/image_segmentation/tusimple-DUC/) | [TuSimple-DUC](https://github.com/TuSimple/TuSimple-DUC) | Pytorch | 1.2.10及更高版本 |  |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/2e9421ff-ba09-4528-a194-6c68bf5b6ac5.jpg" width=128px>](image_segmentation/pytorch-fcn/) | [pytorch-fcn](/image_segmentation/pytorch-fcn/) | [pytorch-fcn](https://github.com/wkentaro/pytorch-fcn) | Pytorch | 1.3.0及更高版本 |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/fc795dec-3e8f-4a08-b243-75d1b0a7a240.png" width=128px>](image_segmentation/grounded_sam/) | [grounded_sam](/image_segmentation/grounded_sam/) | [Grounded-SAM](https://github.com/IDEA-Research/Grounded-Segment-Anything/tree/main) | Pytorch | 1.2.16及更高版本 |

## 大型语言模型
| 模型 | 参考 | 导出自 | 支持的 Ailia 版本 | 博客 |
|------------:|:------------:|:------------:|:------------:|:------------:|
|[llava](/large_language_model/llava) | [LLaVA](https://github.com/haotian-liu/LLaVA) | Pytorch | 1.2.16及更高版本 | |

## 地标分类
模型参考文献导出自支持的 Ailia 版本博客
landmarks_classifier_asiaLandmarks classifier_asia_V1.1TensorFlow Hub1.2.4 及以上版本EN JP
places365Release of Places365-CNNsPytorch1.2.5 及以上版本

线段检测

模型参考文献导出自支持的 Ailia 版本博客
mlsdM-LSD: Towards Light-weight and Real-time Line Segment DetectionTensorFlow1.2.8 及以上版本EN JP
dexinedDexiNed: Dense Extreme Inception Network for Edge DetectionPytorch1.2.5 及以上版本

低光照图像增强

模型参考文献导出自支持的 Ailia 版本博客
agllnetAGLLNet: Attention Guided Low-light Image Enhancement (IJCV 2021)Pytorch1.2.9 及以上版本EN JP

自然语言处理

| Model | 参考资料 | 导出平台 | 支持的 Ailia 版本 | 博客 |
|------------:|:------------:|:------------:|:------------:|:------------:|
|[bert](/natural_language_processing/bert) | [pytorch-pretrained-bert](https://pypi.org/project/pytorch-pretrained-bert/) | Pytorch | 1.2.2 或更高 | [EN](https://medium.com/axinc-ai/bert-a-machine-learning-model-for-efficient-natural-language-processing-aef3081c24e8) [JP](https://medium.com/axinc/bert-%E8%87%AA%E7%84%B6%E8%A8%80%E8%AA%9E%E5%87%A6%E7%90%86%E3%82%92%E5%8A%B9%E7%8E%87%E7%9A%84%E3%81%AB%E5%AD%A6%E7%BF%92%E3%81%99%E3%82%8B%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%83%A2%E3%83%87%E3%83%AB-3a9c27d78cf8) |
|[bert_maskedlm](/natural_language_processing/bert_maskedlm) | [huggingface/transformers](https://github.com/huggingface/transformers) | Pytorch | 1.2.5 或更高 |
|[bert_ner](/natural_language_processing/bert_ner) | [huggingface/transformers](https://github.com/huggingface/transformers) | Pytorch | 1.2.5 或更高 |
|[bert_question_answering](/natural_language_processing/bert_question_answering) | [huggingface/transformers](https://github.com/huggingface/transformers) | Pytorch | 1.2.5 或更高 |
|[bert_sentiment_analysis](/natural_language_processing/bert_sentiment_analysis) | [huggingface/transformers](https://github.com/huggingface/transformers) | Pytorch | 1.2.5 或更高 |
|[bert_zero_shot_classification](/natural_language_processing/bert_zero_shot_classification) | [huggingface/transformers](https://github.com/huggingface/transformers) | Pytorch | 1.2.5 或更高 |
|[bert_tweets_sentiment](/natural_language_processing/bert_tweets_sentiment) | [huggingface/transformers](https://github.com/huggingface/transformers) | Pytorch | 1.2.5 或更高 |
|[gpt2](/natural_language_processing/gpt2) | [GPT-2](https://github.com/onnx/models/blob/master/text/machine_comprehension/gpt-2/README.md) | Pytorch | 1.2.7 或更高 |
|[rinna_gpt2](/natural_language_processing/rinna_gpt2) | [japanese-pretrained-models](https://github.com/rinnakk/japanese-pretrained-models)   | Pytorch | 1.2.7 或更高 |
|[fugumt-en-ja](/natural_language_processing/fugumt-en-ja) | [Fugu-Machine Translator](https://github.com/s-taka/fugumt)   | Pytorch | 1.2.9 或更高 | [JP](https://medium.com/axinc/fugumt-%E8%8B%B1%E8%AA%9E%E3%81%8B%E3%82%89%E6%97%A5%E6%9C%AC%E8%AA%9E%E3%81%B8%E3%81%AE%E7%BF%BB%E8%A8%B3%E3%82%92%E8%A1%8C%E3%81%86%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%83%A2%E3%83%87%E3%83%AB-46b839c1b4ae) |
|[fugumt-ja-en](/natural_language_processing/fugumt-ja-en) | [Fugu-Machine Translator](https://github.com/s-taka/fugumt)   | Pytorch | 1.2.10 或更高 |
|[bert_sum_ext](/natural_language_processing/bert_sum_ext) | [BERTSUMEXT](https://github.com/dmmiller612/bert-extractive-summarizer)   | Pytorch | 1.2.7 或更高 |
|[sentence_transformers_japanese](/natural_language_processing/sentence_transformers_japanese) | [sentence transformers](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2) | Pytorch | 1.2.7 或更高 | [JP](https://medium.com/axinc/sentencetransformer-%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88%E3%81%8B%E3%82%89embedding%E3%82%92%E5%8F%96%E5%BE%97%E3%81%99%E3%82%8B%E8%A8%80%E8%AA%9E%E5%87%A6%E7%90%86%E3%83%A2%E3%83%87%E3%83%AB-b7d2a9bb2c31) |
|[presumm](/natural_language_processing/presumm) | [PreSumm](https://github.com/nlpyang/PreSumm)   | Pytorch | 1.2.8 或更高|
|[t5_base_japanese_title_generation](/natural_language_processing/t5_base_japanese_title_generation) | [t5-japanese](https://github.com/sonoisa/t5-japanese) | Pytorch | 1.2.13 或更高 | [JP](https://medium.com/axinc/t5-%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88%E3%81%8B%E3%82%89%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88%E3%82%92%E7%94%9F%E6%88%90%E3%81%99%E3%82%8B%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%83%A2%E3%83%87%E3%83%AB-602830bdc5b4) |
|[bertjsc](/natural_language_processing/bertjsc) | [bertjsc](https://github.com/er-ri/bertjsc) | Pytorch | 1.2.15 或更高 |
|[multilingual-e5](/natural_language_processing/multilingual-e5) | [multilingual-e5-base](https://huggingface.co/intfloat/multilingual-e5-base) | Pytorch | 1.2.15 或更高 | [JP](https://medium.com/axinc/multilingual-e5-%E5%A4%9A%E8%A8%80%E8%AA%9E%E3%81%AE%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88%E3%82%92embedding%E3%81%99%E3%82%8B%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%83%A2%E3%83%87%E3%83%AB-71f1dec7c4f0) |
|[bert_insert_punctuation](/natural_language_processing/bert_insert_punctuation) | [bert-japanese](https://github.com/cl-tohoku/bert-japanese) | Pytorch | 1.2.15 或更高 |
|[t5_whisper_medical](/natural_language_processing/t5_whisper_medical) | 使用 t5 进行医学术语纠错 | Pytorch | 1.2.13 或更高 | |
|[t5_base_summarization](/natural_language_processing/t5_base_japanese_summarization) | [t5-japanese](https://github.com/sonoisa/t5-japanese) | Pytorch | 1.2.13 或更高 |
|[glucose](/natural_language_processing/glucose) | [GLuCoSE (General Luke-based Contrastive Sentence Embedding)-base-Japanese](https://huggingface.co/pkshatech/GLuCoSE-base-ja) | Pytorch | 1.2.15 或更高 |
|[cross_encoder_mmarco](/natural_language_processing/cross_encoder_mmarco) | [jeffwan/mmarco-mMiniLMv2-L12-H384-v](https://huggingface.co/jeffwan/mmarco-mMiniLMv2-L12-H384-v1) | Pytorch | 1.2.10 或更高 | [JP](https://medium.com/axinc/crossencodermmarco-%E8%B3%AA%E5%95%8F%E6%96%87%E3%81%A8%E5%9B%9E%E7%AD%94%E6%96%87%E3%81%AE%E9%A1%9E%E4%BC%BC%E5%BA%A6%E3%82%92%E8%A8%88%E7%AE%97%E3%81%99%E3%82%8B%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%83%A2%E3%83%87%E3%83%AB-c90b35e9fc09)|
|[soundchoice-g2p](/natural_language_processing/soundchoice-g2p) | [Hugging Face - speechbrain/soundchoice-g2p](https://huggingface.co/speechbrain/soundchoice-g2p) | Pytorch | 1.2.16 或更高 | |
|[g2p_en](/natural_language_processing/g2p_en) | [g2p_en](https://github.com/Kyubyong/g2p) | Pytorch | 1.2.14 或更高 | |
|[t5_base_japanese_ner](/natural_language_processing/t5_base_japanese_ner) |  [t5-japanese](https://github.com/sonoisa/t5-japanese) | Pytorch | 1.2.13 或更高 |
|[japanese-reranker-cross-encoder](/natural_language_processing/japanese-reranker-cross-encoder) | [hotchpotch/japanese-reranker-cross-encoder-large-v1](https://huggingface.co/hotchpotch/japanese-reranker-cross-encoder-large-v1) | Pytorch | 1.2.16 或更高 |

## 网络入侵检测

| Model | 参考资料 | 导出平台 | 支持的 Ailia 版本 | 博客 |
|------------:|:------------:|:------------:|:------------:|:------------:|
| [bert-network-packet-flow-header-payload](/network_intrusion_detection/bert-network-packet-flow-header-payload/) | [bert-network-packet-flow-header-payload](https://huggingface.co/rdpahalavan/bert-network-packet-flow-header-payload)| Pytorch | 1.2.10 或更高 | |
| [falcon-adapter-network-packet](/network_intrusion_detection/falcon-adapter-network-packet/) | [falcon-adapter-network-packet](https://huggingface.co/rdpahalavan/falcon-adapter-network-packet)| Pytorch | 1.2.10 或更高 | |

## 神经渲染

| | Model | 参考资料 | 导出平台 | 支持的 Ailia 版本 | 博客 |
|:-----------|------------:|:------------:|:------------:|:------------:|:------------:|
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/0f455f74-1f46-4bb6-a0b4-d2abb0164621.png" width=128px>](neural_rendering/nerf/) | [nerf](/neural_rendering/nerf/) | [NeRF: Neural Radiance Fields](https://github.com/bmild/nerf) | Tensorflow | 1.2.10 或更高 | [EN](https://medium.com/axinc-ai/nerf-machine-learning-model-to-generate-and-render-3d-models-from-multiple-viewpoint-images-599631dc2075) [JP](https://medium.com/axinc/nerf-%E8%A4%87%E6%95%B0%E3%81%AE%E8%A6%96%E7%82%B9%E3%81%AE%E7%94%BB%E5%83%8F%E3%81%8B%E3%82%893d%E3%83%A2%E3%83%87%E3%83%AB%E3%82%92%E7%94%9F%E6%88%90%E3%81%97%E3%81%A6%E3%83%AC%E3%83%B3%E3%83%80%E3%83%AA%E3%83%B3%E3%82%B0%E3%81%99%E3%82%8B%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%83%A2%E3%83%87%E3%83%AB-2d6bee7ff22f) |
| [<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/e34e7237-6308-4e49-b2a9-ba04fbf94180.gif" width=128px>](neural_rendering/tripo_sr/) | [TripoSR](/neural_rendering/tripo_sr/) | [TripoSR](https://github.com/VAST-AI-Research/TripoSR) | Pytorch | 1.2.6 或更高 |

## 不适宜内容检测
模型参考资料导出自支持的 Ailia 版本博客
clip-based-nsfw-detectorCLIP-based-NSFW-DetectorKeras1.2.10 及之后版本JP

物体检测

模型参考来源支持的 Ailia 版本博客
yolov1-tinyYOLO: 实时物体检测Darknet1.1.0 及之后JP
yolov2YOLO: 实时物体检测Pytorch1.2.0 及之后
yolov2-tinyYOLO: 实时物体检测Pytorch1.2.6 及之后
yolov3YOLO: 实时物体检测ONNX Runtime1.2.1 及之后EN JP
yolov3-tinyYOLO: 实时物体检测ONNX Runtime1.2.1 及之后
yolov4Pytorch-YOLOv4Pytorch1.2.4 及之后EN JP
yolov4-tinyPytorch-YOLOv4Pytorch1.2.5 及之后
yolov5yolov5Pytorch1.2.5 及之后EN JP
yolov6YOLOV6Pytorch1.2.10 及之后
yolov7YOLOv7Pytorch1.2.7 及之后
yolov8YOLOv8Pytorch1.2.14.1 及之后
yolov8-segYOLOv8Pytorch1.2.14.1 及之后
yolov9YOLOv9Pytorch1.2.10 及之后
yoloryolorPytorch1.2.5 及之后
yoloxYOLOXPytorch1.2.6 及之后EN JP
yolox-ti-liteedgeai-yoloxPytorch1.2.9 及之后
yolovYOLOVPytorch1.2.10 及之后
mobilenet_ssdMobileNetV1, MobileNetV2, VGG based SSD/SSD-lite implementation in PytorchPytorch1.2.1 及之后EN JP
maskrcnnMask R-CNN: 实时神经网络物体实例分割Pytorch1.2.3 及之后
m2detM2Det: 基于多层次特征金字塔网络的单阶段物体检测器Pytorch1.2.3及更高版本EN JP
centernetCenterNet: 将物体视为点Pytorch1.2.1及更高版本EN JP
pedestrian_detectionPedestrian-Detection-on-YOLOv3_Research-and-APPKeras1.2.1及更高版本
efficientdetEfficientDet: 在PyTorch中可扩展且高效的物体检测Pytorch1.2.6及更高版本
nanodetNanoDetPytorch1.2.6及更高版本
mobile_object_localizermobile_object_localizer_v1TensorFlow Hub1.2.6及更高版本EN JP
sku110k-densedetSKU110K-DenseDetPytorch1.2.9及更高版本EN JP
traffic-sign-detection交通标志检测Tensorflow1.2.10及更高版本EN JP
detic使用图像级监督检测两万个类别Pytorch1.2.10及更高版本EN JP
picodetPP-PicoDetPytorch1.2.10及更高版本
yolactYou Only Look At CoefficienTsPytorch1.2.6及更高版本
fastest-detFastestDetPytorch1.2.5及更高版本
dab-detrDAB-DETRPytorch1.2.12及更高版本
poly_yoloPoly YOLOKeras1.2.6及更高版本
glipGLIPPytorch1.2.13及更高版本
crowd_det人群场景中的检测Pytorch1.2.13及更高版本
footandballFootAndBall: 集成的球员和球检测器Pytorch1.2.0及更高版本
qrcode_wechatqrcodeqrcode_wechatqrcodeCaffe1.2.15及更高版本
layout_parsingunstructured-inferencePytorch1.2.9及以上
damo_yoloDAMO-YOLOPytorch1.2.9及以上
groundingdinoGrounding DINOPytorch1.2.16及以上

目标检测 3D

模型参考导出自支持的 Ailia 版本博客
3d_bbox使用深度学习和几何学进行3D边界框估计Pytorch1.2.6 及以上
3d-object-detection.pytorch3d-object-detection.pytorchPytorch1.2.8 及以上EN JP
mediapipe_objectronMediaPipe ObjectronTensorFlow Lite1.2.5 及以上
egonetEgoNetPytorch1.2.9 及以上
d4lcnD4LCNPytorch1.2.9 及以上
did_m3dDID M3DPytorch1.2.11 及以上

目标跟踪

模型参考导出自支持的 Ailia 版本博客
deepsort使用 PyTorch 的 Deep SortPytorch1.2.3 及以上EN JP
person_reid_baseline_pytorchUTS-Person-reID-PracticalPytorch1.2.6 及以上
abd_net注意但多样的人员再识别Pytorch1.2.7 及以上
siam-motSiamMOTPytorch1.2.9 及以上
bytetrackByteTrackPytorch1.2.5 及以上EN JP
qd-3dt单目准密3D目标跟踪Pytorch1.2.11 及以上
strong_sortStrongSORTPytorch1.2.15 及以上
centroids-reid质心在图像检索中的非同寻常效果Pytorch1.2.9 及以上
deepsort_vehicle多摄像头实时目标跟踪Pytorch1.2.9 及以上

光流估计

模型参考导出自支持的 Ailia 版本博客
raftRAFT: 光流的循环所有对字段变换Pytorch1.2.6 及以上EN JP

点云分割

模型参考导出自支持的 Ailia 版本博客
pointnet_pytorchPointNet.pytorchPytorch1.2.6 及以上

姿态估计

3D姿态估计

            | | 模型 | 参考 | 导出自 | 支持的 Ailia 版本 | 博客 |

|:-----------|------------:|:------------:|:------------:|:------------:|:------------:| | |lightweight-human-pose-estimation-3d | PyTorch 实时 3D 多人姿态估计 demo。
OpenVINO 后端可用于快速的 CPU 推理。
| Pytorch | 1.2.1及更高 | | | |3d-pose-baseline | 一个简单的 TensorFlow 3D 人体姿态估计基线。
在 ICCV 17 上展示。
| TensorFlow | 1.2.3及更高 | | | |pose-hg-3d | Towards 3D Human Pose Estimation in the Wild: a Weakly-supervised Approach | Pytorch | 1.2.6及更高 | | | |blazepose-fullbody | MediaPipe | TensorFlow Lite | 1.2.5及更高 | EN JP | | |3dmppe_posenet | 来自单个 RGB 图像的 3D 多人姿态估计的“相机距离感知自上而下方法”的 PoseNet | Pytorch | 1.2.6及更高 | | | |gast | 视频中 3D 人体姿态估计的图注意空间时间卷积网络 (GAST-Net) | Pytorch | 1.2.7及更高 | EN JP | | |mediapipe_pose_world_landmarks | MediaPipe 实际坐标点 | TensorFlow Lite | 1.2.10及更高 | |

道路检测

模型参考导出自支持的 Ailia 版本博客
codes-for-lane-detection车道检测代码Pytorch1.2.6及更高EN JP
roneldRONELD 车道检测Pytorch1.2.6及更高
road-segmentation-adasroad-segmentation-adas-0001OpenVINO1.2.5及更高
cdnetCDNetPytorch1.2.5及更高
lstrLSTRPytorch1.2.8及更高
ultra-fast-lane-detectionUltra-Fast-Lane-DetectionPytorch1.2.6及更高
yolopYOLOPPytorch1.2.6及更高
hybridnetsHybridNetsPytorch1.2.6及更高
polylanenetPolyLaneNetPytorch1.2.9及更高

旋转预测

模型参考导出自支持的 Ailia 版本博客
rotnet用于预测图像旋转角度以校正其方向的 CNNKeras1.2.1及更高

样式迁移

超分辨率

文本检测

模型参考文献来源支持的 Ailia 版本博客
craft_pytorchCRAFT: 文本检测的字符区域感知Pytorch1.2.2 及以上
pixel_linkPixel-LinkTensorFlow1.2.6 及以上
eastEAST: 一种高效且准确的场景文本检测器TensorFlow1.2.6 及以上

文本识别

模型参考导出自支持的 Ailia 版本博客
etl日本字符分类Keras1.1.0 及以上JP
deep-text-recognition-benchmarkdeep-text-recognition-benchmarkPytorch1.2.6 及以上
crnn.pytorch卷积递归神经网络Pytorch1.2.6 及以上
paddleocrPaddleOCR:基于 PaddlePaddle 的多语言 OCR 工具包Pytorch1.2.6 及以上EN JP
easyocr支持 80 多种语言的即用型 OCRPytorch1.2.6 及以上
ndlocr_text_recognitionNDL OCRPytorch1.2.5 及以上

时间序列预测

模型参考导出自支持的 Ailia 版本博客
informer2020Informer:用于长序列时间序列预测的高效转换器 (AAAI'21 最佳论文)Pytorch1.2.10 及以上

车辆识别

商业模型

模型参考导出自支持的 Ailia 版本博客
acculus-poseAcculus, Inc.Caffe1.2.3 及以上

其他语言

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号