Project Icon

sage

多语言拼写纠正与文本增强工具包

SAGE是一个开源的多语言拼写纠正和文本增强工具包。该项目提供预训练的Transformer模型用于拼写纠正,支持多种语言。SAGE还包含数据增强算法,可模拟真实拼写错误。此外,SAGE提供评估功能,用于衡量拼写纠正工具的性能。这一工具包为处理拼写问题提供了完整解决方案。

SAGE

许可证 发布 论文 文档状态

多语言拼写纠正、错误生成和评估

SAGE(通过增强和生成分布模拟的拼写检查)是处理拼写问题时所需的完整解决方案:

新闻

🔥 [2024-01-18]:我们的论文《通过多领域和多语言自然拼写错误模拟的生成式拼写纠正方法》被EACL 2024会议接受!

💥 [2024-04-11]:SAGE v1.1.0终于发布:关于此次发布详情的综合说明可以在这里找到。

目录

安装

常规安装

git clone https://github.com/ai-forever/sage.git
cd sage
pip install .

要安装使用ERRANT-based指标时需要的额外要求,请运行

pip install -e ".[errant]"

或者只需

pip install -e .[errant]

可编辑安装

git clone https://github.com/ai-forever/sage.git
cd sage
pip install -e .

然后按上述方式安装额外要求。

快速演示

让我们生成一些错误文本:

import sage
from sage.spelling_corruption import SBSCConfig, SBSCCorruptor
from sage.utils import DatasetsAvailable

text = "Заметьте, не я это предложил!"

# 从一个包含医疗病历错误的数据集实例化SBSC错误生成器
config = SBSCConfig(
    reference_dataset_name_or_path=DatasetsAvailable.MedSpellchecker.name,
    reference_dataset_split="test"
)
corruptor = SBSCCorruptor.from_config(config)

corruptor.corrupt(text, seed=1)
# 'Заиетьте, не я эт о пред ложил!'

... 现在使用Augmentex:

import sage
from sage.spelling_corruption import WordAugConfig, WordAugCorruptor

text = "Заметьте, не я это предложил!"

# 使用自定义参数集实例化WordAugCorruptor错误生成器
config = WordAugConfig(
    min_aug=1,
    max_aug=5,
    unit_prob=0.4,
)
corruptor = WordAugCorruptor.from_config(config)

corruptor.corrupt(text, seed=1)
# 'это не предложил! Заметьте, я'

... 或者对英语:

import os
from sage.spelling_corruption import SBSCConfig, SBSCCorruptor

text = "Screw you guys, I am going home. (c)"

# 从JFLEG数据集实例化SBSC错误生成器
config = SBSCConfig(
    lang="en",
    reference_dataset_name_or_path=os.path.join("data", "example_data", "jfleg"),
)
corruptor = SBSCCorruptor.from_config(config)

corruptor.corrupt(text, seed=1)
# 'Screw you kuys, I am going home. (c)'

现在我们可以使用我们的模型将初始文本恢复:

from sage.spelling_correction import AvailableCorrectors
from sage.spelling_correction import RuM2M100ModelForSpellingCorrection, T5ModelForSpellingCorruption

text_ru = "Замтьте не я это предложил"
text_en = "Screw you kuys, I am going home. (c)"
corrector_fred = T5ModelForSpellingCorruption.from_pretrained(AvailableCorrectors.sage_fredt5_large.value)
corrector_m2m = RuM2M100ModelForSpellingCorrection.from_pretrained(AvailableCorrectors.m2m100_1B.value)
corrector_en = T5ModelForSpellingCorruption.from_pretrained(AvailableCorrectors.ent5_large.value)

print(corrector_fred.correct(text_ru))
# ['Заметьте, не я это предложил.']

print(corrector_m2m.correct(text_ru))
# ['Заметьте не я это предложил']

print(corrector_en.correct(text_en, prefix="grammar: "))
# ['Screw you guys, I am going home. (c)']

在开放的拼写纠正基准测试上评估模型性能:

import os
import torch
from sage.utils import DatasetsAvailable
from sage.spelling_correction import AvailableCorrectors
from sage.spelling_correction import T5ModelForSpellingCorruption

corrector_fred_95m = T5ModelForSpellingCorruption.from_pretrained(AvailableCorrectors.sage_fredt5_distilled_95m.value)
corrector_mt5 = T5ModelForSpellingCorruption.from_pretrained(AvailableCorrectors.sage_mt5_large.value)

corrector_fred_95m.model.to(torch.device("cuda:0"))
corrector_mt5.model.to(torch.device("cuda:0"))

metrics = corrector_fred_95m.evaluate("RUSpellRU", metrics=["errant", "ruspelleval"], batch_size=32)
print(metrics)
# {'CASE_Precision': 94.41, 'CASE_Recall': 92.55, 'CASE_F1': 93.47, 'SPELL_Precision': 77.52, 'SPELL_Recall': 64.09, 'SPELL_F1': 70.17, 'PUNCT_Precision': 86.77, 'PUNCT_Recall': 80.59, 'PUNCT_F1': 83.56, 'YO_Precision': 46.21, 'YO_Recall': 73.83, 'YO_F1': 56.84, 'Precision': 83.48, 'Recall': 74.75, 'F1': 78.87}

metrics = corrector_mt5.evaluate("/content/sage/data/example_data/jfleg", metrics=["ruspelleval"], batch_size=16)
print(metrics)
# {'Precision': 75.94, 'Recall': 88.15, 'F1': 81.59}

注意:如果你在Colab中运行代码片段,你可能会遇到内存错误,所以要管理评估过程以满足可用设备的限制。作为可行的解决方法,你可以执行

del corrector_fred_95m.model

来释放一些空间。

拼写错误生成

我们实现了两种拼写错误生成方法。基于统计的拼写错误生成(SBSC)旨在模仿人类在犯错时的行为。而Augmentex则依赖于基于规则的启发式方法和常见错误,特别是在使用键盘输入文本时所犯的错误。

🚀 这两种方法都证明了它们对拼写纠正系统的有效性,并取得了显著的性能提升,详细报告见我们的论文

基于统计的拼写错误生成(SBSC)

这种方法在我们的另一篇论文和这个🗣️演讲中有详细描述。

简而言之,SBSC遵循两个简单步骤:

  • 🧠 分析错误,其类型和在源文本中的位置;
  • ✏️ 在新句子中复现源文本中的错误;

🧠 为了分析源句子中的错误,我们需要其相应的纠正,以构建Levenshtein矩阵,从右下角入口开始反向遍历,并确定错误的确切位置和类型。然后我们汇总所有获得的统计数据,并将其归一化为有效的离散分布。

✏️ "复现"步骤更加简单:我们只需从相应的分布中抽样每个句子的错误数量、类型和相对位置,并将它们应用到正确的句子上。

如前所述,你需要一个平行数据集来"拟合"SBSC。我们提供了一组四个包含自然错误的数据集,涵盖了广泛的领域:

  • RUSpellRU: 从LiveJournal收集的文本,手动纠正了拼写错误;
  • MultidomainGold: 来自7个文本来源的示例,包括开放网络、新闻、社交媒体、评论、字幕、政策文件和文学作品;
  • MedSpellChecker: 来自医疗病史的错误文本;
  • GitHubTypoCorpusRu: GitHub提交中的拼写错误和typo;

你可以像这样简单地使用它们:

import sage
from sage.spelling_corruption import SBSCConfig, SBSCCorruptor
from sage.utils import DatasetsAvailable

# 从医疗病史错误数据集实例化SBSC错误生成器
config = SBSCConfig(
    reference_dataset_name_or_path=DatasetsAvailable.MedSpellchecker.name,
    reference_dataset_split="test"
)
corruptor = SBSCCorruptor.from_config(config)

...或者你可以从本地存储的数据集初始化你的SBSC:

import os
from sage.spelling_corruption import SBSCConfig, SBSCCorruptor

# 从JFLEG数据集实例化SBSC错误生成器
config = SBSCConfig(
    lang="en",
    reference_dataset_name_or_path=os.path.join("data", "example_data", "jfleg"),
)
corruptor = SBSCCorruptor.from_config(config)

✅ 要检查SBSC实际上近似原始错误的效果如何,你可以绘制原始和合成生成分布的并排图表:



要访问这些图表,你可以简单地:

from sage.utils import load_available_dataset_from_hf, draw_and_save_errors_distributions_comparison_charts
from sage.spelling_corruption.sbsc.labeler import process_mistypings
from sage.spelling_corruption import SBSCCorruptor

sources, corrections = load_available_dataset_from_hf("RUSpellRU", for_labeler=True, split="train")
ruspellru_stats, ruspellru_confusion_matrix, ruspellru_typos_cnt = process_mistypings(sources, corrections)

corruptor = SBSCCorruptor.from_default_config()
spoiled_sentences = corruptor.batch_corrupt(corrections)

sbsc_stats, sbsc_confusion_matrix, sbsc_typos_cnt = process_mistypings(spoiled_sentences, corrections)

draw_and_save_errors_distributions_comparison_charts(
    actual_typos_cnt = sbsc_typos_cnt,
    reference_typos_cnt=ruspellru_typos_cnt,
    actual_stats=sbsc_stats,
    reference_stats=ruspellru_stats,
    path_to_save="ruspellru_sbsc.jpg"
)

Augmentex

Augmentex引入了基于规则和常见统计(由KartaSlov项目支持)的方法来在文本中插入错误。它再次在论文中有全面描述,也在这个🗣️演讲中有介绍。 🖇️ Augmentex 在文本损坏方面允许你在两个粒度级别上操作,并为特定级别提供了一套特定方法:

  • 词级别
    • 替换 - 用不正确的对应词替换随机单词;
    • 删除 - 删除随机单词;
    • 交换 - 交换两个随机单词;
    • 停用词 - 从停用词列表中添加随机单词;
    • 反转 - 改变随机单词首字母的大小写;
  • 字符级别
    • 移位 - 随机交换字符串中的大小写;
    • 拼写错误 - 用常见的错误对应项替换正确字符;
    • 打字错误 - 将正确字符替换为键盘上误打的字符;
    • 删除 - 删除随机字符;
    • 重复 - 重复随机字符;
    • 交换 - 交换相邻的两个字符;
    • 插入 - 插入随机字符;

要访问 Augmentex,你只需要以下几个操作:

from sage.spelling_corruption import CharAugConfig, CharAugCorruptor

config = CharAugConfig(
    unit_prob=0.3, # 将要进行编辑的字符比例
    min_aug=1, # 最小编辑次数
    max_aug=5, # 最大编辑次数
    mult_num=3 # `重复`编辑
)
corruptor = CharAugCorruptor.from_config(config)

... 或者像这样:

from sage.spelling_corruption import WordAugConfig, WordAugCorruptor

config = WordAugConfig(
    unit_prob=0.4, # 将要进行编辑的字符比例
    min_aug=1, # 最小编辑次数
    max_aug=5, # 最大编辑次数
)
corruptor = WordAugCorruptor.from_config(config)

Augmentex 是由我们的团队创建的,该项目有自己的仓库,别忘了去看看!

拼写纠正

我们在拼写检查任务上获得最佳性能模型的方法在我们的论文中有详细描述。算法简单,主要包括两个步骤:

  • 在带有人工生成错误的大规模平行语料上预训练模型;
  • 在包含"人为"错误的可用拼写纠正数据集组合上进行微调;

我们使用AugmentexSBSC来生成大规模合成语料库,并增强包含自然错误的数据集。 预训练的纠错器家族现在包含8个模型。

我们有6个用于俄语🇷🇺的🤗Transformer模型:

以及两个用于英语🇬🇧的模型:

俄语模型在俄语维基百科和视频转录的组合上进行了预训练,其中包含由SBSC生成的人工错误,该统计数据来自RUSpellRU的训练集。 英语纠错器在英语维基百科文章和新闻帖子的混合数据上训练,其中包含由SBSC插入的合成错误,该统计数据来自BEA60k的5k子样本。

📚 我们还在可用的"人为"错误数据集上验证我们的解决方案:

  • RUSpellRU:从LiveJournal收集的文本,手动纠正了拼写错误;
  • MultidomainGold:来自7个文本来源的示例,包括开放网络、新闻、社交媒体、评论、字幕、政策文件和文学作品;
  • MedSpellChecker:医疗病历中的错误文本;
  • GitHubTypoCorpusRu:GitHub提交中的拼写错误和typo;
  • BEA60K:从多个领域收集的英语拼写错误;
  • JFLEG:1601个英语句子,包含约2000个拼写错误;

📈 这里我们报告了一些设置的评估结果:

  • 预训练检查点的零样本评估;
  • 在目标数据集上进行额外的微调(ft.);

完整的设置列表和相应的性能在论文中。

RUSpellRUMultidomainGoldMedSpellCheckerGitHubTypoCorpusRu来自spellcheck_punctuation_benchmark。 该基准测试同时考虑了标点符号和拼写错误。为了简单和更好的代表性,我们只报告那些处理两种类型错误的模型(俄语)的结果 (sage-fredt5-largesage-fredt5-distilled-95m)。 其他检查点的详细指标可以在论文博文或相应的模型卡片中找到。

注意: MedSpellCheckerGitHubTypoCorpusRu没有训练集,所以它们在预训练 + 微调设置下的性能报告是在RUSpellRUMultidomainGold数据集组合上微调的结果。

RUSpellRU 评估

模型精确率 (拼写)召回率 (拼写)F1 (拼写)精确率 (标点)召回率 (标点)F1 (标点)精确率 (大小写)召回率 (大小写)F1 (大小写)
sage-ai-service90.386.388.290.386.688.495.295.995.6
sage-fredt5-large57.368.062.286.746.160.292.167.878.1
sage-fredt5-large (ft.)88.480.984.588.285.386.895.594.094.7
sage-fredt5-distilled-95m (ft.)83.574.878.986.880.683.694.492.593.5
gpt-3.5-turbo33.658.542.785.964.673.784.973.979.0
gpt-454.976.764.084.082.383.291.590.290.9

MultidomainGold 评估

模型准确率 (拼写)召回率 (拼写)F1值 (拼写)准确率 (标点)召回率 (标点)F1值 (标点)准确率 (大小写)召回率 (大小写)F1值 (大小写)
sage-ai-service81.677.779.670.267.568.880.580.580.5
sage-fredt5-large43.449.746.321.821.321.658.823.934.0
sage-fredt5-large (微调)80.375.177.669.066.567.778.680.079.3
sage-fredt5-distilled-95m (微调)77.269.973.466.863.465.076.879.177.9
gpt-3.5-turbo18.848.127.142.031.836.247.151.349.1
gpt-425.468.037.057.854.356.054.067.560.0

MedSpellchecker 评估

模型准确率 (拼写)召回率 (拼写)F1值 (拼写)准确率 (标点)召回率 (标点)F1值 (标点)准确率 (大小写)召回率 (大小写)F1值 (大小写)
sage-ai-service71.373.572.475.169.272.080.972.876.6
sage-fredt5-large35.254.542.819.213.215.748.736.841.9
sage-fredt5-large (微调)72.572.272.374.666.470.379.385.182.1
sage-fredt5-distilled-95m (微调)65.164.864.978.663.170.063.574.768.7
gpt-3.5-turbo14.745.922.369.952.359.826.441.832.3
gpt-437.872.349.681.464.371.973.062.167.1

GitHubTypoCorpusRu 评估

模型准确率 (拼写)召回率 (拼写)F1值 (拼写)准确率 (标点)召回率 (标点)F1值 (标点)准确率 (大小写)召回率 (大小写)F1值 (大小写)
sage-ai-service70.856.362.748.935.841.432.945.338.1
sage-fredt5-large46.046.646.322.718.320.212.013.212.6
sage-fredt5-large (微调)67.553.259.548.538.042.637.350.042.7
sage-fredt5-distilled-95m (微调)57.848.552.745.239.542.129.946.236.3
gpt-3.5-turbo23.738.729.437.623.328.719.635.925.3
gpt-427.052.835.745.932.638.225.736.830.2

BEA60K 评估

模型准确率召回率F1值
sage-mt5-large64.783.873.0
T5-large-spell66.583.173.9
gpt-3.5-turbo66.984.174.5
gpt-468.685.276.0
Bert65.879.672.0
SC-LSTM62.280.372.0

JFLEG 评估

模型准确率召回率F1值
sage-mt5-large74.988.481.1
T5-large-spell83.484.383.8
gpt-3.5-turbo77.888.682.9
gpt-477.988.382.8
Bert78.585.481.8
SC-LSTM80.686.183.2

RUSpellRUMultidomainGoldMedSpellCheckerGitHubTypoCorpusRu 在 HuggingFace 上作为数据集提供,也可以通过我们库的 API 获取:

from sage.utils import load_available_dataset_from_hf, DatasetsAvailable

print([dataset.name for dataset in DatasetsAvailable])
# ['MultidomainGold', 'RUSpellRU', 'MedSpellchecker', 'GitHubTypoCorpusRu', 'MultidomainGold_orth', 'RUSpellRU_orth', 'MedSpellchecker_orth', 'GitHubTypoCorpusRu_orth']

gold_dataset = load_available_dataset_from_hf(DatasetsAvailable.MultidomainGold.name, for_labeler=False)
print(len(gold_dataset))
# 7675

sources, corrections = load_available_dataset_from_hf(DatasetsAvailable.RUSpellRU.name, for_labeler=True, split="train")
print(len(sources), len(corrections))
# 2000 2000

评估

我们还提供功能来评估拼写纠正系统的性能并对它们进行排名。

🎯 目前有两个可用选项:

这两种算法都会输出准确率、召回率和 F1 值,可以解释如下:

  • 准确率:1 减去不必要修正的比例;
  • 召回率:预期纠正的比例;
  • F1 值:上述两个指标的著名几何平均值; 你可以通过以下方式简单获取这些指标:
from sage.evaluation import Scorer
from sage.utils import DatasetsAvailable, load_available_dataset_from_hf

sources, corrections = load_available_dataset_from_hf(DatasetsAvailable.RUSpellRU.name, for_labeler=True, split="test")

scorer = Scorer()
metrics = scorer.score(sources, corrections, corrections, metrics=["ruspelleval", "errant"])
print(metrics)
# {'Precision': 100.0, 'Recall': 100.0, 'F1': 100.0, 'CASE_Precision': 100.0, 'CASE_Recall': 100.0, 'CASE_F1': 100.0, 'SPELL_Precision': 100.0, 'SPELL_Recall': 100.0, 'SPELL_F1': 100.0, 'PUNCT_Precision': 100.0, 'PUNCT_Recall': 100.0, 'PUNCT_F1': 100.0, 'YO_Precision': 100.0, 'YO_Recall': 100.0, 'YO_F1': 100.0}

... 或者直接评估模型:

import os
import torch
from sage.utils import DatasetsAvailable
from sage.spelling_correction import AvailableCorrectors
from sage.spelling_correction import T5ModelForSpellingCorruption

corrector_fred_95m = T5ModelForSpellingCorruption.from_pretrained(AvailableCorrectors.sage_fredt5_distilled_95m.value)
corrector_mt5 = T5ModelForSpellingCorruption.from_pretrained(AvailableCorrectors.sage_mt5_large.value)

corrector_fred_95m.model.to(torch.device("cuda:0"))
corrector_mt5.model.to(torch.device("cuda:0"))

metrics = corrector_fred_95m.evaluate("RUSpellRU", metrics=["errant", "ruspelleval"], batch_size=32)
print(metrics)
# {'CASE_Precision': 94.41, 'CASE_Recall': 92.55, 'CASE_F1': 93.47, 'SPELL_Precision': 77.52, 'SPELL_Recall': 64.09, 'SPELL_F1': 70.17, 'PUNCT_Precision': 86.77, 'PUNCT_Recall': 80.59, 'PUNCT_F1': 83.56, 'YO_Precision': 46.21, 'YO_Recall': 73.83, 'YO_F1': 56.84, 'Precision': 83.48, 'Recall': 74.75, 'F1': 78.87}

metrics = corrector_mt5.evaluate("/content/sage/data/example_data/jfleg", metrics=["ruspelleval"], batch_size=16)
print(metrics)
# {'Precision': 75.94, 'Recall': 88.15, 'F1': 81.59}

基于ERRANT算法输出的指标由相应的前缀指示,这些前缀指的是特定类型的错误:

  • CASE:错误使用的大小写;
  • SPELL:拼写和语法错误;
  • PUNCT:标点符号错误;
  • YO:不必要地替换"YO"(ё)字母;

📌 ruspelleval指标的评估脚本归功于Aleksei Sorokin及其在SpellRueval会议论文集中的杰出工作

引用

如果你想了解更多关于我们工作的信息,请查看以下出版物:

💥 我们的EACL 2024论文详细描述了获得拼写纠正SOTA模型的方法,以及所有进行的实验的全面报告。

💫 而我们的Dialogue-2023论文则侧重于利用拼写纠正任务的资源和获取高质量平行语料库的程序。

@inproceedings{martynov-etal-2024-methodology,
    title = "A Methodology for Generative Spelling Correction via Natural Spelling Errors Emulation across Multiple Domains and Languages",
    author = "Martynov, Nikita  and
      Baushenko, Mark  and
      Kozlova, Anastasia  and
      Kolomeytseva, Katerina  and
      Abramov, Aleksandr  and
      Fenogenova, Alena",
    editor = "Graham, Yvette  and
      Purver, Matthew",
    booktitle = "Findings of the Association for Computational Linguistics: EACL 2024",
    month = mar,
    year = "2024",
    address = "St. Julian{'}s, Malta",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/2024.findings-eacl.10",
    pages = "138--155",
    abstract = "Large language models excel in text generation and generalization, however they face challenges in text editing tasks, especially in correcting spelling errors and mistyping.In this paper, we present a methodology for generative spelling correction (SC), tested on English and Russian languages and potentially can be extended to any language with minor changes. Our research mainly focuses on exploring natural spelling errors and mistyping in texts and studying how those errors can be emulated in correct sentences to enrich generative models{'} pre-train procedure effectively. We investigate the effects of emulations in various text domains and examine two spelling corruption techniques: 1) first one mimics human behavior when making a mistake through leveraging statistics of errors from a particular dataset, and 2) second adds the most common spelling errors, keyboard miss clicks, and some heuristics within the texts.We conducted experiments employing various corruption strategies, models{'} architectures, and sizes in the pre-training and fine-tuning stages and evaluated the models using single-domain and multi-domain test sets. As a practical outcome of our work, we introduce SAGE (Spell checking via Augmentation and Generative distribution Emulation).",
}

@inproceedings{martynov2023augmentation,
  title={Augmentation methods for spelling corruptions},
  author={Martynov, Nikita and Baushenko, Mark and Abramov, Alexander and Fenogenova, Alena},
  booktitle={Proceedings of the International Conference "Dialogue},
  volume={2023},
  year={2023}
}

📌 如果你有任何关于我们工作的问题,请随时与相应的联系人联系:

nikita.martynov.98@list.ru

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号