热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#AI Adversarial Prompting
Awesome_GPT_Super_Prompting - ChatGPT安全资源大全
ChatGPT Jailbreaks
Prompt Injection
Prompt Engineering
AI Adversarial Prompting
Secure Prompting
Github
开源项目
这个项目提供全面的ChatGPT安全资源,包括Jailbreak破译、系统提示泄露、提示注入和对抗性机器学习。通过详细示例和指南,帮助用户理解LLM工程和提升提示安全,无论是研究漏洞还是改进提示工程,都是AI开发者和安全专家的理想工具。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号