Project Icon

knowledge_graph_maker

自动化文本知识图谱生成工具

knowledge_graph_maker是一个基于Python的工具,可将文本转换为基于指定本体的知识图谱。该工具支持大规模文本处理,利用大型语言模型(LLM)提取实体和关系,并能与Neo4j数据库集成。它可用于分析概念重要性、发现知识社区,以及实现图检索增强生成(GRAG),为文本分析和高级问答系统提供支持。

知识图谱制作器

一个可以将任何文本转换为基于给定本体的知识图谱的Python工具。

图谱制作器 使用Adobe Firefly和Photoshop生成的图像

什么是知识图谱?

知识图谱,也称为语义网络,表示现实世界实体(即对象、事件、情况或概念)的网络,并说明它们之间的关系。这些信息通常存储在图数据库中,并以图结构的形式可视化,因此称为知识"图谱"。

来源:https://www.ibm.com/topics/knowledge-graph

为什么选择知识图谱?

知识图谱可用于多种目的。我们可以运行图算法并计算任何节点的中心性,以了解某个概念(节点)对这个知识体系的重要性。我们可以计算社区,将概念分组,以便更好地分析文本。我们可以理解看似无关的概念之间的联系。

最重要的是,我们可以实现图检索增强生成(GRAG),并以更深入的方式使用图作为检索器与我们的文本进行对话。这是**检索增强生成(RAG)**的新改进版本,我们使用向量数据库作为检索器与文档对话。


本项目

这是一个Python库,可以使用给定的本体从任何文本创建知识图谱。该库以相当一致的方式创建图谱,对LLM生成的错误响应具有良好的弹性。

以下是使用该库的方法:

# 获取库
$ pip install knowledge-graph-maker

记得在你的.env文件中设置以下环境变量:

## 如果使用GROQ客户端
GROQ_API_KEY="groq_api_key"
## 如果使用OpenAI客户端
OPENAI_API_KEY="openai_api_key"
## 如果使用Neo4j
NEO4J_USERNAME="neo4j"
NEO4J_PASSWORD="localneo4j"
NEO4J_URI="bolt://localhost:7687"

以下是创建知识图谱的步骤。

1. 定义图谱的本体

该库理解以下本体模式。在后台,本体是一个pydantic模型。

ontology = Ontology(
    # 要提取的实体标签。可以是字符串或对象,如下所示。
    labels=[
        {"Person": "不带任何形容词的人名,记住一个人可能通过他们的名字或使用代词来引用"},
        {"Object": "不要在对象名称中添加定冠词'the'"},
        {"Event": "涉及多人的事件。不要包括限定词或动词,如给予、离开、工作等"},
        "Place",
        "Document",
        "Organisation",
        "Action",
        {"Miscellanous": "任何无法用其他给定标签分类的重要概念"},
    ],
    # 对你的应用程序重要的关系。
    # 这些更像是对LLM的指示,以促使它关注特定的关系。
    # 不能保证只会提取这些关系,但有些模型在整体上做得很好,能够坚持这些关系。
    relationships=[
        "任何一对实体之间的关系",
        ],
)

我已经调整了提示以产生与给定本体一致的结果。 我认为它做得相当不错。然而,它仍然不是100%准确。准确性取决于我们选择用于生成图谱的模型、应用程序、本体和数据质量。

2. 将文本分割成块。

我们可以使用尽可能大的文本语料库来创建大型知识图谱。然而,LLM目前有有限的上下文窗口。因此我们需要适当地对文本进行分块,并一次创建一个块的图谱。我们应该使用的块大小取决于模型的上下文窗口。本项目中使用的提示大约占用500个标记。剩余的上下文可以分为输入文本和输出图谱。根据我的经验,800到1200个标记的块非常合适。

3. 将这些块转换为文档。

文档是具有以下模式的pydantic模型:

## Pydantic文档模型
class Document(BaseModel):
    text: str
    metadata: dict

我们在这里添加到文档的元数据会被标记到从该文档中提取的每个关系。 我们可以在元数据中添加关系的上下文,例如页码、章节、文章名称等。通常情况下,每对节点在多个文档中都有多个关系。元数据有助于将这些关系置于上下文中。

4. 选择LLM

知识图谱制作器提供了开箱即用的OpenAI和Groq LLM客户端。


## Groq模型
model = "mixtral-8x7b-32768"
# model ="llama3-8b-8192"
# model = "llama3-70b-8192"
# model="gemma-7b-it"

## Open AI模型
oai_model="gpt-3.5-turbo"

## 使用Groq
# llm = GroqClient(model=model, temperature=0.1, top_p=0.5)
## 或使用OpenAI
llm = OpenAIClient(model=oai_model, temperature=0.1, top_p=0.5)

你也可以选择编写自己的LLM客户端,只要它遵循以下抽象类:

class LLMClient(ABC):
    @abstractmethod
    def __init__(self, model: str, temperature: float, top_p: float):
        pass

    @abstractmethod
    def generate(self, user_message: str, system_message: str) -> str:
        "生成并返回结果文本作为字符串"
        pass

5. 运行图谱制作器。

图谱制作器直接接受一个文档列表,并遍历每个文档以创建每个文档的子图。最终输出是所有文档的完整图谱。

这里是一个简单的示例代码:

from knowledge_graph_maker import GraphMaker, Ontology, GroqClient
from knowledge_graph_maker import Document


llm = GroqClient(model=model, temperature=0.1, top_p=0.5)
graph_maker = GraphMaker(ontology=ontology, llm_client=llm, verbose=False)

## 从文档列表创建图谱。
graph = graph_maker.from_documents(
    list(docs),
    delay_s_between=10 ## delay_s_between是因为否则groq api很快就会达到最大限制。
    )
## 结果 -> 边的列表。
print("边的总数", len(graph))
## 1503

输出是最终图谱,以边的列表形式呈现,其中每条边是一个如下所示的pydantic模型:

class Node(BaseModel):
    label: str
    name: str

class Edge(BaseModel):
    node_1: Node
    node_2: Node
    relationship: str
    metadata: dict = {}
    order: Union[int, None] = None

图谱制作器将每个文档通过模型运行,并将响应解析为图谱边。 我已经调整了提示,使其现在相当容错。大多数JSON失败都会自动纠正。如果JSON响应解析失败,它还会尝试将JSON字符串手动分割成多个边字符串,然后尝试分别解析每一个。

6. 保存到Neo4j(可选步骤)

我们可以将模型保存到Neo4j,以创建RAG应用程序、运行网络算法,或者只是使用Bloom可视化图谱。

from knowledge_graph_maker import Neo4jGraphModel

create_indices = False
neo4j_graph = Neo4jGraphModel(edges=graph, create_indices=create_indices)

neo4j_graph.save()

图谱的每条边都在一个事务中保存到数据库。如果你是第一次运行此代码,请将create_indices设置为true。这会通过在节点上设置唯一性约束来准备数据库。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号