结构化数据指南
许多现代数据系统都依赖于结构化数据,例如 Postgres DB
或 Snowflake
数据仓库。 LlamaIndex
提供了许多由 LLM
提供支持的高级功能,可以从中创建结构化数据 非结构化数据,以及通过增强的文本到 SQL 功能分析这些结构化数据。
注意:任何 Text-to-SQL
应用程序都应该意识到,执行 任意 SQL
查询可能存在安全风险。建议 根据需要采取预防措施,例如使用受限角色、只读 数据库、沙箱等。
本指南帮助介绍这些功能中的每一项。具体而言,我们涵盖以下主题:
-
设置:定义我们的示例
SQL
表。 -
构建我们的表索引:如何从
sql
数据库转到表架构索引 -
使用自然语言 SQL 查询:如何使用自然语言查询我们的 SQL 数据库。
我们将演练一个包含城市/人口/国家/地区信息的玩具示例表。 此处提供了本教程的笔记本。
设置
首先,我们使用 SQLAlchemy
设置一个简单的 sqlite 数据库:
from sqlalchemy import (
create_engine,
MetaData,
Table,
Column,
String,
Integer,
select,
column,
)
engine = create_engine("sqlite:///:memory:")
metadata_obj = MetaData()
然后我们创建一个测试表:city_stats
# create city SQL table
table_name = "city_stats"
city_stats_table = Table(
table_name,
metadata_obj,
Column("city_name", String(16), primary_key=True),
Column("population", Integer),
Column("country", String(16), nullable=False),
)
metadata_obj.create_all(engine)
现在是时候插入一些数据点了!
如果您想通过推断结构化数据点来查看如何填充此表 从非结构化数据中,请查看以下部分。否则,您可以选择 要直接填充此表,请执行以下操作:
from sqlalchemy import insert
rows = [
{"city_name": "Toronto", "population": 2731571, "country": "Canada"},
{"city_name": "Tokyo", "population": 13929286, "country": "Japan"},
{"city_name": "Berlin", "population": 600000, "country": "Germany"},
]
for row in rows:
stmt = insert(city_stats_table).values(**row)
with engine.begin() as connection:
cursor = connection.execute(stmt)
最后,我们可以用 SQLDatabase
包装器包装 SQLAlchemy
引擎; 这允许在LlamaIndex
中使用 db:
from llama_index.core import SQLDatabase
sql_database = SQLDatabase(engine, include_tables=["city_stats"])
自然语言 SQL
构建 SQL 数据库后,我们可以使用 NLSQLTableQueryEngine
来 构造合成为 SQL 查询的自然语言查询。
请注意,我们需要指定要用于此查询引擎的表。 如果我们不这样做,查询引擎将拉取所有 schema 上下文,这可能会 overflow
的上下文窗口。
from llama_index.core.query_engine import NLSQLTableQueryEngine
query_engine = NLSQLTableQueryEngine(
sql_database=sql_database,
tables=["city_stats"],
)
query_str = "Which city has the highest population?"
response = query_engine.query(query_str)
此查询引擎应在您可以指定所需表的任何情况下使用 以提前查询,或者所有表架构的总大小加上 提示符适合您的上下文窗口。
构建我们的表索引
如果我们事先不知道我们想使用哪个表,以及 Table Schema
溢出了您的上下文窗口大小,我们应该存储 Table Schema
在索引中,以便在查询时我们可以检索正确的 schema
。
我们可以做到这一点的方法是使用 SQLTableNodeMapping
对象,它接收一个SQLDatabase
并为传递的每个 SQLTableSchema
对象生成一个 Node 对象 放入 ObjectIndex
构造函数中。
from llama_index.core.objects import (
SQLTableNodeMapping,
ObjectIndex,
SQLTableSchema,
)
table_node_mapping = SQLTableNodeMapping(sql_database)
table_schema_objs = [
(SQLTableSchema(table_name="city_stats")),
...,
] # one SQLTableSchema for each table
obj_index = ObjectIndex.from_objects(
table_schema_objs,
table_node_mapping,
VectorStoreIndex,
)
在这里,你可以看到我们定义了我们的 table_node_mapping
,以及一个带有 “city_stats” 表名。我们将这些函数与 VectorStoreIndex
类定义。这将得到一个 VectorStoreIndex
,其中 每个节点都包含表架构和其他上下文信息。您还可以添加任何其他 上下文信息。
# manually set extra context text
city_stats_text = (
"This table gives information regarding the population and country of a given city.\n"
"The user will query with codewords, where 'foo' corresponds to population and 'bar'"
"corresponds to city."
)
table_node_mapping = SQLTableNodeMapping(sql_database)
table_schema_objs = [
(SQLTableSchema(table_name="city_stats", context_str=city_stats_text))
]
使用自然语言 SQL 查询
定义表架构索引obj_index
后,我们可以构造一个 SQLTableRetrieverQueryEngine
通过传入我们的 SQLDatabase
和从我们的对象索引构造的检索器。
from llama_index.core.indices.struct_store import SQLTableRetrieverQueryEngine
query_engine = SQLTableRetrieverQueryEngine(
sql_database, obj_index.as_retriever(similarity_top_k=1)
)
response = query_engine.query("Which city has the highest population?")
print(response)
现在,当我们查询 retriever
查询引擎时,它将检索相关的表 schema
并合成 SQL
查询和来自该查询结果的响应。
结束语
之前写了一篇文章 《Chainlit集成LlamaIndex并使用通义千问实现和数据库交互的网页对话应用(text2sql)》,是直接使用llama index中的NLSQLTableQueryEngine
的知识点扩展补充,使用SQLTableRetrieverQueryEngine
,它将检索相关的表 schema
并合成 SQL
查询和来自该查询结果的响应。