高级RAG 07探索表格的RAG应用

高级RAG 07探索表格的RAG应用

Barry Lv6

关键技术、现有开源方案,提出并实现新方案

实现RAG面临挑战,尤其是在有效解析和理解非结构化文档中的表格方面。 对于扫描文档或图像格式的文档,这一挑战尤为困难。这些挑战至少包括以下三个方面:

  • 扫描文档或图像文档的复杂性,如其多样化的结构、包含非文本元素以及手写与印刷内容的混合,给自动准确提取表格信息带来了挑战。解析不准确会破坏表格结构,使用不完整的表格进行嵌入不仅无法捕捉表格的语义信息,还容易破坏RAG的结果。
  • 如何提取表格标题并有效关联到各自的表格。
  • 如何设计索引结构以有效存储表格的语义信息。

本文首先介绍RAG中管理表格的关键技术,然后回顾一些现有的开源解决方案,最后提出并实现一个新方案。

关键技术

表格解析

该模块的主要功能是从非结构化文档或图像中准确提取表格结构。

附加功能:最好能提取相应的表格标题,并方便开发者将表格标题与表格关联。

根据我目前的理解,有几种方法,如图1所示:

(a). 利用多模态LLM,如GPT-4V ,来识别表格并从每个PDF页面中提取信息。

  • 输入:图像格式的PDF页面
  • 输出:JSON或其他格式的表格。如果多模态LLM无法提取表格数据,则应总结图像并返回总结。

(b). 利用专业表格检测模型,如Table Transformer ,来识别表格结构。

  • 输入:图像格式的PDF页面
  • 输出:图像格式的表格

(c). 使用开源框架,如unstructured 等,这些框架也采用对象检测模型(unstructured的表格检测过程详见本文 )。这些框架允许对整个文档进行全面解析,并从解析结果中提取与表格相关的内容。

  • 输入:PDF或图像格式的文档
  • 输出:从整个文档的解析结果中获得的纯文本或HTML格式的表格

(d). 使用端到端模型,如Nougat Donut 等,来解析整个文档并提取与表格相关的内容。这种方法不需要OCR模型。

  • 输入:PDF或图像格式的文档
  • 输出:从整个文档的解析结果中获得的LaTeX或JSON格式的表格

值得一提的是,无论使用哪种方法提取表格信息,都应包含表格标题。因为在大多数情况下,表格标题是文档或论文作者对表格的简要描述,可以大致概括整个表格。

在上述四种方法中,方法(d)可以方便地检索表格标题。这对开发者有益,因为它允许他们将表格标题与表格关联。这一点将在后续实验中进一步解释。

索引结构

根据索引的结构,解决方案大致可以分为以下几类:

(e). 仅索引图像格式的表格。

(f). 仅索引纯文本或JSON格式的表格。

(g). 仅索引LaTeX格式的表格。

(h). 仅索引表格的摘要。

(i). 小到大或文档摘要索引结构,如图2所示。

  • 小块内容可以是表格中每一行的信息或表格的摘要。
  • 大块内容可以是图像格式、纯文本格式或LaTeX格式的表格。

如上所述,表格摘要是通常使用LLM生成的:

  • 输入:图像格式、文本格式或LaTeX格式的表格
  • 输出:表格摘要

无需表格解析、索引或RAG的算法

某些算法无需表格解析。

(j). 将相关图像(PDF页面)和用户查询发送至VQA模型(如DAN 等)或跨模态大型语言模型,并返回答案。

  • 需索引内容:图像格式的文档
  • 发送至VQA模型或跨模态大型语言模型的内容:查询 + 对应的图像形式页面

(k).相关文本格式的PDF页面和用户查询发送至大型语言模型,然后返回答案。

  • 需索引内容:文本格式的文档
  • 发送至大型语言模型的内容:查询 + 对应的文本格式页面

(l).相关图像(PDF页面)、文本片段和用户查询发送至跨模态大型语言模型(如GPT-4V等),并直接返回答案。

  • 需索引内容:图像格式的文档和文本格式的文档片段
  • 发送至跨模态大型语言模型的内容:查询 + 文档的对应图像形式 + 对应的文本片段

此外,以下是一些无需索引的方法,如图3和图4所示:

(m). 首先,采用(a)至(d)类别中的任一方法,将文档中的所有表格解析为图像格式。然后直接将所有表格图像和用户查询发送至跨模态大型语言模型(如GPT-4V等)并返回答案。

  • 需索引内容:无
  • 发送至跨模态大型语言模型的内容:查询 + 所有解析后的表格(图像格式)

(n). 使用(m)提取的图像格式表格,然后利用OCR模型识别表格中的所有文本,直接将表格中的所有文本和用户查询发送至大型语言模型并直接返回答案。

  • 需索引内容:无
  • 发送至大型语言模型的内容:用户查询 + 表格内容(文本格式)

值得注意的是,某些方法不依赖于RAG流程:

  • 第一种方法不使用大型语言模型,针对特定数据集进行训练,使模型(如BERT类变换器)更好地支持表格理解任务,例如TAPAS
  • 第二种方法使用大型语言模型,采用预训练、微调方法或提示,使大型语言模型执行表格理解任务,如GPT4Table

现有开源解决方案

上一节总结并分类了 RAG 中表格的关键技术。在提出本文实现的解决方案之前,我们先来探讨一些开源解决方案。

LlamaIndex 提出了 四种方法 ,其中前三种使用了多模态模型。

  1. 检索相关图像(PDF 页面)并发送给 GPT-4V 以响应查询。
  2. 将每个 PDF 页面视为图像,让 GPT-4V 对每个页面进行图像推理。为图像推理构建文本向量存储索引。针对图像推理向量存储查询答案。
  3. 使用 Table Transformer 从检索到的图像中裁剪表格信息,然后将这些裁剪后的图像发送给 GPT-4V 以响应查询。
  4. 对裁剪后的表格图像应用 OCR,并将数据发送给 GPT4/GPT-3.5 以回答查询。

根据本文的分类:

  • 第一种方法类似于本文的 **类别 (j)**,不需要表格解析。然而,结果显示,即使答案在图像中,也无法产生正确的答案。
  • 第二种方法涉及表格解析,对应于 **类别 (a)**。索引内容要么是表格内容,要么是根据 GPT-4V 返回的结果进行总结,这可能对应于 **类别 (f) 或 (h)**。这种方法的缺点是 GPT-4V 识别表格并从图像中提取其内容的能力不稳定,特别是当图像包含表格、文本和其他图像的混合时,这在 PDF 格式中很常见。
  • 第三种方法类似于 **类别 (m)**,不需要索引。
  • 第四种方法类似于 **类别 (n)**,也不需要索引。其结果表明,由于无法从图像中提取表格信息,导致产生了错误的答案。

通过测试发现,第三种方法 总体效果最好。然而,根据我的测试,第三种方法在检测表格方面存在困难,更不用说正确合并表格标题了。

Langchain 也提出了一些解决方案,Semi-structured RAG 的关键技术包括:

  • 表格解析使用 unstructured,即 **类别 (c)**。
  • 索引方法是文档摘要索引,即 **类别 (i)**,小片段内容:表格摘要,大片段内容:原始表格内容(文本格式)。

如图 5 所示:

Semi-structured and Multi-modal RAG 提出了三种解决方案, 架构如图 6 所示。

选项 1 类似于本文的 **类别 (l)**。它涉及使用多模态嵌入(如 CLIP )来嵌入图像和文本,通过相似性搜索检索两者,并将原始图像和片段传递给多模态 LLM 进行答案合成。

选项 2 利用多模态 LLM,如 GPT-4V LLaVA FUYU-8b ,从图像生成文本摘要。然后,嵌入并检索文本,并将文本片段传递给 LLM 进行答案合成。

  • 表格解析使用 unstructured,即 **类别 (d)**。
  • 索引结构是文档摘要索引(**类别 (i)**),小片段内容:表格摘要,大片段内容:文本格式的表格

选项 3 使用多模态 LLM(如 GPT-4V LLaVA FUYU-8b )从图像生成文本摘要,然后嵌入并检索图像摘要,并参考原始图像(**类别 (i)**),然后将原始图像和文本片段传递给多模态 LLM 进行答案合成。

提出的解决方案

本文已对关键技术和现有解决方案进行了总结、分类和讨论。基于此,我们提出以下解决方案,如图7所示。为简化起见,省略了诸如重排序和查询重写等一些RAG模块。

  • 表格解析:使用Nougat(**类别(d))。根据我的测试,其表格检测效果优于unstructured(类别(c)**)。此外,Nougat能很好地提取表格标题,非常便于与表格关联。
  • 文档摘要索引结构(**类别(i)**):小数据块内容包括表格摘要,大数据块内容包括相应的LaTeX格式表格及文本格式表格标题。我们通过multi-vector retriever 实现这一功能。
  • 表格摘要获取方法:将表格及表格标题发送至LLM进行摘要生成。

此方法的优势在于,它高效解析表格的同时,全面考虑了表格摘要与表格之间的关系,并避免了多模态LLM的使用,从而节省了成本。

Nougat 原理

Nougat 基于 Donut 架构开发。它通过网络隐式识别文本,无需任何 OCR 相关输入或模块,如图 8 所示。

Nougat 解析公式的能力令人印象深刻 。它在解析表格方面也同样出色。方便的是,它能够关联表格标题,如图 9 所示:

在我测试的十几篇论文中,我发现表格标题总是固定在表格的下一行。这种一致性表明这不是偶然的。因此,我们感兴趣的是了解 Nougat 是如何实现这一效果的。

鉴于它是一个缺乏中间结果的端到端模型,它很可能严重依赖其训练数据。

根据训练数据格式化代码 ,对于表格,紧随 **\end{table}** 的行是 **caption_parts**,这似乎与提供的训练数据格式一致:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
def format_element(
element: Element, keep_refs: bool = False, latex_env: bool = False
) -> List[str]:
"""
将给定元素格式化为格式化字符串列表。

参数:
element (Element): 要格式化的元素。
keep_refs (bool, 可选): 是否在格式化中保留引用。默认为 False。
latex_env (bool, 可选): 是否使用 LaTeX 环境格式化。默认为 False。

返回:
List[str]: 表示格式化元素的格式化字符串列表。
"""
...
...
if isinstance(element, Table):
parts = [
"[TABLE%s]\n\\begin{table}\n"
% (str(uuid4())[:5] if element.id is None else ":" + str(element.id))
]
parts.extend(format_children(element, keep_refs, latex_env))
caption_parts = format_element(element.caption, keep_refs, latex_env)
remove_trailing_whitespace(caption_parts)
parts.append("\\end{table}\n")
if len(caption_parts) > 0:
parts.extend(caption_parts + ["\n"])
parts.append("[ENDTABLE]\n\n")
return parts
...
...

诺格特的优缺点

优点:

  • 诺格特能够准确解析以往解析工具难以处理的部分,如公式和表格,并将其转换为LaTeX源代码。
  • 诺格特的解析结果是一种类似Markdown的半结构化文档。
  • 方便获取表格标题并便捷地与表格关联。

缺点:

  • 诺格特的解析速度较慢,对于大规模部署可能构成挑战。
  • 由于诺格特是在科学论文上训练的,因此在与类似结构的文档上表现出色。对于非拉丁文文本文档,其性能有所下降。
  • 诺格特模型每次仅训练科学论文的一页,缺乏对其他页面的了解。这可能导致解析内容存在一些不一致性。因此,如果识别效果不佳,建议将PDF拆分为单独的页面并逐页解析。
  • 在双栏论文中解析表格的效果不如单栏论文。

代码实现

首先,安装相关的 Python 包

1
2
3
pip install langchain
pip install chromadb
pip install nougat-ocr

安装完成后,我们可以检查 Python 包的版本:

1
2
3
4
5
6
7
8
9
10
langchain                                0.1.12
langchain-community 0.0.28
langchain-core 0.1.31
langchain-openai 0.0.8
langchain-text-splitters 0.0.1

chroma-hnswlib 0.7.3
chromadb 0.4.24

nougat-ocr 0.1.17

设置环境并导入:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import os
os.environ["OPENAI_API_KEY"] = "YOUR_OPEN_AI_KEY"

import subprocess
import uuid

from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from langchain.retrievers.multi_vector import MultiVectorRetriever
from langchain.storage import InMemoryStore
from langchain_community.vectorstores import Chroma
from langchain_core.documents import Document
from langchain_openai import OpenAIEmbeddings
from langchain_core.runnables import RunnablePassthrough

下载论文 Attention Is All You Need **YOUR_PDF_PATH**,运行 nougat 解析 PDF 文件,并从解析结果中获取 LaTeX 格式的表格和文本格式的表格标题。首次执行将下载必要的模型文件。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
def june_run_nougat(file_path, output_dir):
# 运行 Nougat 并将结果存储为 Mathpix Markdown
cmd = ["nougat", file_path, "-o", output_dir, "-m", "0.1.0-base", "--no-skipping"]
res = subprocess.run(cmd)
if res.returncode != 0:
print("运行 nougat 时出错。")
return res.returncode
else:
print("操作完成!")
return 0

def june_get_tables_from_mmd(mmd_path):
f = open(mmd_path)
lines = f.readlines()
res = []
tmp = []
flag = ""
for line in lines:
if line == "\\begin{table}\n":
flag = "BEGINTABLE"
elif line == "\\end{table}\n":
flag = "ENDTABLE"

if flag == "BEGINTABLE":
tmp.append(line)
elif flag == "ENDTABLE":
tmp.append(line)
flag = "CAPTION"
elif flag == "CAPTION":
tmp.append(line)
flag = "MARKDOWN"
print('-' * 100)
print(''.join(tmp))
res.append(''.join(tmp))
tmp = []

return res

file_path = "YOUR_PDF_PATH"
output_dir = "YOUR_OUTPUT_DIR_PATH"

if june_run_nougat(file_path, output_dir) == 1:
import sys
sys.exit(1)

mmd_path = output_dir + '/' + os.path.splitext(file_path)[0].split('/')[-1] + ".mmd"
tables = june_get_tables_from_mmd(mmd_path)

函数 **june_get_tables_from_mmd** 用于从 **mmd** 文件中提取从 **\begin{table}****\end{table}** 的所有内容,包括 **\end{table}** 之后的行,如图 10 所示。

值得注意的是,尚未找到官方文档指定表格标题必须位于表格下方或表格应以 **\begin{table}** 开始并以 **\end{table}** 结束。因此,**june_get_tables_from_mmd** 是启发式的。

以下是解析 PDF 中表格的结果:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
操作完成!
----------------------------------------------------------------------------------------------------
\begin{table}
\begin{tabular}{l c c c} \hline \hline Layer Type & Complexity per Layer & Sequential Operations & Maximum Path Length \\ \hline Self-Attention & \(O(n^{2}\cdot d)\) & \(O(1)\) & \(O(1)\) \\ Recurrent & \(O(n\cdot d^{2})\) & \(O(n)\) & \(O(n)\) \\ Convolutional & \(O(k\cdot n\cdot d^{2})\) & \(O(1)\) & \(O(log_{k}(n))\) \\ Self-Attention (restricted) & \(O(r\cdot n\cdot d)\) & \(O(1)\) & \(O(n/r)\) \\ \hline \hline \end{tabular}
\end{table}
1:不同层类型的最大路径长度、每层复杂度和最小顺序操作数。\(n\) 是序列长度,\(d\) 是表示维度,\(k\) 是卷积核大小,\(r\) 是受限自注意力中的邻域大小。

----------------------------------------------------------------------------------------------------
\begin{table}
\begin{tabular}{l c c c c} \hline \hline \multirow{2}{*}{Model} & \multicolumn{2}{c}{BLEU} & \multicolumn{2}{c}{Training Cost (FLOPs)} \\ \cline{2-5} & EN-DE & EN-FR & EN-DE & EN-FR \\ \hline ByteNet [18] & 23.75 & & & \\ Deep-Att + PosUnk [39] & & 39.2 & & \(1.0\cdot 10^{20}\) \\ GNMT + RL [38] & 24.6 & 39.92 & \(2.3\cdot 10^{19}\) & \(1.4\cdot 10^{20}\) \\ ConvS2S [9] & 25.16 & 40.46 & \(9.6\cdot 10^{18}\) & \(1.5\cdot 10^{20}\) \\ MoE [32] & 26.03 & 40.56 & \(2.0\cdot 10^{19}\) & \(1.2\cdot 10^{20}\) \\ \hline Deep-Att + PosUnk Ensemble [39] & & 40.4 & & \(8.0\cdot 10^{20}\) \\ GNMT + RL Ensemble [38] & 26.30 & 41.16 & \(1.8\cdot 10^{20}\) & \(1.1\cdot 10^{21}\) \\ ConvS2S Ensemble [9] & 26.36 & **41.29** & \(7.7\cdot 10^{19}\) & \(1.2\cdot 10^{21}\) \\ \hline Transformer (base model) & 27.3 & 38.1 & & \(\mathbf{3.3\cdot 10^{18}}\) \\ Transformer (big) & **28.4** & **41.8** & & \(2.3\cdot 10^{19}\) \\ \hline \hline \end{tabular}
\end{table}
2:Transformer 在英语到德语和英语到法语的 newstest2014 测试中,以较低的训练成本实现了比以往最先进的模型更好的 BLEU 分数。

----------------------------------------------------------------------------------------------------
\begin{table}
\begin{tabular}{c|c c c c c c c c|c c c c} \hline \hline & \(N\) & \(d_{\text{model}}\) & \(d_{\text{ff}}\) & \(h\) & \(d_{k}\) & \(d_{v}\) & \(P_{drop}\) & \(\epsilon_{ls}\) & train steps & PPL & BLEU & params \\ \hline base & 6 & 512 & 2048 & 8 & 64 & 64 & 0.1 & 0.1 & 100K & 4.92 & 25.8 & 65 \\ \hline \multirow{4}{*}{(A)} & \multicolumn{1}{c}{} & & 1 & 512 & 512 & & & & 5.29 & 24.9 & \\ & & & & 4 & 128 & 128 & & & & 5.00 & 25.5 & \\ & & & & 16 & 32 & 32 & & & & 4.91 & 25.8 & \\ & & & & 32 & 16 & 16 & & & & 5.01 & 25.4 & \\ \hline (B) & \multicolumn{1}{c}{} & & \multicolumn{1}{c}{} & & 16 & & & & & 5.16 & 25.1 & 58 \\ & & & & & 32 & & & & & 5.01 & 25.4 & 60 \\ \hline \multirow{4}{*}{(C)} & 2 & \multicolumn{1}{c}{} & & & & & & & & 6.11 & 23.7 & 36 \\ & 4 & & & & & & & & 5.19 & 25.3 & 50 \\ & 8 & & & & & & & & 4.88 & 25.5 & 80 \\ & & 256 & & 32 & 32 & & & & 5.75 & 24.5 & 28 \\ & 1024 & & 128 & 128 & & & & 4.66 & 26.0 & 168 \\ & & 1024 & & & & & & 5.12 & 25.4 & 53 \\ & & 4096 & & & & & & 4.75 & 26.2 & 90 \\ \hline \multirow{4}{*}{(D)} & \multicolumn{1}{c}{} & & & & & 0.0 & & 5.77 & 24.6 & \\ & & & & & & 0.2 & & 4.95 & 25.5 & \\ & & & & & & & 0.0 & 4.67 & 25.3 & \\ & & & & & & & 0.2 & 5.47 & 25.7 & \\ \hline (E) & \multicolumn{1}{c}{} & \multicolumn{1}{c}{} & & \multicolumn{1}{c}{} & & & & & 4.92 & 25.7 & \\ \hline big & 6 & 1024 & 4096 & 16 & & 0.3 & 300K & **4.33** & **26.4** & 213 \\ \hline \hline \end{tabular}
\end{table}
3:Transformer 架构的变体。未列出的值与基础模型相同。所有指标均基于英语到德语翻译开发集 newstest2013。列出的困惑度是根据我们的字节对编码的每个词片段,不应与每个词的困惑度进行比较。

----------------------------------------------------------------------------------------------------
\begin{table}
\begin{tabular}{c|c|c} \hline
**Parser** & **Training** & **WSJ 23 F1** \\ \hline Vinyals \& Kaiser et al. (2014) [37] & WSJ only, discriminative & 88.3 \\ Petrov et al. (2006) [29] & WSJ only, discriminative & 90.4 \\ Zhu et al. (2013) [40] & WSJ only, discriminative & 90.4 \\ Dyer et al. (2016) [8] & WSJ only, discriminative & 91.7 \\ \hline Transformer (4 layers) & WSJ only, discriminative & 91.3 \\ \hline Zhu et al. (2013) [40] & semi-supervised & 91.3 \\ Huang \& Harper (2009) [14] & semi-supervised & 91.3 \\ McClosky et al. (2006) [26] & semi-supervised & 92.1 \\ Vinyals \& Kaiser el al. (2014) [37] & semi-supervised & 92.1 \\ \hline Transformer (4 layers) & semi-supervised & 92.7 \\ \hline Luong et al. (2015) [23] & multi-task & 93.0 \\ Dyer et al. (2016) [8] & generative & 93.3 \\ \hline \end{tabular}
\end{table}
4:Transformer 在英语成分解析(结果基于 WSJ 第 23 节)上具有良好的泛化能力* [5] Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using rnn encoder-decoder for statistical machine translation. _CoRR_, abs/1406.1078, 2014.

然后使用 LLM 总结表格:

1
2
3
4
5
6
7
8
9
10
11
# 提示
prompt_text = """你是一个负责总结表格和文本的助手。\
给出表格或文本的简明总结。表格格式为 LaTeX,其标题为纯文本格式:{element} """
prompt = ChatPromptTemplate.from_template(prompt_text)

# 总结链
model = ChatOpenAI(temperature = 0, model = "gpt-3.5-turbo")
summarize_chain = {"element": lambda x: x} | prompt | model | StrOutputParser()
# 获取表格总结
table_summaries = summarize_chain.batch(tables, {"max_concurrency": 5})
print(table_summaries)

以下是 Attention Is All You Need 中找到的四个表格的总结,如图 11 所示:

使用 Multi-Vector Retriever 构建文档总结索引结构。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
# 用于索引子块的向量存储
vectorstore = Chroma(collection_name = "summaries", embedding_function = OpenAIEmbeddings())

# 父文档的存储层
store = InMemoryStore()
id_key = "doc_id"

# 检索器(初始为空)
retriever = MultiVectorRetriever(
vectorstore = vectorstore,
docstore = store,
id_key = id_key,
search_kwargs={"k": 1} # 解决请求的结果数 4 大于索引中元素数的问题,更新 n_results = 1
)

# 添加表格
table_ids = [str(uuid.uuid4()) for _ in tables]
summary_tables = [
Document(page_content = s, metadata = {id_key: table_ids[i]})
for i, s in enumerate(table_summaries)
]
retriever.vectorstore.add_documents(summary_tables)
retriever.docstore.mset(list(zip(table_ids, tables)))

一切准备就绪,构建一个简单的 RAG 管道并执行查询:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
# 提示模板
template = """仅根据以下上下文(可能包含文本和表格)回答问题,上下文中包含一个LaTeX格式的表格和一个纯文本格式的表格标题:
{context}
问题:{question}
"""
prompt = ChatPromptTemplate.from_template(template)

# LLM
model = ChatOpenAI(temperature = 0, model = "gpt-3.5-turbo")


# 简单的RAG流程
chain = (
{"context": retriever, "question": RunnablePassthrough()}
| prompt
| model
| StrOutputParser()
)


print(chain.invoke("当层类型为Self-Attention时,每层的复杂度是多少?")) # 关于表1的查询

print(chain.invoke("哪个解析器在BLEU EN-DE上表现最差")) # 关于表2的查询

print(chain.invoke("哪个解析器在WSJ 23 F1上表现最好")) # 关于表4的查询


执行结果如下,展示了多个问题被准确回答,如图12所示:

整体代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
import os
os.environ["OPENAI_API_KEY"] = "YOUR_OPEN_AI_KEY"

import subprocess
import uuid

from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from langchain.retrievers.multi_vector import MultiVectorRetriever
from langchain.storage import InMemoryStore
from langchain_community.vectorstores import Chroma
from langchain_core.documents import Document
from langchain_openai import OpenAIEmbeddings
from langchain_core.runnables import RunnablePassthrough


def june_run_nougat(file_path, output_dir):
# 运行Nougat并将结果存储为Mathpix Markdown
cmd = ["nougat", file_path, "-o", output_dir, "-m", "0.1.0-base", "--no-skipping"]
res = subprocess.run(cmd)
if res.returncode != 0:
print("运行nougat时出错。")
return res.returncode
else:
print("操作完成!")
return 0

def june_get_tables_from_mmd(mmd_path):
f = open(mmd_path)
lines = f.readlines()
res = []
tmp = []
flag = ""
for line in lines:
if line == "\\begin{table}\n":
flag = "BEGINTABLE"
elif line == "\\end{table}\n":
flag = "ENDTABLE"

if flag == "BEGINTABLE":
tmp.append(line)
elif flag == "ENDTABLE":
tmp.append(line)
flag = "CAPTION"
elif flag == "CAPTION":
tmp.append(line)
flag = "MARKDOWN"
print('-' * 100)
print(''.join(tmp))
res.append(''.join(tmp))
tmp = []

return res

file_path = "YOUR_PDF_PATH"
output_dir = "YOUR_OUTPUT_DIR_PATH"

if june_run_nougat(file_path, output_dir) == 1:
import sys
sys.exit(1)

mmd_path = output_dir + '/' + os.path.splitext(file_path)[0].split('/')[-1] + ".mmd"
tables = june_get_tables_from_mmd(mmd_path)


# 提示
prompt_text = """你是一个负责总结表格和文本的助手。\
请对表格或文本进行简要总结。表格采用LaTeX格式,其标题为纯文本格式:{element} """
prompt = ChatPromptTemplate.from_template(prompt_text)

# 总结流程
model = ChatOpenAI(temperature = 0, model = "gpt-3.5-turbo")
summarize_chain = {"element": lambda x: x} | prompt | model | StrOutputParser()
# 获取表格总结
table_summaries = summarize_chain.batch(tables, {"max_concurrency": 5})
print(table_summaries)

# 用于索引子块的向量存储
vectorstore = Chroma(collection_name = "summaries", embedding_function = OpenAIEmbeddings())

# 父文档的存储层
store = InMemoryStore()
id_key = "doc_id"

# 检索器(初始为空)
retriever = MultiVectorRetriever(
vectorstore = vectorstore,
docstore = store,
id_key = id_key,
search_kwargs={"k": 1} # 解决请求的结果数量4大于索引中的元素数量..., 更新n_results = 1
)

# 添加表格
table_ids = [str(uuid.uuid4()) for _ in tables]
summary_tables = [
Document(page_content = s, metadata = {id_key: table_ids[i]})
for i, s in enumerate(table_summaries)
]
retriever.vectorstore.add_documents(summary_tables)
retriever.docstore.mset(list(zip(table_ids, tables)))


# 提示模板
template = """仅根据以下上下文(可能包含文本和表格)回答问题,上下文中包含一个LaTeX格式的表格和一个纯文本格式的表格标题:
{context}
问题:{question}
"""
prompt = ChatPromptTemplate.from_template(template)

# LLM
model = ChatOpenAI(temperature = 0, model = "gpt-3.5-turbo")

# 简单的RAG流程
chain = (
{"context": retriever, "question": RunnablePassthrough()}
| prompt
| model
| StrOutputParser()
)

print(chain.invoke("当层类型为Self-Attention时,每层的复杂度是多少?")) # 关于表1的查询

print(chain.invoke("哪个解析器在BLEU EN-DE上表现最差")) # 关于表2的查询

print(chain.invoke("哪个解析器在WSJ 23 F1上表现最好")) # 关于表4的查询

结论

本文讨论了RAG流程中表格处理的关键技术和现有解决方案,并提出了一种解决方案及其具体实现。

我们在本文中使用nougat来解析表格。然而,如果有更快更有效的解析工具出现,我们也会考虑替换nougat。我们对工具的态度是先有正确的想法,再寻找工具来实现它,而不是依赖于某个特定工具。

在本文中,我们将所有表格内容输入到LLM中。但在实际场景中,我们应考虑到表格超出LLM上下文长度的情况。我们可以通过采用有效的分块方法来解决这一问题。

最后,如果本文存在任何错误或遗漏,或者您有任何疑问,欢迎在评论区指出。

用简单英语 🚀

感谢您成为用简单英语社区的一员!在您离开之前:

  • 标题: 高级RAG 07探索表格的RAG应用
  • 作者: Barry
  • 创建于 : 2024-03-16 07:25:32
  • 更新于 : 2024-08-31 06:59:45
  • 链接: https://wx.role.fun/2024/03/16/3ef6b3b40785441898b5bab1058eb3ea/
  • 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。