聊聊langchain4j的核心RAG APIs

本文主要研究一下langchain4j的核心RAG APIs

核心RAG APIs

langchain4j提供了一套豐富的API來構建自定義的RAG(檢索增強生成)pipelines,從簡單的到高級的都有涵蓋。

Document

Document類表示整個文檔,例如單個 PDF 文件或網頁。目前,Document 只能表示文本信息,但未來的更新將使其能夠支持圖像和表格。

Metadata

每個文檔都有Metadata,例如其名稱、來源、最后更新日期、所有者或其他相關信息。Metadata以鍵值對的形式存儲,其中鍵為字符串類型,值可以是以下類型之一:字符串、整數、長整數、浮點數、雙精度浮點數。Metadata具有以下用途:

  • 當將文檔內容包含在對LLM(大型語言模型)的提示中時,也可以包含元數據條目,為LLM提供額外的信息以考慮。例如,提供文檔名稱和來源可以幫助提高LLM對內容的理解。
  • 在搜索相關內容以包含在提示中時,可以通過元數據條目進行過濾。例如,可以將語義搜索縮小到僅屬于特定所有者的文檔。
  • 當文檔的來源更新時(例如,特定頁面的文檔),可以通過其元數據條目(例如,"id"、"來源"等)輕松定位相應的文檔,并在EmbeddingStore中同步更新它以保持同步。

DocumentLoader

langchain4j提供了FileSystemDocumentLoader、ClassPathDocumentLoader、UrlDocumentLoader、AmazonS3DocumentLoader(langchain4j-document-loader-amazon-s3)、AzureBlobStorageDocumentLoader(langchain4j-document-loader-azure-storage-blob)、GitHubDocumentLoader(langchain4j-document-loader-github)、GoogleCloudStorageDocumentLoader(langchain4j-document-loader-google-cloud-storage)、SeleniumDocumentLoader(langchain4j-document-loader-selenium)、TencentCosDocumentLoader(langchain4j-document-loader-tencent-cos)

DocumentParser

文檔有諸如PDF, DOC, TXT等類型,需要對應的DocumentParser去解析,langchain4j提供了TextDocumentParser、ApachePdfBoxDocumentParser(langchain4j-document-parser-apache-pdfbox)、ApachePoiDocumentParser(langchain4j-document-parser-apache-poi,可以解析MS Office文件,諸如DOC, DOCX, PPT, PPTX, XLS, XLSX)、ApacheTikaDocumentParser(langchain4j-document-parser-apache-tika,可以自動檢測和解析大部分文件格式)

DocumentTransformer

DocumentTransformer實現可以執行多種文檔轉換任務:

  • 清理(Cleaning):
    清理涉及從文檔文本中移除不必要的噪音,這可以節省token并減少干擾。

  • 過濾(Filtering):
    過濾可以完全排除特定文檔,從而避免這些文檔參與搜索。

  • 豐富(Enriching):
    可以向文檔中添加附加信息,以增強搜索結果。

  • 總結(Summarizing):
    文檔可以被總結,其簡短摘要可以存儲在元數據中,并稍后包含在每個TextSegment 中,以改善搜索結果。

也可以添加、修改或刪除元數據條目。目前唯一提供的開箱即用實現是HtmlToTextDocumentTransformer,它位于langchain4j-document-transformer-jsoup模塊中,可以從原始HTML中提取所需文本內容和元數據條目

TextSegment

一旦文檔加載完成,接下來就是將它們分割(分塊)成更小的片段(部分)。LangChain4j 的領域模型中包含一個TextSegment 類,該類表示文檔的一個片段。正如其名稱所示,TextSegment 只能表示文本信息。

DocumentSplitter

langchain4j提供了多個開箱即用的DocumentSplitter實現,比如DocumentByParagraphSplitter、DocumentByLineSplitter、DocumentBySentenceSplitter、DocumentByWordSplitter、DocumentByCharacterSplitter、DocumentByRegexSplitter以及遞歸的DocumentSplitters.recursive(...)。它們可以通過如下方式配合在一起工作:

  • 實例化一個DocumentSplitter,并指定所需的TextSegments大小,以及可選的字符或token重疊量。
  • 調用DocumentSplitter的split(Document) 或 splitAll(List<Document>) 方法
  • DocumentSplitter將給定的文檔分割成更小的單元,這些單元的性質取決于具體的DocumentSplitter實現。例如,DocumentByParagraphSplitter將文檔按段落(由兩個或更多連續換行符定義)分割,而DocumentBySentenceSplitter 使用OpenNLP庫的句子檢測器將文檔按句子分割,等等。
  • DocumentSplitter 將這些較小的單元(段落、句子、單詞等)組合成TextSegments,嘗試在單個TextSegment中包含盡可能多的單元,而不超過步驟1中設置的限制。如果某些單元仍然太大,無法適應TextSegment,它會調用子分割器。這是另一個DocumentSplitter,能夠將不適應的單元分割成更細粒度的單元。所有元數據條目都會從文檔復制到每個TextSegment。每個TextSegment會添加一個唯一的元數據條目 "index"。第一個TextSegment將包含index=0,第二個 index=1,依此類推。

TextSegmentTransformer

TextSegmentTransformer跟DocumentTransformer有點類似,但是他轉換的是TextSegment。與DocumentTransformer一樣,沒有一種萬能的解決方案,因此建議實現自己的TextSegmentTransformer。有一種在提高檢索效果方面非常有效的方案是:在每個TextSegment中包含文檔標題或簡短摘要。

Embedding

Embedding封裝了一個數值向量,該向量表示已嵌入內容(通常是文本,比如TextSegment)的語義意義.

EmbeddingModel

EmbeddingModel表示一種特殊類型的模型,用于將文本轉換為嵌入(Embedding)。目前支持的嵌入模型可以在這里找到Embedding Models

EmbeddingStore

EmbeddingStore表示一個用于存儲嵌入(Embeddings)的存儲系統,也被稱為向量數據庫。它允許存儲嵌入并高效地搜索相似的(在嵌入空間中靠近的)嵌入。目前支持的嵌入存儲可以在這里找到Comparison table of all supported Embedding Stores。EmbeddingStore可以單獨存儲嵌入,也可以與相應的 TextSegment一起存儲:

  • 它可以通過ID只存儲嵌入。原始嵌入數據可以存儲在其他地方,并通過ID進行關聯。
  • 它可以同時存儲嵌入和已嵌入的原始數據(通常是 TextSegment)。

EmbeddingSearchRequest代表一個向EmbeddingStore的搜索請求,它有maxResults可選參數,返回的最大結果數量,默認值為3;minScore最小分數可選參數,范圍從0到1(含0和1)。只有分數大于等于minScore 的嵌入才會被返回,默認值為0;Filter參數,在搜索過程中應用于元數據的過濾器,只有其元數據與過濾器匹配的TextSegments才會被返回,不過并不是所有的EmbeddingStore都支持元數據過濾,也有的雖然支持但是不支持Filter的所有操作,比如ContainsString操作目前僅僅是Milvus, PgVector和Qdrant這三種向量數據庫支持。
EmbeddingSearchResult代表在EmbeddingStore中搜索的結果,它包含一個EmbeddingMatch列表;EmbeddingMatch表示一個匹配的嵌入(Embedding),以及其相關性分數、ID和原始嵌入數據(通常是 TextSegment)。

EmbeddingStoreIngestor

EmbeddingStoreIngestor負責將文檔(Documents)攝取到嵌入存儲(EmbeddingStore)中。在最簡單的配置中,EmbeddingStoreIngestor使用指定的嵌入模型(EmbeddingModel)對提供的文檔進行嵌入,并將它們及其嵌入存儲在指定的嵌入存儲中。示例代碼:

EmbeddingStoreIngestor ingestor = EmbeddingStoreIngestor.builder()
        .embeddingModel(embeddingModel)
        .embeddingStore(embeddingStore)
        .build();

ingestor.ingest(document1);
ingestor.ingest(document2, document3);
IngestionResult ingestionResult = ingestor.ingest(List.of(document4, document5, document6));
  • 所有ingest() 方法在EmbeddingStoreIngestor中返回一個IngestionResult對象。IngestionResult包含有用的信息,包括TokenUsage,它顯示了用于嵌入的令牌數量。
  • EmbeddingStoreIngestor可選地可以使用指定的DocumentTransformer轉換文檔,這在希望在嵌入之前清理、豐富或格式化文檔時非常有用。
  • EmbeddingStoreIngestor可選地可以使用指定的DocumentSplitter將文檔拆分為文本段(TextSegments)。這在文檔較大時非常有用,您可以將它們拆分為更小的文本段,以提高相似性搜索的質量,并減少發送到LLM的提示的大小和成本。
  • EmbeddingStoreIngestor可選地可以使用指定的TextSegmentTransformer轉換文本段。這在希望在嵌入之前清理、豐富或格式化文本段時非常有用。

示例如下

EmbeddingStoreIngestor ingestor = EmbeddingStoreIngestor.builder()

    // adding userId metadata entry to each Document to be able to filter by it later
    .documentTransformer(document -> {
        document.metadata().put("userId", "12345");
        return document;
    })

    // splitting each Document into TextSegments of 1000 tokens each, with a 200-token overlap
    .documentSplitter(DocumentSplitters.recursive(1000, 200, new OpenAiTokenizer()))

    // adding a name of the Document to each TextSegment to improve the quality of search
    .textSegmentTransformer(textSegment -> TextSegment.from(
            textSegment.metadata("file_name") + "\n" + textSegment.text(),
            textSegment.metadata()
    ))

    .embeddingModel(embeddingModel)
    .embeddingStore(embeddingStore)
    .build();

小結

langchain4j提供了一套豐富的API來構建自定義的RAG(檢索增強生成)pipelines,包括DocumentLoader、DocumentParser、DocumentTransformer、DocumentSplitter、TextSegmentTransformer、EmbeddingStoreIngestor。

doc

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,606評論 6 533
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,582評論 3 418
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,540評論 0 376
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,028評論 1 314
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,801評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,223評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,294評論 3 442
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,442評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,976評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,800評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,996評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,543評論 5 360
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,233評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,662評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,926評論 1 286
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,702評論 3 392
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,991評論 2 374

推薦閱讀更多精彩內容