R語言批量爬取NCBI基因注釋數據

網絡爬蟲(web crawler),也叫網絡蜘蛛(spider),是一種用來自動瀏覽萬維網的網絡機器人。其目的一般為編纂網絡索引。各大搜索引擎都可以被看做爬蟲,根據爬取的內容更新自身的網站內容或其對其他網站的索引。一般如果想批量從網頁獲取數據,有download或者API(之前推送過使用API提取TCGA數據)頁面最好,沒有的話可以考慮使用爬蟲爬取。

??本期使用R語言批量爬取NCBI基因注釋信息,主要用到了XML包的getNodeSet函數。需要使用者有一定html+css基礎,以及理解并能使用XML路徑語言(xpath)


使用R爬取NCBI人類基因信息流程如下:

??首先準備目標基因文件,我們以下面這幾個基因(gene symbol的形式)為例進行爬取其在NCBI(gene)中的信息,基因列表文件可以從這里下載(https://pan.baidu.com/s/1c2jbvby)。

gene list文件

載入要用到的包并讀入基因列表:

library(RCurl)
library(stringr)
library(XML)
library(clusterProfiler)

rm(list=ls())
# 讀入基因列表:
genes <- read.table("test_genes.txt",header = T,stringsAsFactors = F)

從下圖可以發現NCBI對于基因頁面的索引方式都是 https://www.ncbi.nlm.nih.gov/gene/Entrze ID 的方式。

NCBI中基因頁面

所以我們需要將gene symbos轉為entrze ID,這里使用clusterProfiler包的bitr函數進行轉換:

# 將gene symbol轉為entrze ID:
genes <- bitr(genes$SYMBOL, fromType="SYMBOL", toType="ENTREZID", OrgDb="org.Hs.eg.db")

然后獲得每個基因在NCBI中的索引鏈接:

# 網址數據框:
genes$NCBI_url <- paste("https://www.ncbi.nlm.nih.gov/gene/",genes$ENTREZID,sep="")
head(genes)
每個基因symbol、entrze ID和NCBI url

??使用XML包的getNodeSet()函數需要兩個參數,一個是根據URL獲得的網頁XML document對象,另一個是要定位的節點(xpath格式)。不了解xpath的可以點擊頁面左下角閱讀全文查看其基本語法。不過我們可以在不了解語法的情況下獲得要定位節點的xpath。只需要在chrome瀏覽器里打開NCBI的gene信息頁面,我們以基因DBNDD1為例,然后再按一下F12就可以調出chrome瀏覽器自帶的開發者工具:

在chrome瀏覽器中選擇節點的xpath

??比如說我們要爬取基因的Official Full name信息,我們只需要在調出來的開發者工具欄右上角點幾下那個小箭頭,然后在點下Official Full name然后在右上方的源代碼顯示Official Full name的位置點擊右鍵,選擇CopyCopy XPath

獲得要爬取節點的xpath信息

我們可以得到這樣的xpath字段:

# Official Full name的xpath://*[@id="summaryDl"]/dd[2]/text()

??使用同樣的方法,我們可以獲得基因的HGNC IDGene typeSummary等任何部分的xpath。

# HGNC ID的xpath://*[@id="summaryDl"]/dd[3]/a
# Gene type的xpath://*[@id="summaryDl"]/dd[5]/text()
# Summary的xpath://*[@id="summaryDl"]/dd[10]/text()

到這里準備工作就結束了,接下來構建并調用函數來爬取每個基因這4個字段的信息:

# 根據xpath獲取節點內容:
getNodesTxt <- function(html_txt1,xpath_p){
  els1 = getNodeSet(html_txt1, xpath_p)
  # 獲得Node的內容,并且去除空字符:
  els1_txt <- sapply(els1,xmlValue)[!(sapply(els1,xmlValue)=="")]
  # 去除\n:
  str_replace_all(els1_txt,"(\\n )+","")
}

# 處理節點格式,為character且長度為0的賦值為NA:
dealNodeTxt <- function(NodeTxt){
  ifelse(is.character(NodeTxt)==T && length(NodeTxt)!=0 , NodeTxt , NA)
}

使用一個for循環獲得每個基因的信息并存儲到數據框:


for(i in 1:nrow(genes)){
  # 獲得網址:
  doc <- getURL(genes[i,"NCBI_url"])
  cat("成功獲得網頁!\t")
  # 獲得網頁內容
  html_txt1 = htmlParse(doc, asText = TRUE)
  
  # 獲得Full Name:
  genes[i,"FullName"] <- dealNodeTxt(getNodesTxt(html_txt1,'//*[@id="summaryDl"]/dd[2]/text()'))
  cat("寫入基因\t")
  # 獲得HGNC ID:
  genes[i,"HGNC_ID"] <- str_replace_all(dealNodeTxt(getNodesTxt(html_txt1,'//*[@id="summaryDl"]/dd[3]/a')),"HGNC|:","")
  cat("寫入HGNC_ID\t")
  # 獲得Gene type:
  genes[i,"GeneType"] <- dealNodeTxt(getNodesTxt(html_txt1,'//*[@id="summaryDl"]/dd[5]/text()'))
  cat("寫入GeneType\t")
  # 獲得summary:
  genes[i,"Summary"] <- ifelse(length(getNodesTxt(html_txt1,'//*[@id="summaryDl"]/dd[10]/text()'))!=0,getNodesTxt(html_txt1,'//*[@id="summaryDl"]/dd[10]/text()'),NA)
  cat("寫入Summary\n")
  
  print(paste("完成第",i,"個了!"))

}

爬取結果如下:

爬取結果

??上面的節點的xpath中的標簽是按照順序在chrome生成的,這樣就存在一個問題,如果某個基因沒有某個屬性,則這個屬性后續的所有節點的xpath都將發生改變。如下圖所示的兩個基因,一個有別名,一個沒有別名,則這兩個基因的Summaryxpath就是不同的,而我們是按照有別名基因的xpath爬取的,所以爬取到沒有別名的基因時的summary就會出錯。

不同基因同一屬性的xpath可能不同

??為了能夠精確爬取到想要的數據,這里就需要使用到xpath函數獲得準確的節點定位。下面直接附上代碼:

# xpath精確定位:
for(i in 1:nrow(genes)){
  # 獲得網址:
  doc <- getURL(genes[i,"NCBI_url"])
  cat("成功獲得網頁!\t")
  # 獲得網頁內容
  html_txt1 = htmlParse(doc, asText = TRUE)
  
  # 獲得Full Name:
  genes[i,"FullName"] <- str_split(dealNodeTxt(getNodesTxt(html_txt1,'//*[@id="summaryDl"]/dd[preceding-sibling::dt[contains(text(),"Symbol") and position()=1 ] ]')),"provided")[[1]][1]
  cat("寫入基因\t")
  # 獲得HGNC ID:
  genes[i,"HGNC_ID"] <- str_replace_all(getNodesTxt(html_txt1,'//*[@id="summaryDl"]/dd[preceding-sibling::dt[text()="Primary source" and position()=1 ] ]')," |HGNC|:","")
  cat("寫入HGNC_ID\t")
  # 獲得Gene type:
  genes[i,"GeneType"] <- dealNodeTxt(getNodesTxt(html_txt1,'//*[@id="summaryDl"]/dd[preceding-sibling::dt[text()="Gene type" and position()=1 ] ]'))
  cat("寫入GeneType\t")
  # 獲得summary:
  genes[i,"Summary"] <- dealNodeTxt(getNodesTxt(html_txt1,'//*[@id="summaryDl"]/dd[preceding-sibling::dt[text()="Summary" and position()=1 ] ]'))
  cat("寫入Summary\n")
  
  print(paste("完成第",i,"個了!"))
}

精確爬取結果如下,驗證都是正確的。


精確爬取結果

??爬取結果的準確性依賴于節點定位是否準確,定位既可以通過xpath,也可以通過CSSrvest包提供里這兩種定位方式。并且rvest包使用magrittr包的%*%操作符,增強了代碼的可讀性。


更多原創精彩視頻敬請關注生信雜談:

閱讀原文

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容