文字是傳遞信息的高效途徑,利用OCR技術提取文本信息是各行業(yè)向數(shù)字智能化轉型的第一步。與此同時,針對OCR提取的海量文本信息,利用NLP技術進一步加工提取、分析理解后才能最大化發(fā)揮文本信息的價值。NLP技術可以提升OCR準確率,并從文本中抽取關鍵信息、構建知識圖譜,搭建檢索、推薦、問答系統(tǒng)等。
雖然各行業(yè)智能化產業(yè)升級已經在如火如荼的開展中,但是在實際應用落地中卻遇到諸多困難,比如:數(shù)據樣本不夠、模型精度不高、預測時延大等。為此,百度飛槳針對真實、高頻的產業(yè)場景,提供了從數(shù)據準備、模型訓練優(yōu)化,到模型部署全流程的案例教程。
市面上有不少開源的OCR、NLP產品,但是如果想直接利用這些工具,會面臨底層框架不統(tǒng)一、串聯(lián)難度高、效果無法保證等問題。PaddleOCR和PaddleNLP是面向產業(yè)界的開發(fā)庫,均基于飛槳開源框架最新版本,能夠將OCR和NLP技術無縫結合。今天我們針對金融行業(yè)研報、物流快遞單,來看看OCR + NLP信息抽取技術的應用。當前,諸多投資機構都通過研報的形式給出對于股票、基金以及行業(yè)的判斷,讓大眾了解熱點方向、龍頭公司等各類信息。然而,分析和學習研報往往花費大量時間,研報數(shù)量的與日俱增也使得研報智能分析訴求不斷提高。這里我們采用命名實體識別技術,自動抽取研報中的關鍵信息,例如,“中國銀行成立于1912年?!敝邪私M織機構、場景事件、時間等實體信息。針對研報數(shù)據的命名實體識別與詞頻統(tǒng)計整體流程如上圖所示。首先將研報pdf數(shù)據使用fitz包拆分為圖像格式,然后利用PaddleOCR套件在研報數(shù)據集上微調PP-OCR[1]的檢測模型,使用現(xiàn)有的識別模型獲得文本信息。PP-OCR是PaddleOCR中由百度自研的明星模型系列,由文本檢測、文本方向分類器與文本識別模塊串聯(lián)而成。
對OCR識別出的文本進行整理后,調用PaddleNLP中的Taskflow API抽取文本信息中的組織機構實體。最后對這些實體進行詞頻統(tǒng)計,就可初步判定當前研報分析的熱點機構。

目前,Taskflow API 支持自然語言理解(NLU)和生成(NLG)兩大場景共八大任務,包括中文分詞、詞性標注、命名實體識別、句法分析、文本糾錯、情感分析、生成式問答和智能寫詩,均可一鍵調用。雙十一要到了,想必很多人都預備了一個滿滿的購物車。去年雙十一成交量4982億元,全國快遞企業(yè)共處理快件39億件,這背后則是物流行業(yè)工作量的驟增。除了滿負荷的長深高速公路,還有繁忙的快遞小哥。無論是企業(yè)業(yè)務匯總,還是寄件信息填寫,都少不了關鍵信息智能提取這一環(huán)節(jié),這其中均采用了命名實體識別技術。命名實體識別大體上有三種方案:字符串匹配、統(tǒng)計語言模型、序列標注。前兩種方法需要預先構建詞典、窮舉所有實體,無法發(fā)現(xiàn)新詞、變體等。本案例中采用了目前的主流方法——序列標注。數(shù)據集包括1600條訓練集,200條訓練集和200條測試集,采用BIO體系進行標注。
?
實體定義和數(shù)據集標注示例
針對輕量化、高精度的需求,可以選用RNN+CRF 方案。也可以采用預訓練模型,通過模型壓縮、動轉靜加速等方式滿足精度和性能的要求。我們采用Ernie-Gram[2] + CRF 獲得了最佳效果。此外,命名實體識別技術可以應用于各類關鍵信息的提取,例如電商評論中的商品名稱、電子發(fā)票中的抬頭信息、收入證明中的金額、法律文書中的犯罪地點等信息。結合關系抽取、事件抽取技術,還可以構建知識圖譜、搭建問答系統(tǒng)等。為了便于大家更熟練地使用這些案例教程,百度高工將于10月26-28日圍繞四大行業(yè)、八大真實場景親授產業(yè)實踐案例課,歡迎小伙伴們鎖定我們的直播間,來和我們交流吧!掃碼報名直播課,立即加入技術交流群
精彩內容搶先看
- 官網地址:https://www.paddlepaddle.org.cn
- PaddleOCR 項目地址:https://github.com/PaddlePaddle/PaddleOCR
- PaddleNLP 項目地址:https://github.com/PaddlePaddle/PaddleNLP
[1] PP-OCR: A Practical Ultra Lightweight OCR System(https://arxiv.org/pdf/2009.09941.pdf)[2] ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding(https://arxiv.org/pdf/2010.12148.pdf)