這篇文章主要講解了“DBus基于可視化配置的日志結構化轉換方法是什么”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“DBus基于可視化配置的日志結構化轉換方法是什么”吧!
成都創(chuàng)新互聯(lián)2013年開創(chuàng)至今,是專業(yè)互聯(lián)網技術服務公司,擁有項目成都網站設計、成都網站建設網站策劃,項目實施與項目整合能力。我們以讓每一個夢想脫穎而出為使命,1280元西陵做網站,已為上家服務,為西陵各地企業(yè)和個人服務,聯(lián)系電話:18980820575
導讀:數(shù)據(jù)總線DBus的總體架構中主要包括六大模塊,分別是:日志抓取模塊、增量轉換模塊、全量抽取程序、日志算子處理模塊、心跳監(jiān)控模塊、Web管理模塊。六大模塊各自的功能相互連接,構成DBus的工作原理:通過讀取RDBMS增量日志的方式來實時獲取增量數(shù)據(jù)日志(支持全量拉取);基于Logstash,flume,filebeat等抓取工具來實時獲得數(shù)據(jù),以可視化的方式對數(shù)據(jù)進行結構化輸出。
源端日志抓取。
DBus可以對接多種log數(shù)據(jù)源,例如:Logstash、Flume、Filebeat等。上述組件都是業(yè)界比較流行的日志抓取工具,一方面便于用戶和業(yè)界統(tǒng)一標準,方便用戶技術方案的整合;另一方面也避免了無謂的重復造輪子。抓取的數(shù)據(jù)我們稱為原始數(shù)據(jù)日志(raw data log),由抓取組件將其寫入Kafka中,等待DBus后續(xù)處理。
可視化配置規(guī)則,使日志結構化。
用戶可自定義配置日志源和目標端。同一個日志源的數(shù)據(jù)可以輸出到多個目標端。每一條“日志源-目標端”線,用戶可以根據(jù)自己的需要來配置相應的過濾規(guī)則。經過規(guī)則算子處理后的日志是結構化的,即:有schema約束,類似于數(shù)據(jù)庫中的表。
規(guī)則算子。
DBus設計了豐富易用的算子,用于對數(shù)據(jù)進行定制化操作。用戶對數(shù)據(jù)的處理可分為多個步驟進行,每個步驟的數(shù)據(jù)處理結果可即時查看、驗證;并且可重復使用不同算子,直到轉換、裁剪出自己需要的數(shù)據(jù)。
執(zhí)行引擎。
將配置好的規(guī)則算子組應用到執(zhí)行引擎中,對目標日志數(shù)據(jù)進行預處理,形成結構化數(shù)據(jù),輸出到Kafka,供下游數(shù)據(jù)使用方使用。系統(tǒng)流程圖如下所示:

根據(jù)DBus log設計原則,同一條原始日志,可以被提取到一個或多個表中。每個表是結構化的,滿足相同的schema約束。
每個表是一個規(guī)則算子組的集合,每個表可以擁有1個或多個規(guī)則算子組;
每個規(guī)則算子組,由一組規(guī)則算子組合而成,每個算子具有獨立性;
對于任意一條原始數(shù)據(jù)日志(raw data log),它應該屬于哪張表呢?
假如用戶定義了若干張邏輯表(T1,T2…),用于抽取不同類型的日志,那么,每條日志需要與規(guī)則算子組進行匹配:
進入某張表T1的所有規(guī)則算子組的執(zhí)行過程
符合條件的進入規(guī)則算子組,并且被執(zhí)行引擎轉換為結構化的表數(shù)據(jù)
不符合提取條件的日志嘗試下一個規(guī)則算子組
對于T1的所有規(guī)則算子組,如果都不滿足要求,則進入下一張表T2的執(zhí)行過程,以此類推
如果該條日志不符合任何一張表的過濾規(guī)則,則進入_unknown_table_表

規(guī)則算子是對數(shù)據(jù)進行過濾、加工、轉換的基本單元。常見的規(guī)則算子如上圖所示。
算子之間具有獨立性,算子之間可以任意組合使用,從而可以實現(xiàn)許多復雜的、高級的功能,通過對算子進行迭代使用,最終可以實現(xiàn)對任意數(shù)據(jù)進行加工的目的。用戶可以開發(fā)自定義算子,算子的開發(fā)非常容易,用戶只要遵循基本接口原則,就可以開發(fā)任意的算子。
DBus可以接入多種數(shù)據(jù)源(Logstash、Flume、Filebeat等),此處以Logstash為例來說明如何接入DBus的監(jiān)控和報警日志數(shù)據(jù)。

由于在dbus-n2和dbus-n3兩臺機器上分別存在監(jiān)控和預警日志,為此我們分別在兩臺機器上部署了Logstash程序。心跳數(shù)據(jù)由Logstash自帶的心跳插件產生,其作用是便于DBus對數(shù)據(jù)進行統(tǒng)計和輸出,以及對源端日志抽取端(此處為Logstash)進行預警(對于Flume和Filebeat來說,因為它們沒有心跳插件,所以需要額外為其定時產生心跳數(shù)據(jù))。Logstash程序寫入到Kafka中的數(shù)據(jù)中既有普通格式的數(shù)據(jù),同時也有心跳數(shù)據(jù)。這里不只是局限于2臺部署有Logstash程序的機器,DBus對Logstash數(shù)量不做限制,比如應用日志分布在幾十上百臺機器上,只需要在每臺機器上部署Logstash程序,并將數(shù)據(jù)統(tǒng)一抽取到同一個Kafka Topic中,DBus就能夠對所有主機的數(shù)據(jù)進行數(shù)據(jù)處理、監(jiān)控、預警、統(tǒng)計等。
1、啟動Logstash
在啟動Logstash程序后,我們就可以從topic : heartbeat_log_logstash中讀取數(shù)據(jù),數(shù)據(jù)樣例如下:
心跳數(shù)據(jù):

普通日志數(shù)據(jù):

2. 配置規(guī)則
接下來,我們只需要在DBus Web中配置相應的規(guī)則就可以對數(shù)據(jù)進行處理了。
首先新建一個邏輯表sink_info_table,該表用來抽取sink事件的日志信息,然后配置該表的規(guī)則組(一個或多個,但所有的規(guī)則組過濾后的數(shù)據(jù)需要滿足相同schema特性),heartbeat_log_logstash作為原始數(shù)據(jù)topic,我們可以實時的對數(shù)據(jù)進行可視化操作配置(所見即所得,即席驗證)。

讀取原始數(shù)據(jù)日志:

可以看到由Logstash預先提取已經包含了log4j的基本信息,例如path、@timestamp、level等。但是數(shù)據(jù)日志的詳細信息在字段log中。由于不同的數(shù)據(jù)日志輸出是不一樣的,因此可以看到log列數(shù)據(jù)是不同的。
提取感興趣的列:
假如我們對timestamp、log 等原始信息感興趣,那么可以添加一個toIndex算子,來提取這些字段:

這里需要指出,我們考慮使用數(shù)組下標方式,是有原因的:
并不是所有列本身自帶列名(例如flume抽取的原始數(shù)據(jù),或者split算子處理后的數(shù)據(jù)列);
下標方式可以使用數(shù)組方式指定列(類似python方式, 例如:1:3表示1,2列);
因此后續(xù)操作全部基于數(shù)組下標方式訪問。
執(zhí)行規(guī)則,就可以看到被提取后的字段情況:

過濾需要的數(shù)據(jù):
在這個例子中,我們只對含有“Sink to influxdb OK!”的數(shù)據(jù)感興趣。因此添加一個filter算子,提取第7列中包含”Sink to influxdb OK!”內容的行數(shù)據(jù):

執(zhí)行后,只有符合條件的日志行數(shù)據(jù)才會存在。

對特定列進行提取:
添加一個select算子,我們對第1和3列的內容感興趣,所以對這兩列進行提取。

執(zhí)行select算子,數(shù)據(jù)中就會只含有第1和3列了。

以正則表達式的方式處理數(shù)據(jù):
我們想從第1列的數(shù)據(jù)中提取符合特定正則表達式的值,使用regexExtract算子對數(shù)據(jù)進行過濾。正則表達式如下:http_code=(d*).*type=(.*),ds=(.*),schema=(.*),table=(.*)s.*errorCount=(d*),用戶可以寫自定義的正則表達式。

執(zhí)行后,就會獲取正則表達式執(zhí)行后的數(shù)據(jù)。

選擇輸出列:
最后我們把感興趣的列進行輸出,使用saveAs算子, 指定列名和類型,方便于保存在關系型數(shù)據(jù)庫中。

執(zhí)行saveAs算子后,這就是處理好的最終輸出數(shù)據(jù)樣本。

3.查看結構化輸出結果
保存上一步配置好的規(guī)則組,日志數(shù)據(jù)經過DBus執(zhí)行算子引擎,就可以生成相應的結構化數(shù)據(jù)了。目前根據(jù)項目實際,DBus輸出的數(shù)據(jù)是UMS格式,如果不想使用UMS,可以經過簡單的開發(fā),實現(xiàn)定制化。
注:UMS是DBus定義并使用的、通用的數(shù)據(jù)交換格式,是標準的JSON。其中同時包含了schema和數(shù)據(jù)信息。更多UMS介紹請參考DBus開源項目主頁的介紹。開源地址:
https://github.com/bridata/dbus
以下是測試案例,輸出的結構化UMS數(shù)據(jù)的樣例:

4.日志監(jiān)控
為了便于掌握數(shù)據(jù)抽取、規(guī)則匹配、監(jiān)控預警等情況,我們提供了日志數(shù)據(jù)抽取的可視化實時監(jiān)控界面,如下圖所示,可隨時了解以下信息:
實時數(shù)據(jù)條數(shù)
錯誤條數(shù)情況(錯誤條數(shù)是指:執(zhí)行算子時出現(xiàn)錯誤的情況,幫助發(fā)現(xiàn)算子與數(shù)據(jù)是否匹配,用于修改算子,DBus同時也提供了日志回讀的功能,以免丟失部分數(shù)據(jù))
數(shù)據(jù)延時情況
日志抽取端是否正常

監(jiān)控信息中包含了來自集群內各臺主機的監(jiān)控信息,以主機IP(或域名)對數(shù)據(jù)分別進行監(jiān)控、統(tǒng)計和預警等。
監(jiān)控中還有一張表叫做_unkown_table_ 表明所有沒有被匹配上的數(shù)據(jù)條數(shù)。例如:Logstash抓取的日志中有5種不同事件的日志數(shù)據(jù),我們只捕獲了其中3種事件,其它沒有被匹配上的數(shù)據(jù),全部在_unkown_table_計數(shù)中。

DBus同樣可以接入Flume、Filebeat、UMS等數(shù)據(jù)源,只需要稍作配置,就可以實現(xiàn)類似于對Logstash數(shù)據(jù)源同樣的處理效果。
感謝各位的閱讀,以上就是“DBus基于可視化配置的日志結構化轉換方法是什么”的內容了,經過本文的學習后,相信大家對DBus基于可視化配置的日志結構化轉換方法是什么這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關知識點的文章,歡迎關注!
分享名稱:DBus基于可視化配置的日志結構化轉換方法是什么
網頁鏈接:http://www.chinadenli.net/article26/gpdpcg.html
成都網站建設公司_創(chuàng)新互聯(lián),為您提供云服務器、商城網站、全網營銷推廣、App設計、移動網站建設、關鍵詞優(yōu)化
聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)