基于大數據的統計分析模型設計論文

          時間:2021-04-21 08:36:14 論文 我要投稿

          基于大數據的統計分析模型設計論文

            統計是利用盡可能少的局部樣本數據來發現總體規律,處理對象往往數據規模小且數據結構單一。在大數據環境下,面臨海量數據的采集與統計,傳統方法已無法滿足大規模數據集處理;贖adoop系統,利用其分布式存儲和并行處理機制,設計了大數據環境下的統計分析模型,從海量數據中提取出有用的信息特征,實現數據資源共享,為相關部門決策提供信息服務。

          基于大數據的統計分析模型設計論文

            0引言

            隨著統計數據規模的快速增長,數據特征日趨復雜,數據收集渠道多樣,統計學相關領域研究已進入大數據時代。如何高效收集樣本數據、挖掘信息,從海量數據中提取有用的信息特征,將信息及時提供給相關部門決策,成為當前統計學研究熱點之一。與國外相比,我國在統計分析工作中存在信息資源整合程度不高、數據共享匱乏、信息不完整等問題。隨著大數據時代的到來,對大數據分析與挖掘的研究和應用越來越重視,大數據的挖掘與分析將幫助統計部門在有效合理的時間內采集、處理、管理與分析海量數據。

            目前政府部門間借助政務平臺可以實現數據資源共享,但是企業與政府間缺乏數據的分享平臺,造成了信息隔離,對此,統計部門要構建起全方位的海量數據共享和分布式存儲的安全統計分析平臺,實現跨地區的統計信息交流,滿足海量信息數據的實時分享和處理。

            1大數據

            大數據是一種大規模的數據集合,數據分析人員無法在一定時間內用一般軟件對其進行提取、處理、分析和管理。處理大數據的關鍵技術包括大規模數據集的并行處理技術、分布式數據庫、分布式文件存儲與處理系統、數據挖掘、云計算等。大數據具有5V特點:Volume(體量浩大)、Variety(類型多樣)、Velocity(生成快速)、Veracity(真實性高)、Value(價值巨大)。

            1.1云計算

            云計算(Cloud Computing)是傳統信息技術發展融合的產物,基于效用計算(Utility Computing)、并行計算(Parallel Computing)、分布式計算(Distributed Computing),它提供便捷的、可用的、按需付費的網絡訪問。云計算平臺可以提供IaaS(基礎設施即服務)、PaaS(平臺即服務)、 SaaS(軟件即服務),同時負責數據安全、分布式網絡存儲、虛擬化、負載均衡、熱備份冗余等,用戶在使用資源時不需考慮底層基礎架構。

            大數據應用不在于掌握龐大的數據信息,而在于對獲取的數據進行專業化處理,以挖掘出數據的價值。大數據處理任務無法用單機串行計算方式處理,必須采用分布式架構進行計算。其特點在于依托云計算的分布式處理、云存儲、分布式數據庫和虛擬化技術對海量數據進行挖掘。

            1.2大數據處理技術

            1.2.1大數據研究現狀

            Science、Nature等國際頂級學術期刊出專刊探討了大數據處理與分析研究,介紹海量數據給社會生產和人們生活帶來的挑戰和機遇,學者們斷言:“數據將是未來舉足輕重的資源。在應用方面,目前已有很多企業開始做大數據處理的相關研究,IBM、谷歌、雅虎、亞馬遜等公司紛紛提出自己的大數據處理架構和計算模式。谷歌首先提出了分布式存儲系統GFS文件系統、大型分布式數據庫BigTable。2012年美國政府斥資2億美元啟動了大數據研究和發展計劃,大力發展數據信息化基礎設施建設。

            1.2.2大數據處理關鍵技術

            處理和分析大數據的關鍵在于具備分布式存儲功能和強大的計算能力,數據處理的基礎在于數據存儲,數據分析的關鍵在于強勁的處理能力。 Hadoop是一個可擴展、可靠、開源的分布式計算系統,該框架能夠實現在計算機集群中用簡單的計算模式處理海量數據,同依賴高性能服務器相比,Hadoop擴展性較好,同時集群中的節點都可以提供本地存儲和計算。

            1.3基于大數據的統計分析研究

            統計是一項數據處理工程,面對大數據集的處理,統計樣本變大、數據特征復雜等使得統計工作也變得繁瑣,而數據挖掘是從大量數據中取得有用信息的過程,利用現代信息技術及挖掘算法,可以高效地對有用數據獲取與處理。不妨將數據挖掘理解為一個大數據狀態下精確處理數據的統計模型,對挖掘后的數據再引入統計學的思想進行相關數據處理與分析,將兩種方法有機結合起來。

            圖1大數據環境下的統計工作基礎架構 Hadoop為統計分析工作提供了一個穩定可靠的分析系統和共享存儲,它包含兩個核心技術:MapReduce和HDFS。MapReduce實現數據的處理和分析,HDFS負責數據的共享存儲。如圖1所示,大數據環境下,統計工作的基本架構包含數據采集中心和統計分析處理中心。數據采集中心主要是通過部署在云計算環境下的服務器集群去完成數據采集工作,數據主要存放在HDFS分布式數據庫中;統計管理部門設立總的服務器集群,為保證系統的可擴展性,還可以將基層的服務器隨時納入該集群中,利用MapReduce機制分配和處理計算任務;統計分析處理中心主要是智能算法池,通過算法的`應用對采集到的數據進行分析。

            2基于Hadoop的大數據統計分析模型構建

            大數據環境下的統計分析系統以海量數據挖掘為基礎,傳統的統計分析系統采用定期對數據進行處理和分析的方式來更新模型。由于是定期被動更新,模型無法保持實時性,容易造成統計結果不連續。

            系統的設計關鍵在于海量數據的實時采集獲取、統計分析處理和存儲,目的在于實現統計信息資源的共享;贖adoop的層次化統計分析模型如圖2所示,自上而下包括云平臺應用層、邏輯與接口層、計算層、文件系統管理層、物理資源層。

            圖2基于Hadoop的層次化統計分析模型 物理資源層:負責管理平臺的基礎設施,為平臺提供物理設施,除包含分布式集群、數據采集終端、基礎網絡外,還包括圍繞應用相關的基礎組件。

            文件系統管理層:主要用于存儲數據文件和日志文件,同時具備高可用數據備份功能。該層主要采用HDFS分布式存儲,提供很強的數據吞吐能力。針對不同的數據統計終端,該層設計使用不同的操作系統,以便于數據的統一性。

            計算層是該統計模型的核心層,所有的運算機制和數據處理任務都在該層完成。其基礎框架是基于Hadoop MapReduce并行計算框架,采用對數據 “分而治之”的方法來完成并行化的大數據統計分析工作,用Map和Reduce函數提供兩個高層的并行編程抽象模型和接口,工作人員只需要實現這兩個基本接口即可快速完成并行化數據處理程序設計。此外該層還包含了Hadoop平臺的流數據處理storm和實時處理spark,用于對數據源的實時分析處理和更新,以滿足統計部門的高效快速響應要求。

            邏輯與接口層:該層主要功能是實現上層應用層的基礎管理功能,主要包含用戶管理、安全身份認證、統計任務的分配以及連接各地統計部門的接口等,該層還負責整體功能的性能監控。

          【基于大數據的統計分析模型設計論文】相關文章:

          基于數據流SFCM挖掘的入侵檢測系統模型論文04-29

          基于數據挖掘的高校教務系統設計論文11-15

          基于對象數據模型的信息管理系統結構設計技術探究論文10-28

          基于模型的軟件測試技術探析論文05-03

          淺談基于的Windows Azure平臺下的訪問控制模型的設計論文11-16

          基于工業設計模型的高校實驗室建設論文11-19

          石油勘探開發主數據模型研究與設計論文11-02

          基于水文模型及水動力模型的山洪臨界雨量研究論文10-29

          基于AR模型便攜式心率變異系統的設計與實現論文11-15

          国产精品好爽好紧好大_亚洲男人综合久久综合_欧美福利电影a在线播放www_国产精品99久久精品无码

                  亚洲无线码在线 | 日本乱码伦视频中文字 | 五月天天堂AV在线播放 | 日韩欧美一级一中文字幕 | 亚洲国产日韩a在线播放 | 欧美韩国日本国产v |