在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

PRAM模型、BSP模型、LogP模型優(yōu)缺點分析

電子工程師 ? 來源:網絡整理 ? 作者:工程師3 ? 2018-05-07 09:12 ? 次閱讀

并行計算模型通常指從并行算法的設計和分析出發(fā),將各種并行計算機(至少某一類并行計算機)的基本特征抽象出來,形成一個抽象的計算模型。

PRAM模型

PRAM(Parallel Random Access Machine,隨機存取并行機器)模型,也稱為共享存儲的SIMD模型,是一種抽象的并行計算模型,它是從串行的RAM模型直接發(fā)展起來的。在這種模型中,假定存在一個容量無限大的共享存儲器,有有限個或無限個功能相同的處理器,且他們都具有簡單的算術運算和邏輯判斷功能,在任何時刻各處理器都可以通過共享存儲單元相互交互數(shù)據(jù)。根據(jù)處理器對共享存儲單元同時讀、同時寫的限制,PRAM模型可以分為下面幾種:

不允許同時讀和同時寫(Exclusive-Read and Exclusive-Write)的PRAM模型,簡稱為PRAM-EREW;
允許同時讀但不允許同時寫(Concurrent-Read and Exclusive-Write)的PRAM模型,簡稱為PRAM-CREW;
允許同時讀和同時寫(Concurrent-Read and Concurrent-Write)的PRAM模型,簡稱為PRAM-CRCW。

顯然,允許同時寫是不現(xiàn)實的,于是又對PRAM-CRCW模型做了進一步約定,于是形成了下面幾種模型:

只允許所有的處理器同時寫相同的數(shù),此時稱為公共(common)的PRAM-CRCW,簡稱為CPRAM-CRCW;
只允許最優(yōu)先的處理器先寫,此時稱為優(yōu)先(Priority)的PRAM-CRCW,簡稱為PPRAM-CRCW;
允許任意處理器自由寫,此時稱為任意(Arbitrary)的PRAM-CRCW,簡稱為APRAM-CRCW。
往存儲器中寫的實際內容是所有處理器寫的數(shù)的和,此時稱為求和(Sum)的PRAM-CRCE,將稱為SPRAM-CRCW。

PRAM模型的優(yōu)點

PRAM模型特別適合于并行算法的表達、分析和比較,使用簡單,很多關于并行計算機的底層細節(jié),比如處理器間通信、存儲系統(tǒng)管理和進程同步都被隱含在模型中;易于設計算法和稍加修改便可以運行在不同的并行計算機系統(tǒng)上;根據(jù)需要,可以在PRAM模型中加入一些諸如同步和通信等需要考慮的內容。

PRAM模型的缺點

(1)模型中使用了一個全局共享存儲器,且局存容量較小,不足以描述分布主存多處理機的性能瓶頸,而且共享單一存儲器的假定,顯然不適合于分布存儲結構的MIMD機器;

(2)PRAM模型是同步的,這就意味著所有的指令都按照鎖步的方式操作,用戶雖然感覺不到同步的存在,但同步的存在的確很耗費時間,而且不能反映現(xiàn)實中很多系統(tǒng)的異步性;

(3)PRAM模型假設了每個處理器可在單位時間訪問共享存儲器的任一單元,因此要求處理機間通信無延遲、無限帶寬和無開銷,假定每個處理器均可以在單位時間內訪問任何存儲單元而略去了實際存在的,合理的細節(jié),比如資源競爭和有限帶寬,這是不現(xiàn)實的;

(4) PRAM模型假設處理機有限或無限,對并行任務的增大無開銷;

(5)未能描述所線程技術和流水線預取技術,而這兩種技術又是當今并行體系結構用的最普遍的技術。

BSP模型

BSP模型基本原理

BSP模型是一種異步MIMD-DM模型(DM: distributed memory,SM: shared memory),BSP模型支持消息傳遞系統(tǒng),塊內異步并行,塊間顯式同步,該模型基于一個master協(xié)調,所有的worker同步(lock-step)執(zhí)行, 數(shù)據(jù)從輸入的隊列中讀取,該模型的架構如圖所示:

PRAM模型、BSP模型、LogP模型優(yōu)缺點分析

另外,BSP并行計算模型可以用 p/s/g/I 4個參數(shù)進行描述:

P為處理器的數(shù)目(帶有存儲器)。

s為處理器的計算速度。

g為每秒本地計算操作的數(shù)目/通信網絡每秒傳送的字節(jié)數(shù),稱之為選路器吞吐率,視為帶寬因子 (time steps/packet)=1/bandwidth。

i為全局的同步時間開銷,稱之為全局同步之間的時間間隔 (Barrier synchronization time)。

那么假設有p臺處理器同時傳送h個字節(jié)信息,則gh就是通信的開銷。同步和通信的開銷都規(guī)格化為處理器的指定條數(shù)。

BSP計算模型不僅是一種體系結構模型,也是設計并行程序的一種方法。BSP程序設計準則是整體同步(bulk synchrony),其獨特之處在于超步(superstep)概念的引入。一個BSP程序同時具有水平和垂直兩個方面的結構。從垂直上看,一個BSP程序由一系列串行的超步(superstep)組成,如圖所示:

PRAM模型、BSP模型、LogP模型優(yōu)缺點分析

這種結構類似于一個串行程序結構。從水平上看,在一個超步中,所有的進程并行執(zhí)行局部計算。一個超步可分為三個階段,如圖所示:

PRAM模型、BSP模型、LogP模型優(yōu)缺點分析

本地計算階段,每個處理器只對存儲本地內存中的數(shù)據(jù)進行本地計算。

全局通信階段,對任何非本地數(shù)據(jù)進行操作。

柵欄同步階段,等待所有通信行為的結束。

BSP模型特點

1. BSP模型將計算劃分為一個一個的超步(superstep),有效避免死鎖。

2. 它將處理器和路由器分開,強調了計算任務和通信任務的分開,而路由器僅僅完成點到點的消息傳遞,不提供組合、復制和廣播等功能,這樣做既掩蓋具體的互連網絡拓撲,又簡化了通信協(xié)議;

3. 采用障礙同步的方式以硬件實現(xiàn)的全局同步是在可控的粗粒度級,從而提供了執(zhí)行緊耦合同步式并行算法的有效方式,而程序員并無過分的負擔;

4. 在分析BSP模型的性能時,假定局部操作可以在一個時間步內完成,而在每一個超級步中,一個處理器至多發(fā)送或接收h條消息(稱為h-relation)。假定s是傳輸建立時間,所以傳送h條消息的時間為gh+s,如果 ,則L至少應該大于等于gh。很清楚,硬件可以將L設置盡量小(例如使用流水線或大的通信帶寬使g盡量小),而軟件可以設置L的上限(因為L越大,并行粒度越大)。在實際使用中,g可以定義為每秒處理器所能完成的局部計算數(shù)目與每秒路由器所能傳輸?shù)臄?shù)據(jù)量之比。如果能夠合適的平衡計算和通信,則BSP模型在可編程性方面具有主要的優(yōu)點,而直接在BSP模型上執(zhí)行算法(不是自動的編譯它們),這個優(yōu)點將隨著g的增加而更加明顯;

5. 為PRAM模型所設計的算法,都可以采用在每個BSP處理器上模擬一些PRAM處理器的方法來實現(xiàn)。

BSP模型的評價

1. 在并行計算時,Valiant試圖也為軟件和硬件之間架起一座類似于馮·諾伊曼機的橋梁,它論證了BSP模型可以起到這樣的作用,正是因為如此,BSP模型也常叫做橋模型。

2. 一般而言,分布存儲的MIMD模型的可編程性比較差,但在BSP模型中,如果計算和通信可以合適的平衡(例如g=1),則它在可編程方面呈現(xiàn)出主要的優(yōu)點。

3. 在BSP模型上,曾直接實現(xiàn)了一些重要的算法(如矩陣乘、并行前序運算、FFT和排序等),他們均避免了自動存儲管理的額外開銷。

4. BSP模型可以有效的在超立方體網絡和光交叉開關互連技術上實現(xiàn),顯示出,該模型與特定的技術實現(xiàn)無關,只要路由器有一定的通信吞吐率。

5. 在BSP模型中,超級步的長度必須能夠充分的適應任意的h-relation,這一點是人們最不喜歡的。

6. 在BSP模型中,在超級步開始發(fā)送的消息,即使網絡延遲時間比超級步的長度短,該消息也只能在下一個超級步才能被使用。

7. BSP模型中的全局障礙同步假定是用特殊的硬件支持的,但很多并行機中可能沒有相應的硬件。

BSP與MapReduce對比

執(zhí)行機制:MapReduce是一個數(shù)據(jù)流模型,每個任務只是對輸入數(shù)據(jù)進行處理,產生的輸出數(shù)據(jù)作為另一個任務的輸入數(shù)據(jù),并行任務之間獨立地進行,串行任務之間以磁盤和數(shù)據(jù)復制作為交換介質和接口

BSP是一個狀態(tài)模型,各個子任務在本地的子圖數(shù)據(jù)上進行計算、通信、修改圖的狀態(tài)等操作,并行任務之間通過消息通信交流中間計算結果,不需要像MapReduce那樣對全體數(shù)據(jù)進行復制。

迭代處理:MapReduce模型理論上需要連續(xù)啟動若干作業(yè)才可以完成圖的迭代處理,相鄰作業(yè)之間通過分布式文件系統(tǒng)交換全部數(shù)據(jù)。BSP模型僅啟動一個作業(yè),利用多個超步就可以完成迭代處理,兩次迭代之間通過消息傳遞中間計算結果。由于減少了作業(yè)啟動、調度開銷和磁盤存取開銷,BSP模型的迭代執(zhí)行效率較高。

數(shù)據(jù)分割:基于BSP的圖處理模型,需要對加載后的圖數(shù)據(jù)進行一次再分布的過程,以確定消息通信時的路由地址。例如,各任務并行加載數(shù)據(jù)過程中,根據(jù)一定的映射策略,將讀入的數(shù)據(jù)重新分發(fā)到對應的計算任務上(通常是放在內存中),既有磁盤I/O又有網絡通信,開銷很大。但是一個BSP作業(yè)僅需一次數(shù)據(jù)分割,在之后的迭代計算過程中除了消息通信之外,不再需要進行數(shù)據(jù)的遷移。而基于MapReduce的圖處理模型,一般情況下,不需要專門的數(shù)據(jù)分割處理。但是Map階段和Reduce階段存在中間結果的Shuffle過程,增加了磁盤I/O和網絡通信開銷。

MapReduce的設計初衷:解決大規(guī)模、非實時數(shù)據(jù)處理問題。"大規(guī)模"決定數(shù)據(jù)有局部性特性可利用(從而可以劃分)、可以批處理;"非實時"代表響應時間可以較長,有充分的時間執(zhí)行程序。而BSP模型在實時處理有優(yōu)異的表現(xiàn)。這是兩者最大的一個區(qū)別。

BSP模型的實現(xiàn)

1.Pregel

Google的大規(guī)模圖計算框架,首次提出了將BSP模型應用于圖計算,具體請看Pregel——大規(guī)模圖處理系統(tǒng),不過至今未開源。

2.Apache Giraph

ASF社區(qū)的Incubator項目,由Yahoo!貢獻,是BSP的java實現(xiàn),專注于迭代圖計算(如pagerank,最短連接等),每一個job就是一個沒有reducer過程的hadoop job。

3.Apache Hama

也是ASF社區(qū)的Incubator項目,與Giraph不同的是它是一個純粹的BSP模型的java實現(xiàn),并且不單單是用于圖計算,意在提供一個通用的BSP模型的應用框架。

4.GraphLab

CMU的一個迭代圖計算框架,C++實現(xiàn)的一個BSP模型應用框架,不過對BSP模型做了一定的修改,比如每一個超步之后并不設置全局同步點,計算可以完全異步進行,加快了任務的完成時間。

5.Spark

加州大學伯克利分校實現(xiàn)的一個專注于迭代計算的應用框架,用Scala語言寫就,提出了RDD(彈性分布式數(shù)據(jù)集)的概念,每一步的計算數(shù)據(jù)都從上一步結果精簡而來,大大降低了網絡傳輸,同時保證了血統(tǒng)的純正性(即出錯只需返回上一步即可),增強了容錯功能。Spark論文里也基于此框架實現(xiàn)了BSP模型(叫Bagel)。值得一提的是國內的豆瓣也基于該思想用Python實現(xiàn)了這樣一個框架叫Dpark,并且已經開源。https://github.com/douban/dpark

6.Trinity

這是微軟的一個圖計算平臺,C#開發(fā)的,它是為了提供一個專用的圖計算應用平臺,包括底層的存儲到上層的應用,應該是可以實現(xiàn)BSP模型的,文章發(fā)在SIGMOD13上,可恨的是也不開源。主頁

7.GoldenOrb

另一個BSP模型的java實現(xiàn),是對Pregel的一個開源實現(xiàn),應用在hadoop上。
官網:(要FQ)
源碼:https://github.com/jzachr/goldenorb

8.Phoebus

Erlang語言實現(xiàn)的BSP模型,也是對Pregel的一個開源實現(xiàn)。https://github.com/xslogic/phoebus

9.Rubicon

Pregel的開源實現(xiàn)。https://launchpad.net/rubicon

10.Signal/Collect

也是一個Scala版的BSP模型實現(xiàn)。

11.PEGASUS

在hadoop上實現(xiàn)的一個java版的BSP模型,發(fā)表在SIGKDD2011上。~pegasus/index.htm

LogP模型

根據(jù)技術發(fā)展的趨勢,20世紀90年代末和未來的并行計算機發(fā)展的主流之一是巨量并行機,即MPC(Massively Parallel Computers),它由成千個功能強大的處理器/存儲器節(jié)點,通過具有有限帶寬的和相當大的延遲的互連網絡構成。所以我們建立并行計算模型應該充分考慮到這個情況,這樣基于模型的并行算法才能在現(xiàn)有和將來的并行計算機上有效的運行。根據(jù)已有的編程經驗,現(xiàn)有的共享存儲、消息傳遞和數(shù)據(jù)并行等編程方式都很流行,但還沒有一個公認的和占支配地位的編程方式,因此應該尋求一種與上面的編程方式無關的計算模型。而根據(jù)現(xiàn)有的理論模型,共享存儲PRAM模型和互連網絡的SIMD模型對開發(fā)并行算法還不夠合適,因為它們既沒有包含分布存儲的情況,也沒有考慮通信和同步等實際因素,從而也不能精確的反映運行在真實的并行計算機上的算法的行為,所以,1993年D.Culer等人在分析了分布式存儲計算機特點的基礎上,提出了點對點通信的多計算機模型,它充分說明了互聯(lián)網絡的性能特性,而不涉及到具體的網絡結構,也不假定算法一定要用現(xiàn)實的消息傳遞操作進行描述。

LogP模型是一種分布存儲的、點到點通信的多處理機模型,其中通信網絡由4個主要參數(shù)來描述:

(1)L(Latency) 表示源處理機與目的處理機進行消息(一個或幾個字)通信所需要的等待或延遲時間的上限,表示網絡中消息的延遲。

(2)o(overhead)表示處理機準備發(fā)送或接收每個消息的時間開銷(包括操作系統(tǒng)核心開銷和網絡軟件開銷),在這段時間里處理不能執(zhí)行其它操作。

(3)g(gap)表示一臺處理機連續(xù)兩次發(fā)送或接收消息時的最小時間間隔,其倒數(shù)即微處理機的通信帶寬。

(4)P(Processor)處理機/存儲器模塊個數(shù)

假定一個周期完成一次局部操作,并定義為一個時間單位,那么,L,o和g都可以表示成處理器周期的整數(shù)倍。

LogP模型的特點

(1)抓住了網絡與處理機之間的性能瓶頸。g反映了通信帶寬,單位時間內最多有L/g個消息能進行處理機間傳送。
(2)處理機之間異步工作,并通過處理機間的消息傳送來完成同步。

(3)對多線程技術有一定反映。每個物理處理機可以模擬多個虛擬處理機(VP),當某個VP有訪問請求時,計算不會終止,但VP的個數(shù)受限于通信帶寬和上下文交換的開銷。VP受限于網絡容量,至多有L/g個VP。

(4)消息延遲不確定,但延遲不大于L。消息經歷的等待時間是不可預測的,但在沒有阻塞的情況下,最大不超過L。

(5)LogP模型鼓勵編程人員采用一些好的策略,如作業(yè)分配,計算與通信重疊以及平衡的通信模式等。

(6)可以預估算法的實際運行時間。

LogP模型的不足之處

(1)對網絡中的通信模式描述的不夠深入。如重發(fā)消息可能占滿帶寬、中間路由器緩存飽和等未加描述。

(2)LogP模型主要適用于消息傳遞算法設計,對于共享存儲模式,則簡單地認為遠地讀操作相當于兩次消息傳遞,未考慮流水線預取技術、Cache引起的數(shù)據(jù)不一致性以及Cache命中率對計算的影響。

(3)未考慮多線程技術的上下文開銷。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • BSP
    BSP
    +關注

    關注

    1

    文章

    87

    瀏覽量

    26153
  • 并行計算
    +關注

    關注

    0

    文章

    27

    瀏覽量

    9431
  • PRAM
    +關注

    關注

    0

    文章

    4

    瀏覽量

    9454
收藏 人收藏

    評論

    相關推薦

    LogP簡化模型參數(shù)估計

    LogP簡化模型參數(shù)估計針對LogP微觀通信模型涉及參數(shù)較多,其算法分析較復雜;而簡化的LogP
    發(fā)表于 06-17 09:52

    SPICE仿真模型的優(yōu)點和缺點

    作者: TI 專家 Bruce Trump翻譯: TI信號鏈工程師 Rickey Xiong (熊堯)每一個讀過我博客的人都知道,我使用SPICE模型仿真電路。你可能聽說過Bob Pease,在
    發(fā)表于 09-21 15:51

    SPICE模型有什么優(yōu)缺點?如何合理的使用SPICE模型

    請問SPICE模型有什么優(yōu)缺點?如何合理的使用SPICE模型
    發(fā)表于 04-13 06:59

    MRAS模型和可調模型參考

    1、簡寫MRAS參考模型和可調模型參考模型和可調模型方程:簡寫為如下形式:參考模型:可調模型:定
    發(fā)表于 08-27 06:44

    LogP簡化模型參數(shù)估計

    針對LogP微觀通信模型涉及參數(shù)較多,其算法分析較復雜;而簡化的LogP模型把兩臺處理機傳送長度為N的消息的所需時間分為:與數(shù)據(jù)量無關和與數(shù)
    發(fā)表于 04-26 18:24 ?28次下載

    基于多級混合模型的圖像分割方法

    本文研究了典型的基于區(qū)域的圖像分割方法主動形狀模型(Active Shape Model, ASM)和基于邊緣的圖像分割snake 算法,分析了算法適用條件和各自的優(yōu)缺點。結合snake 模型
    發(fā)表于 07-08 09:58 ?20次下載

    什么是IBIS模型?以及IBIS模型的仿真及優(yōu)缺點

    IBIS 模型的介紹 1. 什么是IBIS模型?   IBIS(Input/Output Buffer Information Specification)
    發(fā)表于 03-20 14:12 ?4987次閱讀

    深度分析RNN的模型結構,優(yōu)缺點以及RNN模型的幾種應用

    強大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強的。 這篇文章,闡述了RNN的方方面面,包括模型結構,優(yōu)缺點,RNN模型的幾種應用,RNN常使用的激活函數(shù),RNN的缺陷,以
    的頭像 發(fā)表于 05-13 10:47 ?2.4w次閱讀
    深度<b class='flag-5'>分析</b>RNN的<b class='flag-5'>模型</b>結構,<b class='flag-5'>優(yōu)缺點</b>以及RNN<b class='flag-5'>模型</b>的幾種應用

    AI大模型和小模型是什么?AI大模型和小模型的區(qū)別

      隨著人工智能的不斷發(fā)展和應用,機器學習模型的大小越來越成為一個重要的問題。在機器學習中,我們通常將模型分為兩類:大模型和小模型。本文將介紹AI大
    發(fā)表于 08-08 16:55 ?9200次閱讀

    卷積神經網絡模型優(yōu)缺點

    卷積神經網絡模型優(yōu)缺點? 卷積神經網絡(Convolutional Neural Network,CNN)是一種從圖像、視頻、聲音和一系列多維信號中進行學習的深度學習模型。它在計算機視覺、語音識別
    的頭像 發(fā)表于 08-21 17:15 ?4474次閱讀

    盤古大模型和阿里哪個好?

    盤古大模型和阿里哪個好? 介紹盤古大模型和阿里巴巴兩個產品的優(yōu)缺點和適用場景。 一、 盤古大模型 1. 產品介紹 盤古大模型是杭州大朗科技有
    的頭像 發(fā)表于 08-31 09:01 ?1450次閱讀

    神經網絡模型的原理、類型、應用場景及優(yōu)缺點

    模型的原理、類型、應用場景以及優(yōu)缺點。 神經網絡模型的原理 神經網絡模型的基本原理是模擬人腦神經元的工作方式。人腦由大約860億個神經元組成,每個神經元通過突觸與其他神經元相互連接。神
    的頭像 發(fā)表于 07-02 09:56 ?1370次閱讀

    數(shù)學建模神經網絡模型優(yōu)缺點有哪些

    、預測分析等。然而,神經網絡模型也存在一些優(yōu)缺點。本文將詳細分析神經網絡模型優(yōu)缺點。 一、優(yōu)點
    的頭像 發(fā)表于 07-02 11:36 ?909次閱讀

    AI大模型與小模型優(yōu)缺點

    在人工智能(AI)的廣闊領域中,模型作為算法與數(shù)據(jù)之間的橋梁,扮演著至關重要的角色。根據(jù)模型的大小和復雜度,我們可以將其大致分為AI大模型和小模型。這兩種
    的頭像 發(fā)表于 07-10 10:39 ?2749次閱讀

    三層神經網絡模型優(yōu)缺點

    三層神經網絡模型是一種常見的深度學習模型,它由輸入層、兩個隱藏層和輸出層組成。本文將介紹三層神經網絡模型優(yōu)缺點,以及其在實際應用中的表現(xiàn)。 一、三層神經網絡
    的頭像 發(fā)表于 07-11 10:58 ?584次閱讀
    主站蜘蛛池模板: 在线黄色免费| 如果我们是季节韩剧在线观看| 人人揉揉香蕉大青草| 最近2018年中文字幕大全一| 女人张开腿让男人桶免费最新 | 免费观看欧美一级高清| 亚洲一区二区在线| 97色噜噜| 久久国产综合| 黑色丝袜美女被网站| 一级毛片a| 国产精品欧美一区二区三区不卡| 9色在线| 欧美三级网| 色婷婷免费视频| 午夜看片网址| 成人影院在线观看视频| 亚洲伦理一区| 欧美成人3d动漫在线播放网站| 国产va免费精品高清在线观看| 特黄一级| 中日韩精品视频在线观看| 狠狠五月婷婷| 五月激情丁香| 一级一级女人18毛片| 国产精品免费观看网站| 日韩操穴| 全黄毛片| 午夜寂寞影| 1v1高h肉爽文bl| 国产aaaaaa| 中文字幕亚洲一区二区三区| 五月婷婷中文字幕| 夜夜爽天天狠狠九月婷婷| 色先锋av资源中文字幕| 黄色小视频免费| 日本69av| 老色皮| 免费视频h| 精品久久久久久中文字幕欧美| 2020天天操|