在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

微服務架構的全局圖景簡析

小林coding ? 來源:博客園 ? 作者:古霜卡比 ? 2022-10-11 11:53 ? 次閱讀

本文將介紹微服務架構和相關的組件,介紹他們是什么以及為什么要使用微服務架構和這些組件。本文側重于簡明地表達微服務架構的全局圖景,因此不會涉及具體如何使用組件等細節。

要理解微服務,首先要先理解不是微服務的那些。通常跟微服務相對的是單體應用,即將所有功能都打包成在一個獨立單元的應用程序。從單體應用到微服務并不是一蹴而就的,這是一個逐漸演變的過程。

本文將以一個網上超市應用為例來說明這一過程

最初的需求

幾年前,小明和小皮一起創業做網上超市。小明負責程序開發,小皮負責其他事宜。當時互聯網還不發達,網上超市還是藍海。只要功能實現了就能隨便賺錢。

所以他們的需求很簡單,只需要一個網站掛在公網,用戶能夠在這個網站上瀏覽商品、購買商品;另外還需一個管理后臺,可以管理商品、用戶、以及訂單數據。

我們整理一下功能清單:

網站

用戶注冊、登錄功能

商品展示

下單

管理后臺

用戶管理

商品管理

訂單管理

由于需求簡單,小明左手右手一個慢動作,網站就做好了。管理后臺出于安全考慮,不和網站做在一起,小明右手左手慢動作重播,管理網站也做好了。總體架構圖如下:

aded648e-4911-11ed-a3b6-dac502259ad0.png


小明揮一揮手,找了家云服務部署上去,網站就上線了。上線后好評如潮,深受各類肥宅喜愛。小明小皮美滋滋地開始躺著收錢。

隨著業務發展……

好景不長,沒過幾天,各類網上超市緊跟著拔地而起,對小明小皮造成了強烈的沖擊。

在競爭的壓力下,小明小皮決定開展一些營銷手段:

開展促銷活動。比如元旦全場打折,春節買二送一,情人節狗糧優惠券等等。

拓展渠道,新增移動端營銷。除了網站外,還需要開發移動端 APP,微信小程序等。

精準營銷。利用歷史數據對用戶進行分析,提供個性化服務。

……

這些活動都需要程序開發的支持。小明拉了同學小紅加入團隊。小紅負責數據分析以及移動端相關開發。小明負責促銷活動相關功能的開發。

因為開發任務比較緊迫,小明小紅沒有好好規劃整個系統的架構,隨便拍了拍腦袋,決定把促銷管理和數據分析放在管理后臺里,微信和移動端 APP 另外搭建。通宵了幾天后,新功能和新應用基本完工。這時架構圖如下:

adfbbdcc-4911-11ed-a3b6-dac502259ad0.png

這一階段存在很多不合理的地方:

網站和移動端應用有很多相同業務邏輯的重復代碼。

數據有時候通過數據庫共享,有時候通過接口調用傳輸。接口調用關系雜亂。

單個應用為了給其他應用提供接口,漸漸地越改越大,包含了很多本來就不屬于它的邏輯。應用邊界模糊,功能歸屬混亂。

管理后臺在一開始的設計中保障級別較低。加入數據分析和促銷管理相關功能后出現性能瓶頸,影響了其他應用。

數據庫表結構被多個應用依賴,無法重構和優化。

所有應用都在一個數據庫上操作,數據庫出現性能瓶頸。特別是數據分析跑起來的時候,數據庫性能急劇下降。

開發、測試、部署、維護愈發困難。即使只改動一個小功能,也需要整個應用一起發布。有時候發布會不小心帶上了一些未經測試的代碼,或者修改了一個功能后,另一個意想不到的地方出錯了。為了減輕發布可能產生的問題的影響和線上業務停頓的影響,所有應用都要在凌晨三四點執行發布。發布后為了驗證應用正常運行,還得盯到第二天白天的用戶高峰期……

團隊出現推諉扯皮現象。關于一些公用的功能應該建設在哪個應用上的問題常常要爭論很久,最后要么干脆各做各的,或者隨便放個地方但是都不維護。

盡管有著諸多問題,但也不能否認這一階段的成果:快速地根據業務變化建設了系統。不過緊迫且繁重的任務容易使人陷入局部、短淺的思維方式,從而做出妥協式的決策。在這種架構中,每個人都只關注在自己的一畝三分地,缺乏全局的、長遠的設計。長此以往,系統建設將會越來越困難,甚至陷入不斷推翻、重建的循環。

是時候做出改變了

幸好小明和小紅是有追求有理想的好青年。意識到問題后,小明和小紅從瑣碎的業務需求中騰出了一部分精力,開始梳理整體架構,針對問題準備著手改造。

要做改造,首先你需要有足夠的精力和資源。如果你的需求方(業務人員、項目經理、上司等)很強勢地一心追求需求進度,以致于你無法挪出額外的精力和資源的話,那么你可能無法做任何事……

編程的世界中,最重要的便是抽象能力。微服務改造的過程實際上也是個抽象的過程。小明和小紅整理了網上超市的業務邏輯,抽象出公用的業務能力,做成幾個公共服務:

用戶服務

商品服務

促銷服務

訂單服務

數據分析服務

各個應用后臺只需從這些服務獲取所需的數據,從而刪去了大量冗余的代碼,就剩個輕薄的控制層和前端。這一階段的架構如下:

ae06a124-4911-11ed-a3b6-dac502259ad0.png

這個階段只是將服務分開了,數據庫依然是共用的,所以一些煙囪式系統的缺點仍然存在:

數據庫成為性能瓶頸,并且有單點故障的風險。

數據管理趨向混亂。即使一開始有良好的模塊化設計,隨著時間推移,總會有一個服務直接從數據庫取另一個服務的數據的現象。

數據庫表結構可能被多個服務依賴,牽一發而動全身,很難調整。

如果一直保持共用數據庫的模式,則整個架構會越來越僵化,失去了微服務架構的意義。因此小明和小紅一鼓作氣,把數據庫也拆分了。所有持久化層相互隔離,由各個服務自己負責。另外,為了提高系統的實時性,加入了消息隊列機制。架構如下:

ae12c1a2-4911-11ed-a3b6-dac502259ad0.png

完全拆分后各個服務可以采用異構的技術。比如數據分析服務可以使用數據倉庫作為持久化層,以便于高效地做一些統計計算;商品服務和促銷服務訪問頻率比較大,因此加入了緩存機制等。

還有一種抽象出公共邏輯的方法是把這些公共邏輯做成公共的框架庫。這種方法可以減少服務調用的性能損耗。但是這種方法的管理成本非常高昂,很難保證所有應用版本的一致性。

數據庫拆分也有一些問題和挑戰:比如說跨庫級聯的需求,通過服務查詢數據顆粒度的粗細問題等。但是這些問題可以通過合理的設計來解決。總體來說,數據庫拆分是一個利大于弊的。

微服務架構還有一個技術外的好處,它使整個系統的分工更加明確,責任更加清晰,每個人專心負責為其他人提供更好的服務。在單體應用的時代,公共的業務功能經常沒有明確的歸屬。最后要么各做各的,每個人都重新實現了一遍;要么是隨機一個人(一般是能力比較強或者比較熱心的人)做到他負責的應用里面。在后者的情況下,這個人在負責自己應用之外,還要額外負責給別人提供這些公共的功能——而這個功能本來是無人負責的,僅僅因為他能力較強/比較熱心,就莫名地背鍋(這種情況還被美其名曰能者多勞)。結果最后大家都不愿意提供公共的功能。長此以往,團隊里的人漸漸變得各自為政,不再關心全局的架構設計。

從這個角度上看,使用微服務架構同時也需要組織結構做相應的調整。所以說做微服務改造需要管理者的支持。

改造完成后,小明和小紅分清楚各自的鍋。兩人十分滿意,一切就像是麥克斯韋方程組一樣漂亮完美。

然而……

沒有銀彈

春天來了,萬物復蘇,又到了一年一度的購物狂歡節。眼看著日訂單數量蹭蹭地上漲,小皮小明小紅喜笑顏開。可惜好景不長,樂極生悲,突然嘣的一下,系統掛了。

以往單體應用,排查問題通常是看一下日志,研究錯誤信息和調用堆棧。而微服務架構整個應用分散成多個服務,定位故障點非常困難。小明一個臺機器一臺機器地查看日志,一個服務一個服務地手工調用。經過十幾分鐘的查找,小明終于定位到故障點:促銷服務由于接收的請求量太大而停止響應了。其他服務都直接或間接地會調用促銷服務,于是也跟著宕機了。在微服務架構中,一個服務故障可能會產生雪崩效用,導致整個系統故障。其實在節前,小明和小紅是有做過請求量評估的。按照預計,服務器資源是足以支持節日的請求量的,所以肯定是哪里出了問題。不過形勢緊急,隨著每一分每一秒流逝的都是白花花的銀子,因此小明也沒時間排查問題,當機立斷在云上新建了幾臺虛擬機,然后一臺一臺地部署新的促銷服務節點。幾分鐘的操作后,系統總算是勉強恢復正常了。整個故障時間內估計損失了幾十萬的銷售額,三人的心在滴血……

事后,小明簡單寫了個日志分析工具(量太大了,文本編輯器幾乎打不開,打開了肉眼也看不過來),統計了促銷服務的訪問日志,發現在故障期間,商品服務由于代碼問題,在某些場景下會對促銷服務發起大量請求。這個問題并不復雜,小明手指抖一抖,修復了這個價值幾十萬的 Bug。

問題是解決了,但誰也無法保證不會再發生類似的其他問題。微服務架構雖然邏輯設計上看是完美的,但就像積木搭建的華麗宮殿一樣,經不起風吹草動。微服務架構雖然解決了舊問題,也引入了新的問題:

微服務架構整個應用分散成多個服務,定位故障點非常困難。

穩定性下降。服務數量變多導致其中一個服務出現故障的概率增大,并且一個服務故障可能導致整個系統掛掉。事實上,在大訪問量的生產場景下,故障總是會出現的。

服務數量非常多,部署、管理的工作量很大。

開發方面:如何保證各個服務在持續開發的情況下仍然保持協同合作。

測試方面:服務拆分后,幾乎所有功能都會涉及多個服務。原本單個程序的測試變為服務間調用的測試。測試變得更加復雜。

小明小紅痛定思痛,決心好好解決這些問題。對故障的處理一般從兩方面入手,一方面盡量減少故障發生的概率,另一方面降低故障造成的影響。

ae1d752a-4911-11ed-a3b6-dac502259ad0.png

監控 - 發現故障的征兆

在高并發分布式的場景下,故障經常是突然間就雪崩式爆發。所以必須建立完善的監控體系,盡可能發現故障的征兆。

微服務架構中組件繁多,各個組件所需要監控的指標不同。比如 Redis 緩存一般監控占用內存值、網絡流量,數據庫監控連接數、磁盤空間,業務服務監控并發數、響應延遲、錯誤率等。因此如果做一個大而全的監控系統來監控各個組件是不大現實的,而且擴展性會很差。一般的做法是讓各個組件提供報告自己當前狀態的接口(metrics 接口),這個接口輸出的數據格式應該是一致的。然后部署一個指標采集器組件,定時從這些接口獲取并保持組件狀態,同時提供查詢服務。最后還需要一個 UI,從指標采集器查詢各項指標,繪制監控界面或者根據閾值發出告警。

大部分組件都不需要自己動手開發,網絡上有開源組件。小明下載了 RedisExporter 和 MySQLExporter,這兩個組件分別提供了 Redis 緩存和 MySQL 數據庫的指標接口。微服務則根據各個服務的業務邏輯實現自定義的指標接口。然后小明采用 Prometheus 作為指標采集器,Grafana 配置監控界面和郵件告警。這樣一套微服務監控系統就搭建起來了:

ae2c365a-4911-11ed-a3b6-dac502259ad0.jpg

定位問題 - 鏈路跟蹤

在微服務架構下,一個用戶的請求往往涉及多個內部服務調用。為了方便定位問題,需要能夠記錄每個用戶請求時,微服務內部產生了多少服務調用,及其調用關系。這個叫做鏈路跟蹤。

我們用一個 Istio 文檔里的鏈路跟蹤例子來看看效果:

ae37ba34-4911-11ed-a3b6-dac502259ad0.png

圖片來自Istio 文檔[1]

從圖中可以看到,這是一個用戶訪問 productpage 頁面的請求。在請求過程中,productpage 服務順序調用了 details 和 reviews 服務的接口。而 reviews 服務在響應過程中又調用了 ratings 的接口。整個鏈路跟蹤的記錄是一棵樹:

ae4680dc-4911-11ed-a3b6-dac502259ad0.png

要實現鏈路跟蹤,每次服務調用會在 HTTP 的 HEADERS 中記錄至少記錄四項數據:

traceId:traceId 標識一個用戶請求的調用鏈路。具有相同 traceId 的調用屬于同一條鏈路。

spanId:標識一次服務調用的 ID,即鏈路跟蹤的節點 ID。

parentId:父節點的 spanId。

requestTime & responseTime:請求時間和響應時間。

另外,還需要調用日志收集與存儲的組件,以及展示鏈路調用的 UI 組件。

ae52a1d2-4911-11ed-a3b6-dac502259ad0.png

以上只是一個極簡的說明,關于鏈路跟蹤的理論依據可詳見 Google 的Dapper

了解了理論基礎后,小明選用了 Dapper 的一個開源實現 Zipkin。然后手指一抖,寫了個 HTTP 請求的攔截器,在每次 HTTP 請求時生成這些數據注入到 HEADERS,同時異步發送調用日志到 Zipkin 的日志收集器中。這里額外提一下,HTTP 請求的攔截器,可以在微服務的代碼中實現,也可以使用一個網絡代理組件來實現(不過這樣子每個微服務都需要加一層代理)。

鏈路跟蹤只能定位到哪個服務出現問題,不能提供具體的錯誤信息。查找具體的錯誤信息的能力則需要由日志分析組件來提供。

分析問題 - 日志分析

日志分析組件應該在微服務興起之前就被廣泛使用了。即使單體應用架構,當訪問數變大、或服務器規模增多時,日志文件的大小會膨脹到難以用文本編輯器進行訪問,更糟的是它們分散在多臺服務器上面。排查一個問題,需要登錄到各臺服務器去獲取日志文件,一個一個地查找(而且打開、查找都很慢)想要的日志信息。

因此,在應用規模變大時,我們需要一個日志的“索引”。以便于能準確的找到想要的日志。另外,數據源一側還需要收集日志的組件和展示結果的 UI 組件:

ae67fece-4911-11ed-a3b6-dac502259ad0.png

小明調查了一下,使用了大名鼎鼎地 ELK 日志分析組件。ELK 是 Elasticsearch、Logstash 和 Kibana 三個組件的縮寫。

Elasticsearch:搜索引擎,同時也是日志的存儲。

Logstash:日志采集器,它接收日志輸入,對日志進行一些預處理,然后輸出到 Elasticsearch。

Kibana:UI 組件,通過 Elasticsearch 的 API 查找數據并展示給用戶。

最后還有一個小問題是如何將日志發送到 Logstash。一種方案是在日志輸出的時候直接調用 Logstash 接口將日志發送過去。這樣一來又(咦,為啥要用“又”)要修改代碼……于是小明選用了另一種方案:日志仍然輸出到文件,每個服務里再部署個 Agent 掃描日志文件然后輸出給 Logstash。

網關 - 權限控制,服務治理

拆分成微服務后,出現大量的服務,大量的接口,使得整個調用關系亂糟糟的。經常在開發過程中,寫著寫著,忽然想不起某個數據應該調用哪個服務。或者寫歪了,調用了不該調用的服務,本來一個只讀的功能結果修改了數據……

為了應對這些情況,微服務的調用需要一個把關的東西,也就是網關。在調用者和被調用者中間加一層網關,每次調用時進行權限校驗。另外,網關也可以作為一個提供服務接口文檔的平臺。

使用網關有一個問題就是要決定在多大粒度上使用:最粗粒度的方案是整個微服務一個網關,微服務外部通過網關訪問微服務,微服務內部則直接調用;最細粒度則是所有調用,不管是微服務內部調用或者來自外部的調用,都必須通過網關。折中的方案是按照業務領域將微服務分成幾個區,區內直接調用,區間通過網關調用。

由于整個網上超市的服務數量還不算特別多,小明采用的最粗粒度的方案:

ae784c20-4911-11ed-a3b6-dac502259ad0.png

服務注冊于發現 - 動態擴容

前面的組件,都是旨在降低故障發生的可能性。然而故障總是會發生的,所以另一個需要研究的是如何降低故障產生的影響。

最粗暴的(也是最常用的)故障處理策略就是冗余。一般來說,一個服務都會部署多個實例,這樣一來能夠分擔壓力提高性能,二來即使一個實例掛了其他實例還能響應。

冗余的一個問題是使用幾個冗余?這個問題在時間軸上并沒有一個切確的答案。根據服務功能、時間段的不同,需要不同數量的實例。比如在平日里,可能 4 個實例已經夠用;而在促銷活動時,流量大增,可能需要 40 個實例。因此冗余數量并不是一個固定的值,而是根據需要實時調整的。

一般來說新增實例的操作為:

部署新實例

將新實例注冊到負載均衡或 DNS 上

操作只有兩步,但如果注冊到負載均衡或 DNS 的操作為人工操作的話,那事情就不簡單了。想想新增 40 個實例后,要手工輸入 40 個 IP 的感覺……

解決這個問題的方案是服務自動注冊與發現。首先,需要部署一個服務發現服務,它提供所有已注冊服務的地址信息的服務。DNS 也算是一種服務發現服務。然后各個應用服務在啟動時自動將自己注冊到服務發現服務上。并且應用服務啟動后會實時(定期)從服務發現服務同步各個應用服務的地址列表到本地。服務發現服務也會定期檢查應用服務的健康狀態,去掉不健康的實例地址。這樣新增實例時只需要部署新實例,實例下線時直接關停服務即可,服務發現會自動檢查服務實例的增減。

ae84da8a-4911-11ed-a3b6-dac502259ad0.png

服務發現還會跟客戶端負載均衡配合使用。由于應用服務已經同步服務地址列表在本地了,所以訪問微服務時,可以自己決定負載策略。甚至可以在服務注冊時加入一些元數據(服務版本等信息),客戶端負載則根據這些元數據進行流量控制,實現 A/B 測試、藍綠發布等功能。

服務發現有很多組件可以選擇,比如說 Zookeeper 、Eureka、Consul、Etcd 等。不過小明覺得自己水平不錯,想炫技,于是基于 Redis 自己寫了一個……

熔斷、服務降級、限流

熔斷

當一個服務因為各種原因停止響應時,調用方通常會等待一段時間,然后超時或者收到錯誤返回。如果調用鏈路比較長,可能會導致請求堆積,整條鏈路占用大量資源一直在等待下游響應。所以當多次訪問一個服務失敗時,應熔斷,標記該服務已停止工作,直接返回錯誤。直至該服務恢復正常后再重新建立連接。

ae94799a-4911-11ed-a3b6-dac502259ad0.png

圖片來自《微服務設計[3]》

服務降級

當下游服務停止工作后,如果該服務并非核心業務,則上游服務應該降級,以保證核心業務不中斷。比如網上超市下單界面有一個推薦商品湊單的功能,當推薦模塊掛了后,下單功能不能一起掛掉,只需要暫時關閉推薦功能即可。

限流

一個服務掛掉后,上游服務或者用戶一般會習慣性地重試訪問。這導致一旦服務恢復正常,很可能因為瞬間網絡流量過大又立刻掛掉,在棺材里重復著仰臥起坐。因此服務需要能夠自我保護——限流。限流策略有很多,最簡單的比如當單位時間內請求數過多時,丟棄多余的請求。另外,也可以考慮分區限流。僅拒絕來自產生大量請求的服務的請求。例如商品服務和訂單服務都需要訪問促銷服務,商品服務由于代碼問題發起了大量請求,促銷服務則只限制來自商品服務的請求,來自訂單服務的請求則正常響應。

aea7d8e6-4911-11ed-a3b6-dac502259ad0.png

測試

微服務架構下,測試分為三個層次:

端到端測試:覆蓋整個系統,一般在用戶界面機型測試。

服務測試:針對服務接口進行測試。

單元測試:針對代碼單元進行測試。

三種測試從上到下實施的容易程度遞增,但是測試效果遞減。端到端測試最費時費力,但是通過測試后我們對系統最有信心。單元測試最容易實施,效率也最高,但是測試后不能保證整個系統沒有問題。

aeaf8da2-4911-11ed-a3b6-dac502259ad0.png

由于端到端測試實施難度較大,一般只對核心功能做端到端測試。一旦端到端測試失敗,則需要將其分解到單元測試:則分析失敗原因,然后編寫單元測試來重現這個問題,這樣未來我們便可以更快地捕獲同樣的錯誤。

服務測試的難度在于服務會經常依賴一些其他服務。這個問題可以通過 Mock Server 解決:

aeb9de9c-4911-11ed-a3b6-dac502259ad0.png

單元測試大家都很熟悉了。我們一般會編寫大量的單元測試(包括回歸測試)盡量覆蓋所有代碼。

微服務框架

指標接口、鏈路跟蹤注入、日志引流、服務注冊發現、路由規則等組件以及熔斷、限流等功能都需要在應用服務上添加一些對接代碼。如果讓每個應用服務自己實現是非常耗時耗力的。基于 DRY 的原則,小明開發了一套微服務框架,將與各個組件對接的代碼和另外一些公共代碼抽離到框架中,所有的應用服務都統一使用這套框架進行開發。

使用微服務框架可以實現很多自定義的功能。甚至可以將程序調用堆棧信息注入到鏈路跟蹤,實現代碼級別的鏈路跟蹤。或者輸出線程池、連接池的狀態信息,實時監控服務底層狀態。

使用統一的微服務框架有一個比較嚴重的問題:框架更新成本很高。每次框架升級,都需要所有應用服務配合升級。當然,一般會使用兼容方案,留出一段并行時間等待所有應用服務升級。但是如果應用服務非常多時,升級時間可能會非常漫長。并且有一些很穩定幾乎不更新的應用服務,其負責人可能會拒絕升級……因此,使用統一微服務框架需要完善的版本管理方法和開發管理規范。

另一條路 - Service Mesh

另一種抽象公共代碼的方法是直接將這些代碼抽象到一個反向代理組件。每個服務都額外部署這個代理組件,所有出站入站的流量都通過該組件進行處理和轉發。這個組件被稱為 Sidecar。

Sidecar 不會產生額外網絡成本。Sidecar 會和微服務節點部署在同一臺主機上并且共用相同的虛擬網卡。所以 sidecar 和微服務節點的通信實際上都只是通過內存拷貝實現的。

aec3d5c8-4911-11ed-a3b6-dac502259ad0.png

圖片來自:Pattern: Service Mesh[4]

Sidecar 只負責網絡通信。還需要有個組件來統一管理所有 sidecar 的配置。在 Service Mesh 中,負責網絡通信的部分叫數據平面(data plane),負責配置管理的部分叫控制平面(control plane)。數據平面和控制平面構成了 Service Mesh 的基本架構。

aed7bfc0-4911-11ed-a3b6-dac502259ad0.png

圖片來自:Pattern: Service Mesh[5]

Sevice Mesh 相比于微服務框架的優點在于它不侵入代碼,升級和維護更方便。它經常被詬病的則是性能問題。即使回環網絡不會產生實際的網絡請求,但仍然有內存拷貝的額外成本。另外有一些集中式的流量處理也會影響性能。

結束、也是開始

微服務不是架構演變的終點。往細走還有 Serverless、FaaS 等方向。另一方面也有人在唱合久必分分久必合,重新發現單體架構……

不管怎樣,微服務架構的改造暫時告一段落了。小明滿足地摸了摸日益光滑的腦袋,打算這個周末休息一下約小紅喝杯咖啡。




審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • HTTP
    +關注

    關注

    0

    文章

    505

    瀏覽量

    31227
  • 采集器
    +關注

    關注

    0

    文章

    194

    瀏覽量

    18201
  • MYSQL數據庫
    +關注

    關注

    0

    文章

    96

    瀏覽量

    9390

原文標題:一文懂分布式架構!透徹!!

文章出處:【微信號:小林coding,微信公眾號:小林coding】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    寶藏級微服務架構工具合集

    寶藏級熱門微服務架構工具包含Spring Boot、Eclipse Vert.X、Kubernetes、Tyk、RabbitMQ、Apache Kafka等。其中,Spring Boot簡化了微服務
    的頭像 發表于 12-21 16:33 ?140次閱讀

    NVIDIA NIM微服務登陸亞馬遜云科技

    經過優化的 NIM 微服務現可在 Amazon Bedrock Marketplace、SageMaker JumpStart 和 AWS Marketplace 上獲取,用于各種 NVIDIA 和生態系統模型。
    的頭像 發表于 12-06 13:33 ?207次閱讀

    k8s微服務架構就是云原生嗎?兩者是什么關系

    k8s微服務架構就是云原生嗎?K8s微服務架構并不等同于云原生,但兩者之間存在密切的聯系。Kubernetes在云原生架構中扮演著核心組件的
    的頭像 發表于 11-25 09:39 ?146次閱讀

    SSR與微服務架構的結合應用

    隨著互聯網技術的快速發展,前端技術棧不斷更新迭代,后端架構也經歷了從單體應用到微服務的變革。在這個過程中,服務端渲染(SSR)作為一種提升頁面加載速度和SEO性能的技術,與微服務
    的頭像 發表于 11-18 11:34 ?326次閱讀

    架構與設計 常見微服務分層架構的區別和落地實踐

    架構風格越傾向于清晰的職責定位,且讓領域模型成為架構的核心。 基于這些架構風格,在軟件架構設計過程中又有非常多的架構分層模型。 傳統三層
    的頭像 發表于 10-22 15:34 ?237次閱讀
    <b class='flag-5'>架構</b>與設計 常見<b class='flag-5'>微服務</b>分層<b class='flag-5'>架構</b>的區別和落地實踐

    微服務架構與容器云的關系與區別

    微服務架構與容器云密切相關又有所區別。微服務將大型應用拆分為小型、獨立的服務,而容器云基于容器技術,為微服務提供構建、發布和運行的平臺。區別
    的頭像 發表于 10-21 17:28 ?226次閱讀

    入門級攻略:如何容器化部署微服務

    第一步理解容器化基礎,第二步創建Dockerfile,第三步構建推送鏡像,第四步部署微服務,第五步管理微服務、第六步優化更新。容器化部署微服務是現代軟件開發中的一種高效方法,可提供良好的可移植性、可擴展性和管理性。容器化部署
    的頭像 發表于 10-09 10:08 ?156次閱讀

    Proxyless的多活流量和微服務治理

    1. 引言 1.1 項目的背景及意義 在當今的微服務架構中,應用程序通常被拆分成多個獨立的服務,這些服務通過網絡進行通信。這種架構的優勢在于
    的頭像 發表于 08-28 16:54 ?1588次閱讀
    Proxyless的多活流量和<b class='flag-5'>微服務</b>治理

    NVIDIA NIM微服務帶來巨大優勢

    服務通過熱門 AI 模型為數百萬開發者帶來高達 5 倍的 token 效率提升,使他們能夠立即訪問在 NVIDIA DGX Cloud 上運行的 NIM 微服務
    的頭像 發表于 08-23 15:20 ?493次閱讀

    采用OpenUSD和NVIDIA NIM微服務創建精準品牌視覺

    全球領先的創意和制作服務機構率先采用 OpenUSD 和 NVIDIA NIM 微服務來創建精準的品牌視覺。
    的頭像 發表于 08-01 14:33 ?425次閱讀

    全新 NVIDIA NeMo Retriever微服務大幅提升LLM的準確性和吞吐量

    企業能夠通過提供檢索增強生成功能的生產就緒型 NVIDIA NIM 推理微服務,充分挖掘業務數據的價值。這些微服務現已集成到 Cohesity、DataStax、NetApp 和 Snowflake 平臺中。
    的頭像 發表于 07-26 11:13 ?837次閱讀
    全新 NVIDIA NeMo Retriever<b class='flag-5'>微服務</b>大幅提升LLM的準確性和吞吐量

    巖土工程監測中振弦采集儀的布設方案及實施步驟

    巖土工程監測中振弦采集儀的布設方案及實施步驟 巖土工程監測中,河北穩控科技振弦采集儀是一種常用的地下水位和土層壓縮性監測工具。它通過采集振弦的振動信號來確定地下水位和土層的壓縮性,為巖土
    的頭像 發表于 05-06 13:25 ?256次閱讀
    巖土工程監測中振弦采集儀的布設方案及實施步驟<b class='flag-5'>簡</b><b class='flag-5'>析</b>

    【算能RADXA微服務器試用體驗】Radxa Fogwise 1684X Mini 規格

    通過網絡可以了解到,算能RADXA微服務器的具體規格: 處理器:BM1684X 算力:高達32Tops INT8峰值算力 內存:16GB LPDDR4X 內存 存儲:64GB eMMC 編程框架
    發表于 02-28 11:21

    Java微服務隨機掉線排查過程

    我們的業務共使用 11 臺(阿里云)服務器,使用 SpringcloudAlibaba 構建微服務集群, 共計 60 個微服務, 全部注冊在同一個 Nacos 集群。
    的頭像 發表于 01-13 17:41 ?942次閱讀
    Java<b class='flag-5'>微服務</b>隨機掉線排查過程<b class='flag-5'>簡</b><b class='flag-5'>析</b>

    游戲公司不使用微服務架構的原因

    微服務基本只有 request/response 的模式。做不了 streaming?微服務通常要求應用是無狀態的才能做到水平擴展。streaming 本身就是加入了狀態
    的頭像 發表于 12-29 11:18 ?443次閱讀
    主站蜘蛛池模板: 成人在线免费| 天天干夜夜欢| 九九热精品国产| 免费观看一区二区| 人人干人人模| 一区二区三区午夜| 欧美tube6最新69| 亚洲aaaa级特黄毛片| 精品手机在线视频| 久久香蕉精品视频| 高h办公室| 黄色一级片在线观看| 女人成午夜大片7777在线| 日本不卡在线视频高清免费| 日本三级欧美三级香港黄| 亚洲午夜精品在线| 一区二区不卡视频在线观看| 日韩三级免费看| 天天操你| 国产69久久精品成人看| 久久免费视频精品| 久久天天躁狠狠躁夜夜躁| 2021色噜噜狠狠综曰曰曰| 激情六月婷婷开心丁香开心| 国产成人福利夜色影视| 性欧美高清| 夜夜操操| 男女吃奶一进一出动态图| 久久青草91免费观看| 国产精品www夜色影视| 五月天免费在线播放| 97综合色| 免费看性| 国产精品高清一区二区三区不卡| 在线91精品亚洲网站精品成人| 四虎综合九九色九九综合色| 亚洲高清在线视频| 美女露出尿口让男人桶爽网站| 经典三级第一页| 啪啪国产视频| 免费一级特黄特色黄大任片|