在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

企業如何用ELK技術棧實現數據流量爆炸式增長

馬哥Linux運維 ? 來源:馬哥Linux運維 ? 2024-12-19 11:38 ? 次閱讀

ELK簡介

什么是ELK

通俗來講,ELK 是由 Elasticsearch、Logstash、Kibana 三個開源軟件的組成的一個組合體,ELK 是 elastic 公司研發的一套完整的日志收集、分析和展示的企業級解決方案,在這三個軟件當中,每個軟件用于完成不同的功能,ELK 又稱為ELK stack,官方域名為 elastic.co,ELK stack 的主要優點有如下幾個:處理方式靈活:elasticsearch 是實時全文索引,具有強大的搜索功能配置相對簡單:elasticsearch 的 API 全部使用 JSON 接口,logstash 使用模塊配置,kibana 的配置文件部分更簡單。檢索性能高效:基于優秀的設計,雖然每次查詢都是實時,但是也可以達到百億級數據的查詢秒級響應。集群線性擴展:elasticsearch 和 logstash 都可以靈活線性擴展前端操作絢麗:kibana 的前端設計比較絢麗,而且操作簡單

Elasticsearch

Elasticsearch是個開源分布式搜索引擎,提供搜集、分析、存儲數據三大功能。它的特點有:分布式,零配置,自動發現,索引自動分片,索引副本機制,restful風格接口,多數據源,自動搜索負載等。主要負責將日志索引并存儲起來,方便業務方檢索查詢。

Elasticsearch 使用 Java 語言開發,是建立在全文搜索引擎 Apache Lucene 基礎之上的搜索引擎。

Elasticsearch 的特點:

實時搜索、實時分析

分布式架構、實時文件存儲

文檔導向,所有對象都是文檔

高可用,易擴展,支持集群,分片與復制

接口友好,支持 json

Logstash

Logstash 主要是用來日志的搜集、分析、過濾日志的工具,支持大量的數據獲取方式。一般工作方式為c/s架構,client端安裝在需要收集日志的主機上,server端負責將收到的各節點日志進行過濾、修改等操作在一并發往elasticsearch上去。是一個日志收集、過濾、轉發的中間件,主要負責將各條業務線的各類日志統一收集、過濾后,轉發給 Elasticsearch 進行下一步處理。

Kibana

Kibana 也是一個開源和免費的工具,Kibana可以為 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以幫助匯總、分析和搜索重要數據日志。

ELK的工作原理

1.在所有需要收集日志的服務器上部署Logstash;或者先將日志進行集中化管理在日志服務器上,在日志服務器上部署 Logstash。
2.Logstash 收集日志,將日志格式化并輸出到 Elasticsearch 群集中。
3.Elasticsearch 對格式化后的數據進行索引和存儲。
4.Kibana 從 ES 群集中查詢數據生成圖表,并進行前端數據的展示。

ELK安裝部署

0c6b1c62-bd24-11ef-8732-92fbcf53809c.png

前期準備

所以設備
[root@localhost ~]# systemctl disable  --now   firewalld
[root@localhost ~]# setenforce 0
[root@localhost ~]# yum -y install java
[root@localhost ~]# hostnamectl set-hostname node1/node2/apache
#更改設備名稱

安裝部署 Elasticsearch 軟件

安裝 Elasticsearch 軟件

#在軟件官網下載所需的安裝包到/data
[root@localhost data]# ls
elasticsearch-6.7.2.rpm  elasticsearch-head-master.zip  node-v8.2.1.tar.gz  phantomjs-2.1.1-linux-x86_64.tar.bz2


#用rpm安裝Elasticsearch軟件
[root@localhost data]#rpm -ivh elasticsearch-6.7.2.rpm

[root@localhost data]# cd /etc/elasticsearch/
[root@localhost elasticsearch]# mkdir bak
[root@localhost elasticsearch]# cp -a *.yml  bak/
#備份要修改的文件,方便還原配置文件

修改配置文件

[root@node1 elasticsearch]# vim elasticsearch.yml
17 cluster.name: my-elk-cluster#修改集群名字

23 node.name: node1#設置節點名稱主從之間不能一致 
24 node.master: true#作為主節點
25 node.data: true#作為數據節點

45 bootstrap.memory_lock: true#內存鎖開啟  禁止使用  swap

59 network.host: 0.0.0.0#監聽地址
60 http.port: 9200#默認使用端口
61 transport.tcp.port: 9300#內部傳輸端口

73 discovery.zen.ping.unicast.hosts: ["192.168.10.10:9300", "192.168.10.20:9300"] #自動集群發現,加入主機名  使用單播 類似心跳線


#再次查看數據是否更改完成
[root@localhost elasticsearch]# grep -v "^#"  elasticsearch.yml 
cluster.name: my-elk-cluster
node.name: node1
node.master: true
node.data: true
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
bootstrap.memory_lock: true
network.host: 0.0.0.0 
http.port: 9200
transport.tcp.port: 9300
discovery.zen.ping.unicast.hosts: ["192.168.10.10:9300", "192.168.10.20:9300"]

修改系統配置

性能調優參數

[root@localhost elasticsearch]# vim /etc/security/limits.conf
......
#在最后添加
*  soft    nofile          65536
*  hard    nofile          65536
*  soft    nproc           32000
*  hard    nproc           32000
*  soft    memlock         unlimited
*  hard    memlock         unlimited

修改systemd 服務管理器

/etc/systemd/system.conf 文件是用于配置 systemd 的,這是一種用于 Linux 操作系統的系統和服務管理器。通過這個文件,你可以自定義與系統操作、性能和行為相關的各種設置

DefaultTimeoutStartSec=:設置啟動服務的默認等待時間

DefaultTimeoutStopSec=:設置停止服務的默認等待時間

DefaultRestartSec=:設置在重新啟動服務之前的默認休眠時間

DefaultLimitNOFILE=:設置打開文件數量的默認限制

DefaultLimitNPROC=:設置進程數量的默認限制

DefaultLimitCORE=:設置核心文件大小的默認限制

DefaultEnvironment=:指定服務的默認環境變量

實際修改

[root@localhost elasticsearch]# vim /etc/systemd/system.conf
DefaultLimitNOFILE=65536
DefaultLimitNPROC=32000
DefaultLimitMEMLOCK=infinity

修改內核參數

[root@localhost elasticsearch]# vim /etc/sysctl.conf
#一個進程可以擁有的最大內存映射區域數,參考數據(分配 2g/262144,4g/4194304,8g/8388608)
vm.max_map_count=262144

[root@localhost elasticsearch]# sysctl -p#讀取并應用這些配置更改,無需重新啟動系統效。
[root@localhost elasticsearch]# sysctl -a | grep vm.max_map_count

重啟服務器啟動elasticsearch

[root@localhost elasticsearch]# reboot#重啟服務器
[root@localhost ~]# systemctl start elasticsearch.service#啟動elasticsearch
[root@localhost ~]# systemctl enable elasticsearch.service#設置開機啟動
[root@localhost ~]# ss -natp | grep 9200#查看端口號

查看節點信息

瀏覽器訪問  
http://192.168.10.10:9200  
http://192.168.10.20:9200 
查看節點 Node1、Node2 的信息。
![](https://img2024.cnblogs.com/blog/3405553/202408/3405553-20240801135325938-765153284.png)



瀏覽器訪問 
http://192.168.10.10:9200/_cluster/health?pretty  
http://192.168.10.20:9200/_cluster/health?pretty
查看群集的健康情況,可以看到 status 值為 green(綠色), 表示節點健康運行。


瀏覽器訪問 http://192.168.10.10:9200/_cluster/state?pretty  檢查群集狀態信息

編譯安裝 Elasticsearch-head 插件 主從都可以安裝

Elasticsearch 在 5.0 版本后,Elasticsearch-head 插件需要作為獨立服務進行安裝,需要使用npm工具(NodeJS的包管理工具)安裝。
安裝 Elasticsearch-head 需要提前安裝好依賴軟件nodephantomjs
node:是一個基于 Chrome V8 引擎的 JavaScript 運行環境。
phantomjs:是一個基于 webkit 的JavaScriptAPI,可以理解為一個隱形的瀏覽器,任何基于 webkit 瀏覽器做的事情,它都可以做到。

編譯安裝node組件

[root@localhost ~]# yum install gcc gcc-c++ make -y
#下載安裝和解壓環境
[root@localhost ~]# cd /data/
[root@localhost data]# tar zxvf node-v8.2.1.tar.gz
[root@localhost data]# cd node-v8.2.1/
[root@localhost node-v8.2.1]# ./configure
[root@localhost node-v8.2.1]# make && make install

安裝 phantomjs

[root@localhost node-v8.2.1]# cd /data
[root@localhost data]# tar jxvf phantomjs-2.1.1-linux-x86_64.tar.bz2
[root@localhost data]# cd /data/phantomjs-2.1.1-linux-x86_64/bin
[root@localhost bin]# ln -s  /opt/phantomjs-2.1.1-linux-x86_64/bin/phantomjs   /usr/bin

安裝 Elasticsearch-head 數據可視化工具

[root@localhost bin]# cd /data
[root@localhost data]# unzip elasticsearch-head-master.zip
[root@localhost data]# cd /data/elasticsearch-head-master/
[root@localhost elasticsearch-head-master]#npm install #安裝依賴包
[root@localhost elasticsearch-head-master]#npm install --registry=https://registry.npmmirror.com      #指定源

修改 Elasticsearch 主配置文件

[root@localhost elasticsearch-head-master]# vim /etc/elasticsearch/elasticsearch.yml
......
--末尾添加以下內容--
http.cors.enabled: true#開啟跨域訪問支持,默認為 false
http.cors.allow-origin: "*"#指定跨域訪問允許的域名地址為所有


[root@localhost elasticsearch-head-master]# systemctl restart elasticsearch
#重啟elasticsearch  服務

啟動 elasticsearch-head 服務

必須在解壓后的 elasticsearch-head 目錄下啟動服務,進程會讀取該目錄下的 gruntfile.js 文件,否則可能啟動失敗。

[root@localhost elasticsearch-head-master]#cd /data/elasticsearch-head-master/
[root@localhost elasticsearch-head-master]# npm run start &
> elasticsearch-head@0.0.0 start /usr/local/src/elasticsearch-head
> grunt server

Running "connect:server" (connect) task
Waiting forever...
Started connect web server on http://localhost:9100

#elasticsearch-head 監聽的端口是 9100
[root@localhost elasticsearch-head-master]# ss -natp |grep 9100
#檢測9100 端口是否開啟

測試

網頁訪問:192.168.10.10:9100 或 192.168.10.20:9100

0c796fba-bd24-11ef-8732-92fbcf53809c.png

插入索引測試

[root@node2 elasticsearch-head-master]# curl -X PUT 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'
{
  "_index" : "index-demo",
  "_type" : "test",
  "_id" : "1",
  "_version" : 1,
  "result" : "created",
  "_shards" : {
    "total" : 2,
    "successful" : 2,
    "failed" : 0
  },
  "_seq_no" : 0,
  "_primary_term" : 1
}

0c7df42c-bd24-11ef-8732-92fbcf53809c.png

在應用服務器部署 Logstash

安裝服務

[root@apache ~]# yum -y install java
[root@apache ~]# java -version
[root@apache ~]# yum -y install httpd
[root@apache ~]# systemctl start httpd

安裝logstash

[root@apache ~]# cd /data
[root@apache data]# ls
kibana-6.7.2-x86_64.rpm  logstash-6.7.2.rpm
[root@apache data]# rpm -ivh logstash-6.7.2.rpm
#安裝logstash
[root@apache data]# systemctl enable --now logstash.service
#開啟logstash.service
[root@apache data]# ln -s  /usr/share/logstash/bin/logstash   /usr/bin/
# 做軟連接

使用logstash 收集日志

Logstash 命令常用選項:
-f:通過這個選項可以指定 Logstash 的配置文件,根據配置文件配置 Logstash 的輸入和輸出流。
-e:從命令行中獲取,輸入、輸出后面跟著字符串,該字符串可以被當作 Logstash 的配置(如果是空,則默認使用 stdin 作為輸入,stdout 作為輸出)。
-t:測試配置文件是否正確,然后退出。

[root@localhost opt]# logstash -e 'input { stdin{} } output { stdout{} }'
# 等待時間較長
WARNING: Could not find logstash.yml which is typically located in $LS_HOME/config or /etc/logstash. You can specify the path using --path.settings. Continuing using the defaults
Could not find log4j2 configuration at path /usr/share/logstash/config/log4j2.properties. Using default config which logs errors to the console
[INFO ] 2024-08-01 1530.012 [main] writabledirectory - Creating directory {:setting=>"path.queue", :path=>"/usr/share/logstash/data/queue"}
[INFO ] 2024-08-01 1530.031 [main] writabledirectory - Creating directory {:setting=>"path.dead_letter_queue", :path=>"/usr/share/logstash/data/dead_letter_queue"}
[WARN ] 2024-08-01 1530.392 [LogStash::Runner] multilocal - Ignoring the 'pipelines.yml' file because modules or command line options are specified
[INFO ] 2024-08-01 1530.399 [LogStash::Runner] runner - Starting Logstash {"logstash.version"=>"6.7.2"}
[INFO ] 2024-08-01 1530.425 [LogStash::Runner] agent - No persistent UUID file found. Generating new UUID {:uuid=>"a499dafc-ae55-41da-b12d-36425108a95e", :path=>"/usr/share/logstash/data/uuid"}
[INFO ] 2024-08-01 1535.985 [Converge PipelineAction::Create
] pipeline - Starting pipeline {:pipeline_id=>"main", "pipeline.workers"=>2, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>50} [INFO ] 2024-08-01 1536.390 [Converge PipelineAction::Create
] pipeline - Pipeline started successfully {:pipeline_id=>"main", :thread=>"#"} The stdin plugin is now waiting for input: [INFO ] 2024-08-01 1536.458 [Ruby-0-Thread-1: /usr/share/logstash/lib/bootstrap/environment.rb:6] agent - Pipelines running {:count=>1, :running_pipelines=>[:main], :non_running_pipelines=>[]} [INFO ] 2024-08-01 1536.734 [Api Webserver] agent - Successfully started Logstash API endpoint {:port=>9600} # 此處輸入需要的信息 hello world ############# /usr/share/logstash/vendor/bundle/jruby/2.5.0/gems/awesome_print-1.7.0/lib/awesome_print/formatters/base_formatter.rb warning: constant ::Fixnum is deprecated { "message" => "hello world", "host" => "localhost.localdomain", "@version" => "1", "@timestamp" => 2024-07-15T1654.195Z }

使用 Logstash 將信息寫入 Elasticsearch 中

logstash -e 'input { stdin{} } output { elasticsearch { hosts=>["192.168.10.10:9200","192.168.10.20:9200"]} }'
//結果不在標準輸出顯示,而是發送至 Elasticsearch 中,可瀏覽器訪問 http://192.168.10.10:9100/或http://192.168.10.20:9100 查看索引信息和數據瀏覽。

使用配置文件

Logstash 配置文件基本由三部分組成:input、output 以及 filter(可選,根據需要選擇使用)

input:表示從數據源采集數據,常見的數據源如Kafka、日志文件等
file beats kafka redis stdin

filter:表示數據處理層,包括對數據進行格式化處理、數據類型轉換、數據過濾等,支持正則表達式
grok 對若干個大文本字段進行再分割成一些小字段 (?<字段名>正則表達式) 字段名: 正則表達式匹配到的內容
date 對數據中的時間格式進行統一和格式化
mutate 對一些無用的字段進行剔除,或增加字段
mutiline 對多行數據進行統一編排,多行合并或拆分

output:表示將Logstash收集的數據經由過濾器處理之后輸出到Elasticsearch。
elasticsearch stdout

#格式如下:
input {...}
filter {...}
output {...}

#在每個部分中,也可以指定多個訪問方式。例如,若要指定兩個日志來源文件,則格式如下:
input {
file { path =>"/var/log/messages"   type =>"syslog"}
file { path =>"/var/log/httpd/access.log" type =>"apache"}

vim system.conf
input {
    file{
        path =>"/var/log/messages"
        type =>"system"
        start_position =>"beginning"
# ignore_older => 604800
        sincedb_path => "/etc/logstash/sincedb_path/log_progress"
        add_field => {"log_hostname"=>"${HOSTNAME}"}
    }
}
#path表示要收集的日志的文件位置
#type是輸入ES時給結果增加一個叫type的屬性字段
#start_position可以設置為beginning或者end,beginning表示從頭開始讀取文件,end表示讀取最新的,這個要和ignore_older一起使用
#ignore_older表示了針對多久的文件進行監控,默認一天,單位為秒,可以自己定制,比如默認只讀取一天內被修改的文件
#sincedb_path表示文件讀取進度的記錄,每行表示一個文件,每行有兩個數字,第一個表示文件的inode,第二個表示文件讀取到的位置(byteoffset)。默認為$HOME/.sincedb*
#add_field增加屬性。這里使用了${HOSTNAME},即本機的環境變量,如果要使用本機的環境變量,那么需要在啟動命令上加--alow-env

output {
    elasticsearch {#輸出到 elasticsearch
        hosts => ["192.168.91.100:9200","192.168.91.101:9200"]#指定 elasticsearch 服務器的地址和端口
        index =>"system-%{+YYYY.MM.dd}"#指定輸出到 elasticsearch 的索引格式
    }
}

實列

[root@apache log]# vim /etc/logstash/conf.d/system-log.conf 

input {
    file {
      path => "/var/log/messages"
      type => "system"
      start_position => "beginning"
    }

    file {
      path => "/var/log/yum.log"
      type => "yum"
      start_position => "beginning"
    }

}

output {
  if  type]
  elasticsearch {
  hosts => [ "192.168.91.100:9200","192.168.91.101:9200" ]
  index => "system-%{+YYYY.MM.dd}"
  }

}



[root@apache conf.d]# chmod +r /var/log/messages 
#添加權限


[root@apache conf.d]# logstash   -f  system-log.conf 
#啟動logstash
........................................................................
[INFO ] 2024-07-16 0141.716 [Api Webserver] agent - Successfully started Logstash API endpoint {:port=>9601}

安裝 kibana 無所謂哪臺服務器

安裝

[root@apache log]# cd /data/
[root@apache data]# rpm -ivh kibana-6.7.2-x86_64.rpm

修改配置

[root@apache data]# cd /etc/kibana/
[root@localhost kibana]# cp kibana.yml  kibana.yml.bak -a
# 做好主要配置文件的備份
[root@apache kibana]# vim kibana.yml
# 修改以下行
2    server.port: 5601          #打開端口
7    server.host: "0.0.0.0"      #監聽端口
28   elasticsearch.hosts: ["http://192.168.91.100:9200", "http://192.168.91.101:9200"]  #el服務器地址
37   kibana.index: ".kibana"         #打開索引
96   logging.dest: /var/log/k.log      #指定日志文件, 需要手動建立文件
114  i18n.locale: "zh-CN"              #中文設置

[root@apache kibana]# chown kibana:kibana /var/log/k.log

啟動 kibana

[root@apache kibana]# systemctl enable --now kibana.service
[root@apache kibana]# ss -nap |grep 5601
tcp    LISTEN     0      128       *:5601                  *:*                   users:(("node",pid=42235,fd=19))

訪問測試

192.168.10.30:5601

0c967f1a-bd24-11ef-8732-92fbcf53809c.png

0ca17762-bd24-11ef-8732-92fbcf53809c.png

0cb89898-bd24-11ef-8732-92fbcf53809c.png

0cc06370-bd24-11ef-8732-92fbcf53809c.png

0cd7dcd0-bd24-11ef-8732-92fbcf53809c.png

0ce9ec2c-bd24-11ef-8732-92fbcf53809c.png

0cfd94e8-bd24-11ef-8732-92fbcf53809c.png

0d086dd2-bd24-11ef-8732-92fbcf53809c.png

0d211454-bd24-11ef-8732-92fbcf53809c.png

0d33444e-bd24-11ef-8732-92fbcf53809c.png

0d4cb03c-bd24-11ef-8732-92fbcf53809c.png

鏈接:https://www.cnblogs.com/zhj0708/p/18336510

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 開源軟件
    +關注

    關注

    0

    文章

    210

    瀏覽量

    15904
  • Elasticsearch
    +關注

    關注

    0

    文章

    29

    瀏覽量

    2831

原文標題:揭秘ELK技術棧:企業如何用它實現數據流量爆炸式增長

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    渦街流量計屬于什么流量

    渦街流量計屬于速度流量計的一種,同時也是流體振動流量計的一種。
    的頭像 發表于 12-14 10:27 ?109次閱讀

    流量計的傳感器類型 靶流量計的校準方法

    流量計的傳感器類型 靶流量計的傳感器類型主要取決于其工作原理和應用場景。以下是幾種常見的靶流量
    的頭像 發表于 12-11 17:02 ?234次閱讀

    800G光模塊:高速通信的關鍵力量

    隨著信息技術的飛速發展,數據流量爆炸增長,對高速、大容量的數據傳輸設備需求日益迫切,800G
    的頭像 發表于 12-09 12:19 ?191次閱讀

    理解ECU數據流的分析方法

    分析ECU數據流技術人員可以快速定位故障源頭,減少維修時間和成本。 性能優化 :通過監控ECU數據,可以對車輛性能進行調整,以適應不同的駕駛條件和駕駛者需求。 安全監控 :實時監控ECU數據
    的頭像 發表于 11-05 11:07 ?420次閱讀

    Linux網絡協議實現

    網絡協議是操作系統核心的一個重要組成部分,負責管理網絡通信中的數據包處理。在 Linux 操作系統中,網絡協議(Network Stack)負責實現 TCP/IP 協議簇,處理應用
    的頭像 發表于 09-10 09:51 ?314次閱讀
    Linux網絡協議<b class='flag-5'>棧</b>的<b class='flag-5'>實現</b>

    軟通動力數據庫全服務,助力企業數據庫體系全面升級

    。在企業節與"數博會"展區,軟通動力受邀分享數據庫專業服務全解決方案,并重點展示以全云服務為核心的數智化能力。 軟通動力高級數據庫服務專
    的頭像 發表于 09-05 15:30 ?333次閱讀
    軟通動力<b class='flag-5'>數據</b>庫全<b class='flag-5'>棧</b>服務,助力<b class='flag-5'>企業</b><b class='flag-5'>數據</b>庫體系全面升級

    InConnect維護設備的流量是多少

    個現場,每個PLC采集100個變量,每變量2B大小,每間隔5秒鐘采集一次,那么一年的數據流量 12月*30天*24小時*60分鐘*60秒/5秒*100(變量)*2B=1.24GB 3、視頻數據業務流量
    發表于 07-25 07:23

    TCP/IP協議的設計與實現_中文

    電子發燒友網站提供《TCP/IP協議的設計與實現_中文.pdf》資料免費下載
    發表于 07-03 11:28 ?4次下載

    智領全 模力全開|銳捷網絡攜智算中心網絡方案亮相2024GIDC

    ,致力于提升通信帶寬利用率,降低動態時延以及實現無損的網絡傳輸,以提升AI集群網絡通信性能,幫助客戶實現生產效率的飛躍和運營成本的優化。 近年來,ChatGPT、Sora為代表的大模型取得技術突破,掀起新一輪人工智能熱潮,
    的頭像 發表于 06-20 14:35 ?516次閱讀
    智領全<b class='flag-5'>棧</b> 模力全開|銳捷網絡攜智算中心網絡方案亮相2024GIDC

    物聯數據網關是什么?

    物聯數據網關就是物聯網智能網關。 物聯數據網關是物聯網架構中的重要組件之一。它是連接物聯網設備和云平臺的中間設備,負責將物聯網設備采集到的數據
    的頭像 發表于 03-29 17:10 ?317次閱讀

    1-2月電信業務總量增長 新興業務成增長新動力

    移動數據流量業務收入卻出現了小幅下滑。盡管三家基礎電信企業在該領域完成了1063億元的收入,但同比下降了1.6%。
    的頭像 發表于 03-25 15:10 ?778次閱讀

    聲通科技全交互人工智能,助力企業智能化升級

    在數字化浪潮席卷全球的今天,人工智能已經成為企業轉型升級、提升競爭力的關鍵力量。上海聲通信息科技股份有限公司(以下稱:聲通科技或公司)作為中國第二大企業級全交互人工智能解決方案提供
    的頭像 發表于 03-20 09:56 ?362次閱讀

    數智化時代的新潮流:企業如何利用數據飛輪驅動增長

    隨著數據中臺理念的逐漸“降溫”,企業數智化的探索并未停歇。反而,數據飛輪成為了新的焦點,它承諾為企業帶來更緊密的業務與數據結合,從而推動持續
    的頭像 發表于 03-08 14:19 ?304次閱讀

    2024年春節通信行業網絡運行安全穩定,移動數據流量與漫游業務大幅增長

    值得關注的是,2月10日——農歷新年第一天,移動互聯網接入流量創下高峰紀錄78.1萬TB,同比上升了14.8%。同樣,5G傳輸速度的顯著提速也讓移動互聯網用戶接入流量同比增長達到72.7%,占總體
    的頭像 發表于 02-20 15:49 ?712次閱讀

    數據技術是干嘛的 大數據核心技術有哪些

    的核心技術,包括數據采集、存儲與管理、處理與分析等方面。 一、大數據技術背景和概念 1.1 背景 隨著互聯網技術的迅猛發展,人們可以通過各種
    的頭像 發表于 01-31 11:07 ?3468次閱讀
    主站蜘蛛池模板: 成人永久免费视频网站在线观看| 91久久夜色精品国产网站| 二区三区在线| 一级@片| 欧美午夜片| 午夜免费毛片| xvideos69日本hd| 色欧美视频| 午夜免费观看_视频在线观看 | 国产片一区二区三区| 国产在线免| 亚洲 欧美 成人| 欧美黄色tv| 欧美黄色片免费观看| 永久免费看www色视频| 国模福利| 2019国产情侣| 色激情网| 天天插天天| 黄色在线网站| 日本高清网站| 欧美黄色成人| 亚洲欧美一区二区久久香蕉| 寡妇一级a毛片免费播放| 免费在线观看的网站| 日本色片视频| 就是操就是干| 婷婷六月综合| 五月天婷婷网址| 中文字幕一区2区| 青草网址| 国产人成午夜免费看| 四级毛片在线播放| 天天插天天色| 亚洲狠狠操| 久久综合九九亚洲一区| 天天爽天天爽| 天堂一区二区三区在线观看| 黄色18网站| 中文字幕xxx| 国产一级特黄毛片|