負載均衡圖片上傳
㈠ nginx負載均衡時上傳的圖片怎麼處理
區域網內可以考慮 rsync + inotify-tools
inotify可以監控文件系統的各種變化,當文件有任何變動時,就觸發rsync同步,這樣剛好解決了同步數據的實時性問題。
區域網內多台伺服器時可以配置Nginx把上傳等寫操作固定到其中一台php-FPM伺服器,然後用inotify+rsync同步到其它機器.
比如上傳操作定向到伺服器192.168.1.10進行處理:
location ^~ /upload.php {
include fastcgi_params;
fastcgi_pass 192.168.1.10:9000;
fastcgi_param SCRIPT_FILENAME /srv/www$fastcgi_script_name;
}
在伺服器192.168.1.10上用inotify+rsync同步文件到其他伺服器. 除上傳外,刪除、更改、移動等寫操作也要定向到192.168.1.10這台伺服器進行處理。
㈡ 磊科NR236W雙WAN路由器負載均衡上傳問題
其一、接入兩條1M ADSL的效果接近於一條2M 光纖,但是費用會大幅降低!由於線路優化效果的存在使得路由器能接入兩條1M ADSL的效果接近於一條2M 光纖,實際你可以選擇B.6 M ADSL;其二,是可以使用A出口的,雙WAN路由器它里邊主要是由一個IP均衡器來分配的,所以你所說的情況是得以解決的。希望能幫到你,還望採納
㈢ 負載均衡基本介紹
【負載均衡架構部分轉自】 58沈劍 [架構師之路]( https://mp.weixin.qq.com/s
負載均衡: 是分布式系統架構設計中必須考慮的因素之一,它通常是指,將請求/數據【均勻】分攤到多個操作單元上執行,負載均衡的關鍵在於【均勻】
常見的負載均衡方案:
【客戶端層】到【反向代理層】的負載均衡,是通過「DNS輪詢」實現的:DNS-server對於一個域名配置了多個解析ip,每次DNS解析請求來訪問DNS-server,會輪詢返回這些ip,保證每個ip的解析概率是相同的。這些ip就是nginx的外網ip,以做到每台nginx的請求分配也是均衡的。
【反向代理層】到【站點層】的負載均衡,是通過「nginx」實現的。通過修改nginx.conf,可以實現多種負載均衡策略:
【站點層】到【服務層】的負載均衡,是通過「服務連接池」實現的。
上游連接池會建立與下游服務多個連接,每次請求會「隨機」選取連接來訪問下游服務。(也即是rpc框架實現的)
在數據量很大的情況下,由於數據層(db,cache)涉及數據的水平切分,所以數據層的負載均衡更為復雜一些,它分為「數據的均衡」,與「請求的均衡」。
數據的均衡是指 :水平切分後的每個服務(db,cache),數據量是差不多的。
請求的均衡是指 :水平切分後的每個服務(db,cache),請求量是差不多的。
(1)按照range水平切分
(2)按照id哈希水平切分
[圖片上傳中...(-6b2508-1561902875888-0)]
常見的負載均衡系統包括 3 種:DNS 負載均衡、硬體負載均衡和軟體負載均衡。
硬體負載均衡是通過單獨的硬體設備來實現負載均衡功能,這類設備和路由器、交換機類似,可以理解為一個用於負載均衡的基礎網路設備。比如業界非常出名的F5
缺點:
(1)價格實在非常昂貴
(2)擴展性不強
軟體負載均衡通過負載均衡軟體來實現負載均衡功能,常見的有 Nginx 和 LVS。
nginx和F5: https://blog.csdn.net/chabale/article/details/8956717
nginx和lvs比較: https://blog.51cto.com/hzcto/2086691
lvs: https://www.cnblogs.com/liwei0526vip/p/6370103.html
ELB: https://aws.amazon.com/cn/elasticloadbalancing/
SLB: https://help.aliyun.com/proct/27537.html
題目:日活躍用戶 1000 萬的論壇的負載均衡集群,該如何設計呢?
(1)評估流量
1000萬DAU,換算成秒級(一天12小時),平均約等於232。
考慮每個用戶操作次數,假定10,換算成平均QPS=2320。
考慮峰值是均值倍數,假定5,換算成峰值QPS=11600。
考慮靜態資源、圖片資源、服務拆分等,流量放大效應,假定10,QPS 10=116000。
(2)容量規劃
考慮高可用、異地多活,QPS 2=232000。
考慮未來半年增長,QPS*1.5=348000。
(3)方案設計
可以用三級導流:
第一級,DNS,確定機房,以目前量級,可以不考慮。
第二級,確定集群,擴展優先,則選Haproxy/LVS,穩定優先則選F5。
第三級,Nginx+KeepAlived,確定實例。
(4)架構圖
接入層技術:
缺點:
優點:
缺點:
優點:
缺點:
缺點:
nginx畢竟是軟體,性能比tomcat好,但總有個上限,超出了上限,還是扛不住。lvs就不一樣了,它實施在操作系統層面;f5的性能又更好了,它實施在硬體層面;它們性能比nginx好很多,例如每秒可以抗10w,這樣可以利用他們來擴容。
99.9999%的公司到這一步基本就能解決接入層高可用、擴展性、負載均衡的問題。 假設還扛不住的話,就要考慮使用硬體設備f5等。如果還是扛不住,那麼只有DNS來擴容了。
水平擴展,才是解決性能問題的根本方案,能夠通過加機器擴充性能的方案才具備最好的擴展性。 facebook,google,的PV是不是超過80億呢,它們的域名只對應一個ip么,終點又是起點,還是得通過DNS輪詢來進行擴容:
比如購買了阿里雲或者aws。那麼基本會使用雲廠商提供的負載均衡中間件,比如aws(elb)、阿里雲(slb)。這個負載均衡軟體可以認為是 lvs+keepalived的高可用負載均衡服務
後端的service有可能部署在硬體條件不同的伺服器上:
1)如果對標最低配的伺服器「均勻」分攤負載,高配的伺服器的利用率不足;
2)如果對標最高配的伺服器「均勻」分攤負載,低配的伺服器可能會扛不住;
(1)通過「靜態權重」標識service的處理能力
優點: 簡單,能夠快速的實現異構伺服器的負載均衡。
缺點: 權重是固定的,無法自適應動態調整,而很多時候,伺服器的處理能力是很難用一個固定的數值量化。
(2)通過「動態權重」標識service的處理能力
提問:通過什麼來標識一個service的處理能力呢?
回答:其實一個service能不能處理得過來,能不能響應得過來,應該由調用方說了算。調用服務,快速處理了,處理能力跟得上;調用服務,處理超時了,處理能力很有可能跟不上了。
動態權重設計:
例如:
(1)設置一個閾值,超過閾值直接丟棄
(2)藉助「動態權重」來實施過載保護
案例策略:
1)service的負載均衡、故障轉移、超時處理通常是RPC-client連接池層面來實施的
2)異構伺服器負載均衡,最簡單的方式是靜態權重法,缺點是無法自適應動態調整
3)動態權重法,可以動態的根據service的處理能力來分配負載,需要有連接池層面的微小改動
4)過載保護,是在負載過高時,service為了保護自己,保證一定處理能力的一種自救方法
5)動態權重法,還可以用做service的過載保護
㈣ php負載均衡,伺服器上傳圖片
又看到你了。
你理解錯了吧,訪問B伺服器不一定上傳就得上傳到B伺服器,圖片伺服器應該有自己的域名(img.xxx.com)用戶訪問的是B伺服器做好的網站,但是使用上傳時提交到的是A的域名。
㈤ Spring Cloud Gateway整合Nacos實現服務路由及集群負載均衡
我們都知道 Spring Cloud Gateway 是一個基於 Spring Boot 、 Spring WebFlux 、 Project Reactor 構建的高性能網關,旨在提供簡單、高效的API路由。
Spring Cloud Gateway基於 Netty 運行,因此在傳統Servlet容器中或者打成war包是不能正常運行的。
這里我們注冊中心選型的是 Nacos ,如果還沒有安裝Nacos,請參考: Nacos快速安裝部署 。
如果URI以==lb==開頭,比如如上配置中的 lb://user-service , Spring Cloud Gateway 會用 解析服務名為 user-service 的實例對應的實際host和埠,並做集群負載均衡。
這項功能通過全局過濾器 實現,官網描述如下:
[圖片上傳失敗...(image-b13395-1655546589820)]
RouteRecordGlobalFilter 這個全局過濾器我們主要用來記錄路由後的實際代理地址,以及調用耗時。
我們看下 RouteToRequestUrlFilter 的描述會發現實際路由地址會通過 ServerWebExchange 中名為 ServerWebExchangeUtils.GATEWAY_REQUEST_URL_ATTR 的屬性保存。
[圖片上傳失敗...(image-a33940-1655546589820)]
關於 RouteToRequestUrlFilter 的部分源碼如下:
分別啟動api-gateway、指定概要文件啟動兩個user-service服務實例、和兩個message-service服務實例,查看Nacos控制台。
[圖片上傳失敗...(image-34bdc6-1655546589820)]
可以看到,api-gateway啟動了一個服務實例,user-service和message-service都啟動了兩個服務實例。
連續訪問 http://localhost:9000/user/info ,可以看到user-service集群服務實例被輪詢調用。
分別訪問 http://localhost:9000/user/info 、 http://localhost:9000/message/info ,我們可以看到基於路徑匹配的服務路由分發是成功的。
㈥ NFS架構(轉載)
1.為什麼用共享存儲
2.存儲有哪些工具
3.共享存儲應用場景有哪些
4.部署nfs共享存儲
5.客戶端嘗試連接共享存儲
什麼是NFS?
NFS 是 Network File System 的縮寫及網路文件系統。 NFS 主要功能是通過區域網絡讓不同的主機系統之間可以共享文件或目錄。
NFS 系統和 Windows 網路共享、網路驅動器類似, 只不過 windows 用於區域網, NFS 用於企業集群架構中, 如果是大型網站, 會用到更復雜的分布式文件系統 FastDFS,glusterfs,HDFS
那麼我們為什麼要使用數據存儲共享服務?
1.實現多台伺服器之間數據共享
2.實現多台伺服器之間數據一致
下面我將通過圖解給大家展示集群需要共享存儲服務的理由。
1.A 用戶上傳圖片經過負載均衡,負載均衡將上傳請求調度至 WEB1 伺服器上。
2.B 用戶訪問 A 用戶上傳的圖片,此時 B 用戶被負載均衡調度至 WEB2 上,因為 WEB2 上沒有這張圖片,所以 B用戶無法看到 A 用戶傳的圖片
如果有共享存儲的情況
1.A 用戶上傳圖片無論被負載均衡調度至 WEB1 還是 WEB2, 最終數據都被寫入至共享存儲
2.B 用戶訪問 A 用戶上傳圖片時,無論調度至 WEB1 還是 WEB2,最終都會上共享存儲訪問對應的文件,這樣就可以訪問到資源了
NFS工作原理
1.用戶進程訪問 NFS 客戶端,使用不同的函數對數據進行處理
2.NFS 客戶端通過 TCP/IP 的方式傳遞給 NFS 服務端
3.NFS 服務端接收到請求後,會先調用 portmap 進程進行埠映射。
4.nfsd 進程用於判斷 NFS 客戶端是否擁有許可權連接 NFS 服務端。
5.Rpc.mount 進程判斷客戶端是否有對應的許可權進行驗證。
6.idmap 進程實現用戶映射和壓縮
7.最後 NFS 服務端會將對應請求的函數轉換為本地能識別的命令,傳遞至內核,由內核驅動硬體。
注意: rpc 是一個遠程過程調用,那麼使用 nfs 必須有 rpc 服務
1.nfs依賴於RPC服務來傳遞消息
2.NFS服務啟動的埠號是隨機的,啟動之後會向本地的RCP注冊
3.先啟動RPC服務,再啟動NFS服務
4.NFS和RPC之間的通訊是他們自己內部完成的,對於用戶來說無感知
5.NFS客戶端和服務端不會直接溝通,必須通過RPC服務傳遞消息
6.防火牆要開放RPC服務的埠
nfs 服務程序的配置文件為/etc/exports,需要嚴格按照共享目錄的路徑 允許訪問的 NFS 客戶端(共享許可權參數)格式書寫,定義要共享的目錄與相應的許可權,具體書寫方式如下圖所示
配置文件參數解釋:
執行 man exports 命令,然後切換到文件結尾,可以快速查看如下樣例格式:
nfs共享參數 參數作用
rw 讀寫許可權
ro 只讀許可權
root_squash
當 NFS 客戶端以 root 管理員訪問時,映射為 NFS 伺服器的匿名用戶(不常用)
no_root_squash
當 NFS 客戶端以 root 管理員訪問時,映射為 NFS 伺服器的 root 管理員(不常用)
all_squash
無論 NFS 客戶端使用什麼賬戶訪問,均映射為 NFS 伺服器的匿名用戶(常用)
no_all_squash
無論 NFS 客戶端使用什麼賬戶訪問,都不進行壓縮
sync
同時將數據寫入到內存與硬碟中,保證不丟失數據
async
優先將數據保存到內存,然後再寫入硬碟;這樣效率更高,但可能會丟失數據
anonuid
配置 all_squash 使用,指定 NFS 的用戶 UID,必須存在系統
anongid
配置 all_squash 使用,指定 NFS 的用戶 UID,必須存在系統
寫入配置文件:注意!IP地址和後面的小括弧沒有空格
創建數據目錄和授權:
在使用 NFS 服務進行文件共享之前,需要使用 RPC(Remote Procere Call 遠程過程調用服務將 NFS 伺服器的IP 地址和埠號信息發送給客戶端。因此,在啟動 NFS 服務之前,需要先重啟並啟用 rpcbind 服務程序,同時都加入開機自啟動
客戶端安裝nfs服務十分簡單,只需要安裝nfs軟體包即可
安裝完成後只需要啟動rpcbind,不需要啟動nfs
使用showmount命令查看nfs共享信息查詢 NFS 伺服器的遠程共享信息,其輸出格式為「共享的目錄名稱 允許使用客戶端地址」。
掛載命令: 創建掛載目錄
在 NFS 客戶端創建一個掛載目錄, 使用 mount 命令並結合-t 參數, 指定要掛載的文件系統的類型, 並在命令後面寫上伺服器的 IP 地址, 以及伺服器上的共享目錄, 最後需要寫上要掛載到本地系統(客戶端)的目錄
查看是否掛載成功:
測試寫入數據是否正常
寫入開機自動掛載
卸載命令:注意!卸載的時候如果提示」umount.nfs: /nfsdir: device is busy」先切換到其他目錄再卸載
強制卸載命令:
服務端配置:
客戶端掛載:
測試讀取:
寫入測試:
服務端配置:
服務端創建用戶及授權:
重啟NFS服務:
更改目錄授權:
客戶端操作:
我們會發現依然可以寫入,但是為了避免這種情況發生,建議客戶端也創建相同uid gid的用戶
參考博客
啟動NFS會開啟如下埠:
1)portmapper 埠:111 udp/tcp;
2)nfs/nfs_acl 埠:2049 udp/tcp;
3)mountd 埠:"32768--65535" udp/tcp
4)nlockmgr 埠:"32768--65535" udp/tcp
系統 RPC服務在 nfs服務啟動時默認會給 mountd 和 nlockmgr 動態選取一個隨機埠來進行通訊。
1.查看NFS啟動後的埠
2.將隨機的埠號設置固定
3.重啟nfs和rpc服務
4.再次查看埠信息,發現埠號已經固定了
5.設置iptables
6.保存配置
如果設置了開機自啟動,但是系統啟動的時候NFS並沒有提供服務,就會導致開機自檢的時候卡在掛在那一步
NFS 存儲優點
1.NFS 文件系統簡單易用、方便部署、數據可靠、服務穩定、滿足中小企業需求。
2.NFS 文件系統內存放的數據都在文件系統之上,所有數據都是能看得見
NFS 存儲局限
1.存在單點故障, 如果構建高可用維護麻煩 web->nfs()->backup
2.NFS 數據明文, 並不對數據做任何校驗。
3.客戶端掛載 NFS 服務沒有密碼驗證, 安全性一般(內網使用)
NFS 應用建議
1.生產場景應將靜態數據盡可能往前端推, 減少後端存儲壓力
2.必須將存儲里的靜態資源通過 CDN 緩存 jpg\png\mp4\avi\css\js
3.如果沒有緩存或架構本身歷史遺留問題太大, 在多存儲也無用
准備 3 台虛擬機伺服器,並且請按照要求搭建配置 NFS 服務。
NFS 服務端(A)
NFS 客戶端(B)
NFS 客戶端(C)
1.在 NFS 服務端(A)上共享/data/w(可寫)及/data/r(只讀)
2.在 NFS 客戶端(B/C)上進行掛載
環境准備
㈦ 阿里slb做為k8s的負載均衡的限制
如果在本地搭建,我們可以使用haproxy+keepalived方式輕松實現k8s中的負載均衡,但是阿里的ecs不能使用keepalived,所以我們被迫只能使用阿里的 slb了。
既然keepalived的方式不能使用,那我們就使用阿里的slb進行負載均衡唄,由於該負載均衡不需要被外部訪問,只提供對k8s集群節點之間的訪問,所以我們就使用私網的slb。
[圖片上傳失敗...(image-b02d7-1604545387128)]
我們保證該slb和k8s集群節點的node屬於同一個區域網內,具體配置如下
第一步就是監聽該slb的6443埠,該埠後端的伺服器組分別是3台ecs的6443埠(apiserver服務)。接著我們可以 在master1節點 上執行如下命令
由於後端伺服器組的 apiserver 都尚未運行,預期會出現一個連接拒絕錯誤。然而超時意味著負載均衡器不能和控制平面節點通信。 如果發生超時,請重新配置負載均衡器與控制平面節點進行通信。
我們在master1節點上創建kubeadm-config.yaml文件,用於初始化控制平面節點,如下。
接著我們在master1節點上執行如下命令初始化
最後結果如下
看上面的日誌好像是kubelet的問題。我們先確認kubelet是否運行,發現處於running狀態。
接著查看kubelet的日誌
發現一個奇怪的問題,https://192.168.4.11:6443提示timeout。
接著我們在master1節點上首先測試本地的6443埠是否已經啟用
看到master1節點的6443埠已經被佔用,接著我們在 master1 節點測試slb的6443埠服務,按理說master1節點的6443服務已經啟用,那麼slb的6443服務也應該是可用可連通的。
遺憾的是slb的6443埠並沒有連通,我們在master2,master3節點上分別連接slb的6443埠,發現都timeout。 我們又找了同一區域網內的另一台ecs,該ecs不屬於slb的後端伺服器,在該ecs上卻能連接slb的6443埠 ,現在問題找到了:
帶著這個疑問我們提了阿里工單,客服最後給出結論。
私網的slb是不可以使用了,我們換成公網slb之後重新按照上述流傳執行一遍,最後初始化控制平面節點成功。
初始化之前slb的6443埠負載的後端伺服器組的6443服務肯定都沒有啟動。
初始化開始後先在本地拉取相關鏡像,隨後apiserver等服務啟動起來,也就是本地的6443服務已經啟動。
接著驗證slb的6443的連通性,由於master1節點的6443服務已經啟動,那麼slb的後端組在健康檢查中就會發現有master1節點6443埠一起啟動,所以slb的6443埠服務也就正常啟動了。
通過上面的描述,在 控制平面節點 上大致需要滿足以下倆點才能初始化成功
優點:可以將kubeconfig文件復制到你筆記本電腦上,進而可以在你本地訪問集群,也正是由於這種方式可能造成安全泄漏的問題。
缺點:apiserver暴露的ip是公網ip,一是各個節點之間溝通的效率變低,二是具有安全性問題。
如果公司非得使用私網的話,我們可以採取這種方式,大概拓撲圖如下
最上層是一個私網的slb,該slb的後端伺服器組為倆個haproxy,使用倆台haproxy可以避免haproxy的單點故障,haproxy的後端伺服器為3台k8s的master節點。
估計看到這里有人會有疑問,上面介紹的私網slb方式會導致四層監聽的後端伺服器無法訪問私網SLB問題,那麼該種方式就不會有這個問題嗎?我們帶著疑問進行測試。
我們准備6台ecs,配置如下
slb監聽6443埠,該埠的後端伺服器組為倆台haproxy並監聽8888埠。
haproxy監聽8888埠,該埠的後端伺服器組為3台控制平面節點並監聽6443埠,haproxy.cfg文件如下。
我們使用haproxy:1.7鏡像,在倆台haproxy所在節點分別執行如下操作:
kubeadm-config文件中controlPlaneEndpoint參數應為私網slb+6443埠,配置文件如下
執行初始化,發現可以初始化成功
以下所有測試在 master1 節點上測試
我們首先測試master1節點的apserver服務,6443埠是否已經被佔用
master1節點的6443埠顯示已經被佔用,接著我們測試haproxy節點的8888埠是否連通
顯示haproxy的8888埠已經連通,接著測試slb的6443埠是否被佔用,發現可以連通
到此說明我們的3層架構都已經連通,說明此方案是可以執行的。
之前提的那個疑問我們現在得到了答案。 但有一點是需要特別注意的
優點:由於中間多了一層haproxy,所以巧妙的解決了私網slb四層監聽的後端伺服器無法訪問私網SLB問題。
缺點:很顯而易見了,中間多了一層haproxy的轉發代理,而且也增加了成本。
現在大概有倆中方式可以實現k8s的高可用,一種是使用公網slb的方式,另一種是使用私網+haproxy+node的方式,這倆中方式各有優缺點,結合自己的實際情況選擇適合的方案。
㈧ 關於Nginx負載均衡目錄同步問題
近期外包接單,做了一個簡單的系統,本以為如此簡單一個Tomcat就足以滿足,結果客戶要求需要兩台伺服器負載均衡,之前負載均衡都是由專門的人負責,第一次自己實現Nginx,走了不少彎路。
由於項目組有附件上傳的功能,沒有專門的文件伺服器,將附件都存放在了ROOT底下,負載均衡後發現經常找不到圖片,明顯是因為兩台伺服器資源不同步的問題造成的,於是開始研究伺服器目錄同步,使用Rsync+Sersync實現目錄同步,具體步驟:
1:制定兩台伺服器中的一台為主伺服器(安裝軟體rsync+sersync,但是不需要啟動rsync),另一台為從伺服器(安裝軟體rsync,需要啟動rsync)
2:從伺服器安裝完rsync需要對/etc/rsyncd.conf 進行配置:
uid = root #擁有目錄許可權用戶
gid = root #擁有目錄許可權的組
use chroot = no #內網使用可以不用配置
max connections = 200 #最大連接數
timeout = 300 #超時時間
pid file = /var/run/rsyncd.pid #啟動進程寫入此PID文件
lock file = /var/run/rsyncd.lock #lock文件來配合最大連接數參數
log file = /var/log/rsyncd.log #日誌文件
ignore errors = yes #忽略I/O錯誤
read only = false #允許讀寫
list = false #不列出列表
hosts allow = 192.168.1.0/24 #允許網段
hosts deny = * #拒絕其他網段
auth users = users #認證用戶
secrets file = /opt/app/rsyncd/auth.pass #密碼文件
[web] #同步目錄
path = /backup/web
設置 /opt/app/rsyncd/auth.pass文件格式為user:password
給 /opt/app/rsyncd/auth.pass添加600許可權 chmod 600 /opt/app/rsyncd/auth.pass
啟動rsync rsnyc --daemon
3:主伺服器部署
主伺服器安裝完sersync後需要配置confxml.xml,在sersync的安裝目錄下
<sersync>
<!--<remote ip="192.168.8.39" name="tongbu"/>-->
<!--<remote ip="192.168.8.40" name="tongbu"/>-->
</localpath>
<rsync>
<commonParams params="-artuz"/>
<timeout start="false" time="100"/><!-- timeout=100 -->
<ssh start="false"/>
</rsync>
<failLog path="/tmp/rsync_fail_log.sh" timeToExecute="60"/>
<!--default every 60mins execute once-->
<crontab start="false" schele="600"><!--600mins-->
<crontabfilter start="false">
<exclude expression="*.php"></exclude>
<exclude expression="info/*"></exclude>
</crontabfilter>
</crontab>
<plugin start="false" name="command"/>
</sersync>
啟動sersync :/opt/soft/sersync/sersync/sersync2 -d -r -o /opt/soft/sersync/sersync/confxml.xml
location ~ .*\.(gif|jpg|jpeg|png|flv|mp3)$ { #靜態
proxy_pass http://192.168.1.12:80/;
}
㈨ 在供電的公眾號上申請電表,上傳圖片資料時一直顯示失敗
未能上傳圖片原因主要有以下兩種情況:
1.可能由於圖片大小不符合上傳要求,建議您將圖片大小調整為小於5M,再重新上傳。
2.網路異常導致無法上傳。請換個時間再重新上傳。
如圖片小於5M並且網路正常仍無法上傳,建議您撥打95598供電服務熱線進行反映,供電企業將安排相關客戶經理為您跟進處理。
希望我們的回答能對您有所幫助。
㈩ 關於linux中利用nginx+tomcat配置負載均衡並實現session復制的問題,用戶上傳的圖片文件該怎麼處理
占點空間算個毛線的事,如果要不佔用空間,就要重新設計架構,有哪個時間還不如多撈點錢,什麼空間的錢都賺幾十倍出來了,要不然就等著被老闆噴吧。