『壹』 Win8如何創建存儲池 Win8創建存儲池的方法
win8創建存儲池的方法:
1、要想在Win8系統中創建存儲池,我們首先要打開控制面板—所有控制面板項—存儲空間;接著點擊"創建新的池和存儲空間";
2、在新的窗口中,我們可以勾選多個驅動器,將其添加進存儲池中,就可以實現統一、靈活管理磁碟分區的目的;
3、此外,我們還可以創建一個存儲空間,設置"名稱、驅動器號、系統文件類型"等,如果我們同時添加了多個驅動器可以選擇雙向、三向鏡像,這樣在使用時會自動生成文件備份,以防止某個驅動器損壞爾導致文件丟了。
『貳』 什麼是對象存儲
對象存儲,也叫做基於對象的存儲,是用來描述解決和處理離散單元的方法的通用術語,這些離散單元被稱作為對象。
就像文件一樣,對象包含數據,但是和文件不同的是,對象在一個層結構中不會再有層級結構。每個對象都在一個被稱作存儲池的扁平地址空間的同一級別里,一個對象不會屬於另一個對象的下一級。
文件和對象都有與它們所包含的數據相關的元數據,但是對象是以擴展元數據為特徵的。每個對象都被分配一個唯一的標識符,允許一個伺服器或者最終用戶來檢索對象,而不必知道數據的物理地址。這種方法對於在雲計算環境中自動化和簡化數據存儲有幫助。
對象存儲經常被比作在一家高級餐廳代客停車。當一個顧客需要代客停車時,他就把鑰匙交給別人,換來一張收據。這個顧客不用知道他的車被停在哪,也不用知道在他用餐時服務員會把他的車移動多少次。在這個比喻中,一個存儲對象的唯一標識符就代表顧客的收據。
推薦使用藍隊雲對象存儲!藍隊雲對象存儲系統是非結構化數據存儲管理平台,支持中心和邊緣存儲,能夠實現存儲需求的彈性伸縮,應用於海量數據管理的各類場景,滿足您的多樣性需求。
『叄』 什麼是伺服器的RAID技術
什麼是RAID?
如何增加磁碟的存取速度,如何防止數據因磁碟的故障而丟失及如何有效的利用磁碟空間,一直是電腦專業人員和用戶的困擾,而大容量磁碟的價格非常昂貴,對用戶形成很大的負擔。磁碟陣列技術的產生一舉解決了這些問題。
過去十幾年來,CPU的處理速度增加了五十多倍,內存的存取速度也大幅增加,而數據儲存裝置--主要是磁碟--的存取速度只增加了三、四倍,形成電腦系統的瓶頸,拉低了電腦系統的整體性能,若不能有效的提升磁碟的存取速度,CPU、內存及磁碟間的不平衡將使CPU及內存的改進形成浪費。
磁碟陣列中針對不同的應用使用的不同技術,稱為RAID 等級。RAID是Rendant Array of Inexpensive Disks的縮寫,而每一等級代表一種技術。目前業界最經常應用的RAID等級是RAID 0~RAID 5。這個等級並不代表技術的高低,RAID 5並不高於RAID 3。至於要選擇那一種RAID 等級的產品,純視用戶的操作環境及應用而定,與等級的高低沒有必然的關系。
RAID級別的劃分?
目前業界最經常應用的RAID等級是RAID 0~RAID 5。下面將簡單描述一些常用的RAID等級,澄清一些應用的問題:
RAID 0(Striped Disk Array without Fault Tolerance)
RAID 0是把所有的硬碟並聯起來成為一個大的硬碟組。其容量為所有屬於這個組的硬碟的總和。所有數據的存取均以並行分割方式進行。由於所有存取的數據均以平衡方式存取到整組硬碟里,存取的速度非常快。越是多硬碟數量的RAID 0陣列其存取的速度就越快。容量效率方面也是所有RAID格式中最高的,達到100%。但RAID 0有一個致命的缺點–就是它跟普通硬碟一樣沒有一點的冗餘能力。一旦有一個硬碟失效時,所有的數據將盡失。沒法重組回來!一般來講,RAID 0隻用於一些已有原數據載體的多媒體文件的高速讀取環境。如視頻點播系統的數據共享部分等。RAID 0隻需要兩個或以上的硬碟便能組成。如下圖所示:
RAID 1(Mirroring)
RAID 1是硬碟鏡像備份操作。由兩個硬碟所組成。其中一個是主硬碟而另外一個是鏡像硬碟。主硬碟的 數據會不停的被鏡像到另外一個鏡像硬碟上。由於所有主硬碟的數據會不停地鏡像到另外一個硬碟上, 故RAID 1具有很高的冗餘能力。達到最高的100%。可是正由於這個鏡像做法不是以演算法操作,故它的容量效率非常的低,只有50%。RAID 1隻支持兩個硬碟操作。容量非常有限,故一般只用於操作系統中。如下圖所示:
RAID 0+1(Mirroring and Striping)
RAID 0+1即由兩組RAID 0的硬碟作RAID 1的鏡像容錯。雖然RAID 0+1具備有RAID 1的容錯能力和RAID 0的容量性能。但RAID 0+1的容量效率還是與RAID 1一樣只有50%,故同樣地沒有被普及使用。如下圖所示:
RAID 3(Striping with dedicated parity)
RAID 3在安全方面以奇偶校驗(parity check)做錯誤校正及檢測,只需要一個額外的校檢磁碟(parity disk)。奇偶校驗值的計算是以各個磁碟的相對應位作XOR的邏輯運算,然後將結果寫入奇偶校驗磁碟, 任何數據的修改都要做奇偶校驗計算。如某一磁碟故障,換上新的磁碟後,整個磁碟陣列(包括奇偶校驗 磁碟)需重新計算一次,將故障磁碟的數據恢復並寫入新磁碟中,如奇偶校驗磁碟故障,則重新計算奇偶 校驗值,以達容錯的要求。如下圖所示:
RAID 5(Striping with distributed parity)
RAID 5也是一種具容錯能力的RAID 操作方式,但與RAID 3不一樣的是RAID 5的容錯方式不應用專用容錯硬碟,容錯信息是平均的分布到所有硬碟上。當陣列中有一個硬碟失效,磁碟陣列可以從其他的幾個硬碟的對應數據中算出已掉失的數據。由於我們需要保證失去的信息可以從另外的幾個硬碟中算出來,我們就需要在一定容量的基礎上多用一個硬碟以保證其他的成員硬碟可以無誤地重組失去的數據。其總容量為(N-1)x最低容量硬碟的容量。從容量效率來講,RAID 5同樣地消耗了一個硬碟的容量,當有一個硬碟失效時,失效硬碟的數據可以從其他硬碟的容錯信息中重建出來,但如果有兩個硬碟同時失效的話,所有數據將盡失。如下圖所示:
RAID級別的對比
NAS的概念
網路存儲伺服器NAS(Network Attached Storage),是一個專用為提供高性能、低擁有成本和高可靠性的數據保存和傳送產品。NAS設備是為提供一套安全,穩固的文件和數據保存,容易使用和管理而設計,其定義為特殊的獨立的專用數據存儲伺服器,內嵌系統軟體,可以提供 NFS、SMB/CIFS 文件共享。NAS是基於IP協議的文件級數據存儲,支持現有的網路技術,比如乙太網、FDDI等。NAS設備完全以數據為中心,將存儲設備與伺服器徹底分離,集中管理數據,從而有效釋放帶寬,大大提高了網路整體性 能,也可有效降低總擁有成本,保護用戶投資。把文件存放在同一個伺服器里讓不同的電腦用戶共享和集合網路里不同種類的電腦正是NAS網路存儲的主要功能。正因為NAS網路存儲系統應用開放的,工業標準的協議,不同類型的電腦用戶運行不同的操作系統可以實現對同一個文件的訪問。所以已經不再在意到底是Windows 用戶或UNIX用戶。他們同樣可以安全地和可靠地使用NAS網路存儲系統中的數據。
NAS的特點
NAS以其流暢的機構設計,具有突出的性能:
·移除伺服器 I/O 瓶頸:
NAS是專門針對文件級數據存儲應用而設計的,將存儲設備與伺服器完全分離,從而將伺服器端數據 I/O瓶頸徹底消除。伺服器不用再承擔向用戶傳送數據的任務,更專注於網路中的其它應用,也提高了 網路的整體性能。
·簡便實現 NT與UNIX下的文件共享:
NAS支持標準的網路文件協議,可以提供完全跨平台文件混合存儲功能。不同操作系統下的用戶均可將數據存儲一台NAS設備中,從而大大節省存儲空間,減少資源浪費。
·簡便的設備安裝、管理與維護:
NAS設備提供了最簡便快捷的安裝過程,經過簡單的調試就可以流暢應用。一般基於圖形界面的管理系 統可方便進行設備的掌控。同樣,網路管理員不用分別對設備進行管理,集中化的數據存儲與管理, 節省了大量的人力物力。
·按需增容,方便容量規劃:
NAS設備可以提供在線擴容能力,大大方便了網路管理員的容量設計。即使應付無法預見的未來存儲容 量增長,也顯得異常輕松自如。而且,這種數據容量擴充的時候,不用停頓整個網路的服務,這將極大的減少因為停機造成的成本浪費。
·高可靠性:
除了剛才我們提到的因為移除伺服器端I/O瓶頸而大大提高數據可用性外,NAS設備還採用多種方式提高數據的可用性、可靠性,比如RAID技術的採用、冗餘部件(電源、風扇等)的採用以及容錯系統的設計等,當然對於不同的設備,可能也會採用其他更高性能的方式或解決方案。
·降低總擁有成本:
NAS有一個最吸引用戶的地方,就是具有極低的總擁有成本.
SAN的概念
SAN(Storage Area Network,存儲區域網),被定義為一個共用的高速專用存儲網路,存儲設備集中在伺服器的後端,因此SAN是專用的高速光纖網路。架構一個真正的SAN,需要接專用的光纖交換機和集線器。存儲區域網路是網路體系結構中一種相對新的概念,也是鏈接伺服器和獨立於工作網路的在線存儲設備的網路。雖然,網路依然在發展過程中,但最重要的 SAN 技術似乎是用於 SCSI 匯流排連接的光纖通道改進功能。
SAN的優勢
SAN的優勢可以表現在一下幾個方面:
·高數據傳輸速度:
以光纖為介面的存儲網路SAN提供了一個高擴展性、高性能的網路存儲機構。光纖交換機、光纖存儲陣列 同時提供高性能和更大的伺服器擴展空間,這是以SCSI為基礎的系統所缺乏的。同樣,為企業今後的應用提供了一個超強的可擴展性。
·加強存儲管理:
SAN 存儲網路各組成部分的數據不再在乙太網絡上流通從而大大提高乙太網絡的性能。正由於存儲設備與 伺服器完全分離,用戶獲得一個與伺服器分開的存儲管理理念。復制、備份、恢復數據趨向和安全的管理 可以中央的控制和管理手段進行。加上把不同的存儲池 (Storage Pools)以網路方式連接,企業可以以任 何他們需要的方式訪問他們的數據,並獲得更高的數據完整性。
·加強備份/還原能力的可用性:
SAN的高可用性是基於它對災難恢復,在線備份能力和對冗餘存儲系統和數據的時效切換能力而來。
·同種伺服器的整合:
在一個SAN系統中,伺服器全連接到一個數據網路。全面增加對一個企業共有存儲陣列的連接,高效率和 經濟的存儲分配可以通過聚合的和高磁碟使用率中獲得。
綜合SAN的優勢,它在高性能數據備份/恢復、集中化管理數據及遠程數據保護領域得到廣泛的應用。
SAN與NAS的比較
SAN和NAS是目前最受人矚目的兩種數據存儲方式,對兩種數據方式的爭論也在一直進行著,即使繼續發展其他的數據存儲方式,也或多或少的和這兩種方式存在聯系。NAS和SAN有一個共同的特點,就是實現了數據的集中存儲與集中管理,但相對於一個存儲池來講,SAN和NAS還是有很大差別的。NAS是獨立的文件伺服器,存儲操作系統不停留在通用伺服器端,因此可以實現同一存儲池中數據的獨享與共享,而SAN中的數據是基於塊級的傳輸,文件系統仍在相應的伺服器上,因此對於一個混合的存儲池來講,數據仍是獨立存在的,或者說是伺服器在獨享存儲池中的一部分空間。這兩個存儲方案的最大分別是在於他們的訪問方法。SAN存儲網路系統是以塊(Block)級的方式操作而NAS網路存儲系統是以文件(File)級的方式表達。這意味著NAS系統對於文件級的服務有著更高效和快速的性能,而應用數據塊(Block)的資料庫應用和大數據塊(Block)的I/O操作則以SAN為優先。基於SAN和NAS的很大不同,很多人將NAS和SAN絕對的對立起來,就目前的發展觀點來看,這一絕對的對立是不能被市場接受的,相反更多的數據存儲解決方案趨向於將NAS和SAN進行融合,這是因為:
·一些分散式的應用和用戶要求訪問相同的數據
·對提供更高的性能,高可靠性和更低的擁有成本的專有功能系統的高增長要求
·以成熟和習慣的網路標准包括TCP/IP, NFS和CIFS為基礎的操作
·一個獲得以應用為基礎而更具商業競爭力的解決方案慾望
·一個全面降低管理成本和復雜性的需求
·一個不需要增加任何人員的高擴展存儲系統
·一套可以通過重構劃的系統以維持目前擁有的硬體和管理人員的價值
由於在一個位置融合了所有存儲系統,用戶可以從管理效率、使用率和可靠性的全面提高中獲得更大的好處。SAN已經成為一個非常流行的存儲集中方案,因為光纖通道能提供非常龐大的設備連接數量,連接容易和存儲設備與伺服器之間的長距離連接能力。同樣地,這些優點在NAS系統中也能體驗出來。一套會聚SAN和NAS的解決方案全面獲得應用光纖通道的能力,從而讓用戶獲得更大的擴展性,遠程存儲和高性能等優點。同樣這種存儲解決方案全面提供一套在以塊(Block)和文件(File)I/O為基礎的高效率平衡功能從而全面增強數據的可用性。應用光纖通道的SAN和NAS,整個存儲方案提供對主機的多層面的存儲連接、高性能、高價值、高可用和容易維護等優點,全由一個網路結構提供。
-----------------
RAID是英文Rendant Array of Inexpensive Disks的縮寫,中文簡稱為廉價磁碟冗餘陣列。RAID就是一種由多塊硬碟構成的冗餘陣列。
雖然RAID包含多塊硬碟,但是在操作系統下是作為一個獨立的大型存儲設備出現。利用RAID技術於存儲系統的好處主要有以下三種:
1. 通過把多個磁碟組織在一起作為一個邏輯卷提供磁碟跨越功能
2. 通過把數據分成多個數據塊(block)並行寫入/讀出多個磁碟以提高訪問磁碟的速度
3. 通過鏡像或校驗操作提供容錯能力
最初開發RAID的主要目的是節省成本,當時幾塊小容量硬碟的價格總和要低於大容量的硬碟。目前來看RAID在節省成本方面的作用並不明顯,但是RAID可以充分發揮出多塊硬碟的優勢,實現遠遠超出任何一塊單獨硬碟的速度和吞吐量。除了性能上的提高之外,RAID還可以提供良好的容錯能力,在任何一塊硬碟出現問題的情況下都可以繼續工作,不會受到損壞硬碟的影響。
RAID技術分為幾種不同的等級,分別可以提供不同的速度,安全性和性價比。根據實際情況選擇適當的RAID級別可以滿足用戶對存儲系統可用性、性能和容量的要求。常用的RAID級別有以下幾種:NRAID,JbOD,RAID0,RAID1,RAID0+1,RAID3,RAID5等。目前經常使用的是RAID5和RAID(0+1)。
『肆』 微信計算存儲空間時可以玩別的嗎
可以。
只要不是微信內容,任務互不影響。
存儲空間,指數據存儲所需要的介質。物理地址的集合稱為物理空間,也稱存儲空間,即某個存儲設備的總容量,如256MB的內存、128MB的U盤、80GB的硬碟等。存儲空間是一個可將本地物理存儲設備集中合並為存儲池並劃分為(一個或多個)虛擬驅動器的一項功能,用戶所創建的存儲空間可以大於、等於或小於存儲池中單個物理硬碟的容量。
『伍』 雲服務存儲數據具體是存在哪裡
雲存儲的本身目的就是為用戶消除存儲伺服器的概念,而是給用戶提供了一個「無限大」的存儲池,只要感覺到自己能在這個存儲池中像操作自己的本地存儲伺服器一樣就可以了。就比如一般用戶使用自來水不用關心自來水是如果在水廠七層過濾並沉澱存放的。
當然雲存儲的背後有大量的存儲伺服器和計算伺服器為用戶提供存儲和計算服務,他們通過分布式存儲系統統一在一起,通過虛擬化技術(實際上就是提供統一的介面,屏蔽復雜的後端)為用戶提供類似於上面所談的「存儲池」。
你談到訪問多個虛擬伺服器,如果只是存儲的話,你看不到多個虛擬的存儲器,你看到的只是一個「存儲池」,比如網路雲、金山雲。只有在使用計算功能時,你才看到雲計算廠商為你虛擬出來的多個伺服器,有可能這些伺服器背後還是使用一個「存儲池」
『陸』 有沒有詳細介紹文件系統的書籍
其實你想知道什麼想弄明白什麼可以直接在網上搜下資料很全想要專業性的書籍大概免費的很少比如你想了解ZFS文件系統
查得(你還可以繼續深入的去查……不好意思,或者我說的與你的意思擰了,^_^建議而已):ZFS文件系統的英文名稱為Zettabyte File System,也叫動態文件系統(Dynamic File System),是第一個128位文件系統。
ZFS是基於存儲池的,與典型的映射物理存儲設備的傳統文件系統不同,ZFS所有在存儲池中的文件系統都可以使用存儲池的資源。
什麼是ZFS
ZFS 文件系統是一個革命性的全新的文件系統,它從根本上改變了文件系統的管理方式,這個文件系統的特色和其帶來的好處至今沒有其他文件系統可以與之媲美,ZFS 被設計成強大的、可升級並易於管理的。
ZFS 用「存儲池」的概念來管理物理存儲空間。過去,文件系統都是構建在物理設備之上的。為了管理這些物理設備,並為數據提供冗餘,「卷管理」的概念提供了一個單設備的映像。但是這種設計增加了復雜性,同時根本沒法使文件系統向更高層次發展,因為文件系統不能跨越數據的物理位置。
ZFS 完全拋棄了「卷管理」,不再創建虛擬的卷,而是把所有設備集中到一個存儲池中來進行管理!「存儲池」描述了存儲的物理特徵(設備的布局,數據的冗餘等等),並扮演一個能夠創建文件系統的專門存儲空間。從此,文件系統不再局限於單獨的物理設備,而且文件系統還允許物理設備把他們自帶的那些文件系統共享到這個「池」中。你也不再需要預先規劃好文件系統的大小,因為文件系統可以在「池」的空間內自動的增大。當增加新的存貯介質時,所有「池」中的所有文件系統能立即使用新增的空間,而不需要而外的操作。在很多情況下,存儲池扮演了一個虛擬內存。
創建一個池的例子
# zpool create tank mirror c1t0d0 c1t1d0
這是一個被鏡像了的池,名叫「tank」。如果命令中的設備包含有其他的文件系統或者以別的形式被使用,那麼命令不能執行。
要查看池是否成功創建,用 zpool list 命令,例如:
# zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
tank 80G 137K 80G 0% ONLINE -
ZFS 文件系統的層次
不管層次如何,根總是池的名字。
1、為每個用戶及項目創建一個文件系統是個不錯的辦法!
2、ZFS可以為文件系統分組,屬於同一組的文件系統具有相似的性質,這有點像用戶組的概念!相似的文件系統能夠使用一個共同的名字。
3、大多數文件系統的特性都被用簡單的方式進行控制,這些特徵控制了各種行為,包括文件系統被mount在哪裡,怎麼被共享,是否被壓縮,是否有限額
創建一個文件系統
# zfs create tank/home
下一步,就可以創建各個文件系統,把它們都歸組到 home 這個文件系統中。
同時可以設置home的特性,讓組內的其他文件系統繼承的它的這些特性。
當一個文件系統層次創建之後,可以為這個文件系統設置一些特性,這些特性將被所有的用戶共享:
# zfs set mountpoint=/export/zfs tank/home
# zfs set sharenfs=on tank/home
# zfs set compression=on tank/home
# zfs get compression tank/home
NAME PROPERTY VALUE SOURCE
tank/home compression on local
4、創建單個的文件系統
注意:這些文件系統如果被創建好,他們的特性的改變將被限制在home級別,所有的特性能夠在文件系統的使用過程中動態的改變。
# zfs create tank/home/bonwick
# zfs create tank/home/billm
bonwick、billm文件系統從父文件系統home中繼承了特性,因此他們被自動的mount到/export/zfs/user 同時作為被共享的NFS。管理員根本不需要再手工去編輯 /etc/vfstab 或 /etc/dfs/dfstab 文件。
每個文件系統除了繼承特性外,還可以有自己的特性,如果用戶bonwick的磁碟空間要限制在10G。
# zfs set quota=10G tank/home/bonwick
5、用 zfs list 命令查看可獲得的文件系統的信息,類似於過去的 df -k 命令了,呵呵 .
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
tank 92.0K 67.0G 9.5K /tank
tank/home 24.0K 67.0G 8K /export/zfs
tank/home/billm 8K 67.0G 8K /export/zfs/billm
tank/home/bonwick 8K 10.0G 8K /export/zfs/bonwick
ZFS和傳統文件系統的區別
1、傳統的文件系統被限制在單個磁碟設備之內,它們的尺寸是不能超越單個磁碟設備。
2、過去的文件系統是被影射到一個物理存儲單元,如:分區;所有的ZFS文件系統共享池內的可獲得的存儲空間。
3、ZFS 文件系統不需要通過編輯/etc/vfstab 文件來維護。
ZFS已經拋棄了卷管理,邏輯卷可以不再使用。因為ZFS在使用和管理raw設備能夠有更好的表現。
Components of a ZFS Storage Pool
組成ZFS存儲池的元件有:磁碟、文件、虛擬設備,其中磁碟可以是整個硬碟(c1t0d0),也可以是單個slice(c0t0d0s7)。推薦使用整個硬碟,這樣可以省去分區操作(format)。
RAID-Z 跟 RAID-5的區別
傳統的raid-5都存在著「寫漏洞」,就是說如果raid-5的stripe在正寫數據時,如果這時候電源中斷,那麼奇偶校驗數據將跟該部分數據不同步,因此前邊的寫無效;RAID-Z用了「variable-width RAID stripes」技術,因此所有的寫都是full-stripe writes。之所以能實現這種技術,就是因為ZFS集成了文件系統和設備管理,使得文件系統的元數據有足夠的信息來控制「variable-width RAID stripes」
理論上說,創建RAID-Z需要至少三塊磁碟,這跟raid-5差不多。例如:
raidz c1t0d0 c2t0d0 c3t0d0
還可以更加復雜一點,例如:
raidz c1t0d0 c2t0d0 c3t0d0 c4t0d0 c5t0d0 c6t0d0 c7t0d0 raidz c8t0d0 c9t0d0 c10t0d0 c11t0d0 c12t0d0 c13t0d0 c14t0d0
上邊這個例子創建了14個磁碟的RAID-Z , 這14個盤被分成了兩組,但下邊這句話有點不大明白:
RAID-Z configurations with single-digit groupings of disks should perform better.
RAID-Z具有自動修復數據的功能
當有損壞的數據塊被檢測到,ZFS不但能從備份中找到相同的正確的數據,而且還能自動的用正確數據修復損壞的數據。
創建ZFS存儲池
1、創建一個基本的存儲池,方法很簡單:
# zpool create tank c1t0d0 c1t1d0
這時可以在 /dev/dsk 目錄下看到一個大的slice,數據動態的stripe跨過所有磁碟!
2、創建一個鏡像的存儲池
也是很簡單,只要在上邊命令基礎上增加「mirror」關鍵字就可以了,下邊是創建一個兩路(two-way)鏡像的例子:
# zpool create tank mirror c1d0 c2d0 mirror c3d0 c4d0
3、創建RAID-Z存儲池
使用「raidz」關鍵字就可以了,例如:
# zpool create tank raidz c1t0d0 c2t0d0 c3t0d0 c4t0d0 /dev/dsk/c5t0d0
這里/dev/dsk/c5t0d0其實跟用c5t0d0是一樣的,由此可以看出,在創建ZFS的時候,磁碟完全可以用物理設備名就可以,不需要指出全路徑。
這句話不大明白:However, the disks must be preformatted to have an appropriately sized slice zero.
4、檢測正在使用的設備
在格式化設備之前,ZFS首先決定磁碟是否已經在用或者是否裝有操作系統,如果磁碟在用了,那麼將會出現下邊的錯誤提示:
# zpool create tank c1t0d0 c1t1d0
invalid vdev specification
use 』-f』 to override the following errors:
/dev/dsk/c1t0d0s0 is currentlymounted on /
/dev/dsk/c1t0d0s1 is currentlymounted on swap
/dev/dsk/c1t1d0s0 is part of active ZFS pool 』zeepool』
Please see zpool(1M)
有些錯誤可以用 -f 選項來強制覆蓋,但是大多錯誤是不能的。下邊給出不能用-f覆蓋的錯誤情況,這時只能手工糾正錯誤:
Mounted file system The disk or one of its slices contains a file system that is currently mounted. To correct this error, use the umount command.
File system in /etc/vfstab The disk contains a file system that is listed in the /etc/vfstab file,but the file system is not currently mounted.To correct this error,remove or comment out the line in the /etc/vfstab file.
Dedicated mp device The disk is in use as the dedicated mp device for the system. To correct this error, use the mpadm command.
Part of a ZFS pool The disk or file is part of an active ZFS storage pool. To correct this error, use the zpool command to destroy the pool.
5、創建存儲池時默認的mount點
在創建存儲池時,如果mount點所在目錄不存在,系統會自動創建,如果存在,根數據集(root dataset)會自動mount到這個目錄上。
To create a pool with a different default mount point, use the -m option of the zpool create command:
# zpool create home c1t0d0
default mountpoint 』/home』 exists and is not empty
use 』-m』 option to specifya different default
# zpool create -m /export/zfs home c1t0d0
This command creates a new pool home and the home dataset with a mount point of /export/zfs.
6、刪除存儲池
Pools are destroyed by using the zpool destroy command. This command destroys the pool even if it contains mounted datasets.
# zpool destroy tank
用ZFS存儲池管理設備
1、增加設備到存儲池
用戶可以通過增加一個新的頂級虛擬設備的方法動態給存儲池增加空間,這個空間立即對空間中的所有數據集(dataset)有效。要增加一個虛擬設備到池中,用「zpool add」命令,例如:
# zpool add zeepool mirror c2t1d0 c2t2d0
該命令也可以用 -n選項進行預覽,例如:
# zpool add -n zeepool mirror c3t1d0 c3t2d0
would update 』zeepool』 to the following configuration:
zeepool
mirror
c1t0d0
c1t1d0
mirror
c2t1d0
c2t2d0
mirror
c3t1d0
c3t2d0
2、增加和減少一路鏡像
用「zpool attach」命令增加一路鏡像,例如:
# zpool attach zeepool c1t1d0 c2t1d0
在這個例子中,假設 zeepool 是第一點里的那個zeepool(已經是兩路鏡像),那麼這個命令將把zeepool升級成三路鏡像。
用「zpool detach」命令來分離一路鏡像
# zpool detach zeepool c2t1d0
如果池中不存在鏡像,這個才操作將被拒絕。錯誤提示如下邊這個例子:
# zpool detach newpool c1t2d0 cannot detach c1t2d0: onlyapplicable to mirror and replacing vdevs
3、管理設備的「上線」和「下線」
ZFS允許個別的設備處於offline或者online狀態。當硬體不可靠或者還沒有完全不能用的時候,ZFS會繼續向設備讀寫數據,但不過是臨時這么做,因為設備還能將就使用。一旦設備不能使用,就要指示ZFS忽略該設備,並讓這個壞掉的設備下線。ZFS不會向offline的設備發送任何請求。
注意:如果只是為了更換設備(被換設備並沒有出問題),不需要把他們offline。如果offline設備,然後換了一個新設備上去,再把新設備online,這么做會出錯!
用「zpool offline」命令讓設備下線。例如:
# zpool offline tank c1t0d0
bringing device c1t0d0 offline
下邊這句話沒怎麼看懂:
You cannot take a pool offline to the point where it becomes faulted. For example, you cannot take offline two devices out of a RAID-Z configuration, nor can you take offline a top-level virtual device.
# zpool offline tank c1t0d0
cannot offline c1t0d0: no valid replicas
默認情況下,offline設備將永久保持offline狀態,直到系統重新啟動。
要臨時offline一個設備,用-t選項,例如:
# zpool offline -t tank c1t0d0
bringing device 』c1t0d0』 offline
用「zpool onine」命令使設備上線
# zpool online tank c1t0d0
bringing device c1t0d0 online
注意:如果只是為了更換設備(被換設備並沒有出問題),不需要把他們offline。如果offline設備,然後換了一個新設備上去,再把新設備online,這么做會出錯!在這個問題上文檔是這么說的:(但願我沒理解錯)
Note that you cannot use device onlining to replace a disk. If you offline a
device, replace the drive, and try to bring it online, it remains in the faulted state.
4、清掃存儲池設備
如果設備因為出現錯誤,被offline了,可以用「zpool clear」命令清掃錯誤。
如果沒有特別指定,zpool clear命令清掃池裡所有設備。例如:
# zpool clear tank
如果要清掃指定設備,例如:
# zpool clear tank c1t0d0
5、替換存儲池裡的設備
用「zpool replace」命令替換池中設備,例如:
# zpool replace tank c1t1d0 c1t2d0
c1t1d0 被 c1t2d0 替換
注意:如果是mirror或者RAID-Z,替換設備的容量必須大於或等於所有設備最小容量!
查詢ZFS存儲池的狀態
1、ZFS存儲池的基本信息
用「zpool list」命令查看存儲池的基本信息,例如:
# zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
tank 80.0G 22.3G 47.7G 28% ONLINE -
dozer 1.2T 384G 816G 32% ONLINE -
NAME: The name of the pool.
SIZE: The total size of the pool, equal to the sum of the size of all top-level virtual
devices.
USED: The amount of space allocated by all datasets and internal metadata. Note that
this amount is different from the amount of space as reported at the file system level.
AVAILABLE: The amount of unallocated space in the pool.
CAPACITY (CAP): The amount of space used, expressed as a percentage of total space.
HEALTH: The current health status of the pool.
ALTROOT: The alternate root of the pool, if any.
可以通過指定名字來查看某一個池的狀態,例如:
# zpool list tank
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
tank 80.0G 22.3G 47.7G 28% ONLINE -
『柒』 什麼叫虛擬存儲器怎麼樣確定虛擬存儲器的容量
隨著圍繞數字化、網路化開展的各種多媒體處理業務的不斷增加,存儲系統網路平台已經成為一個核心平台,同時各種應用對平台的要求也越來越高,不光是在存儲容量上,還包括數據訪問性能、數據傳輸性能、數據管理能力、存儲擴展能力等等多個方面。可以說,存儲網路平台的綜合性能的優劣,將直接影響到整個系統的正常運行。
為達到這些要求,一種新興的技術正越來越受到大家的關注,即虛擬存儲技術。
其實虛擬化技術並不是一件很新的技術,它的發展,應該說是隨著計算機技術的發展而發展起來的,最早是始於70年代。由於當時的存儲容量,特別是內存容量成本非常高、容量也很小,對於大型應用程序或多程序應用就受到了很大的限制。為了克服這樣的限制,人們就採用了虛擬存儲的技術,最典型的應用就是虛擬內存技術。隨著計算機技術以及相關信息處理技術的不斷發展,人們對存儲的需求越來越大。這樣的需求刺激了各種新技術的出現,比如磁碟性能越來越好、容量越來越大。但是在大量的大中型信息處理系統中,單個磁碟是不能滿足需要,這樣的情況下存儲虛擬化技術就發展起來了。在這個發展過程中也由幾個階段和幾種應用。首先是磁碟條帶集(RAID,可帶容錯)技術,將多個物理磁碟通過一定的邏輯關系集合起來,成為一個大容量的虛擬磁碟。而隨著數據量不斷增加和對數據可用性要求的不斷提高,又一種新的存儲技術應運而生,那就是存儲區域網路(SAN)技術。SAN的廣域化則旨在將存儲設備實現成為一種公用設施,任何人員、任何主機都可以隨時隨地獲取各自想要的數據。目前討論比較多的包括iSCSI、FC Over IP 等技術,由於一些相關的標准還沒有最終確定,但是存儲設備公用化、存儲網路廣域化是一個不可逆轉的潮流。
一、虛擬存儲的概念
所謂虛擬存儲,就是把多個存儲介質模塊(如硬碟、RAID)通過一定的手段集中管理起來,所有的存儲模塊在一個存儲池(Storage Pool)中得到統一管理,從主機和工作站的角度,看到就不是多個硬碟,而是一個分區或者卷,就好象是一個超大容量(如1T以上)的硬碟。這種可以將多種、多個存儲設備統一管理起來,為使用者提供大容量、高數據傳輸性能的存儲系統,就稱之為虛擬存儲。
二、虛擬存儲的分類
目前虛擬存儲的發展尚無統一標准,從虛擬化存儲的拓撲結構來講主要有兩種方式:即對稱式與非對稱式。對稱式虛擬存儲技術是指虛擬存儲控制設備與存儲軟體系統、交換設備集成為一個整體,內嵌在網路數據傳輸路徑中;非對稱式虛擬存儲技術是指虛擬存儲控制設備獨立於數據傳輸路徑之外。從虛擬化存儲的實現原理來講也有兩種方式;即數據塊虛擬與虛擬文件系統。具體如下:
1.對稱式虛擬存儲
圖1對稱式虛擬存儲解決方案的示意圖
在圖1所示的對稱式虛擬存儲結構圖中,存儲控制設備 High Speed Traffic Directors(HSTD)與存儲池子系統Storage Pool集成在一起,組成SAN Appliance。可以看到在該方案中存儲控制設備HSTD在主機與存儲池數據交換的過程中起到核心作用。該方案的虛擬存儲過程是這樣的:由HSTD內嵌的存儲管理系統將存儲池中的物理硬碟虛擬為邏輯存儲單元(LUN),並進行埠映射(指定某一個LUN能被哪些埠所見),主機端將各可見的存儲單元映射為操作系統可識別的盤符。當主機向SAN Appliance寫入數據時,用戶只需要將數據寫入位置指定為自己映射的盤符(LUN),數據經過HSTD的高速並行埠,先寫入高速緩存,HSTD中的存儲管理系統自動完成目標位置由LUN到物理硬碟的轉換,在此過程中用戶見到的只是虛擬邏輯單元,而不關心每個LUN的具體物理組織結構。該方案具有以下主要特點:
(1)採用大容量高速緩存,顯著提高數據傳輸速度。
緩存是存儲系統中廣泛採用的位於主機與存儲設備之間的I/O路徑上的中間介質。當主機從存儲設備中讀取數據時,會把與當前數據存儲位置相連的數據讀到緩存中,並把多次調用的數據保留在緩存中;當主機讀數據時,在很大幾率上能夠從緩存中找到所需要的數據。直接從緩存上讀出。而從緩存讀取數據時的速度只受到電信號傳播速度的影響(等於光速),因此大大高於從硬碟讀數據時碟片機械轉動的速度。當主機向存儲設備寫入數據時,先把數據寫入緩存中,待主機端寫入動作停止,再從緩存中將數據寫入硬碟,同樣高於直接寫入硬碟的速度
(2)多埠並行技術,消除了I/O瓶頸。
傳統的FC存儲設備中控制埠與邏輯盤之間是固定關系,訪問一塊硬碟只能通過控制它的控制器埠。在對稱式虛擬存儲設備中,SAN Appliance的存儲埠與LUN的關系是虛擬的,也就是說多台主機可以通過多個存儲埠(最多8個)並發訪問同一個LUN;在光纖通道100MB/帶寬的大前提下,並行工作的埠數量越多,數據帶寬就越高。
(3)邏輯存儲單元提供了高速的磁碟訪問速度。
在視頻應用環境中,應用程序讀寫數據時以固定大小的數據塊為單位(從512byte到1MB之間)。而存儲系統為了保證應用程序的帶寬需求,往往設計為傳輸512byte以上的數據塊大小時才能達到其最佳I/O性能。在傳統SAN結構中,當容量需求增大時,唯一的解決辦法是多塊磁碟(物理或邏輯的)綁定為帶區集,實現大容量LUN。在對稱式虛擬存儲系統中,為主機提供真正的超大容量、高性能LUN,而不是用帶區集方式實現的性能較差的邏輯卷。與帶區集相比,Power LUN具有很多優勢,如大塊的I/O block會真正被存儲系統所接受,有效提高數據傳輸速度;並且由於沒有帶區集的處理過程,主機CPU可以解除很大負擔,提高了主機的性能。
(4)成對的HSTD系統的容錯性能。
在對稱式虛擬存儲系統中,HSTD是數據I/O的必經之地,存儲池是數據存放地。由於存儲池中的數據具有容錯機制保障安全,因此用戶自然會想到HSTD是否有容錯保護。象許多大型存儲系統一樣,在成熟的對稱式虛擬存儲系統中,HSTD是成對配製的,每對HSTD之間是通過SAN Appliance內嵌的網路管理服務實現緩存數據一致和相互通信的。
(5)在SAN Appliance之上可方便的連接交換設備,實現超大規模Fabric結構的SAN。
因為系統保持了標準的SAN結構,為系統的擴展和互連提供了技術保障,所以在SAN Appliance之上可方便的連接交換設備,實現超大規模Fabric結構的SAN。
2.非對稱式虛擬存儲系統
圖2非對稱式虛擬存儲系統示意圖
在圖2所示的非對稱式虛擬存儲系統結構圖中,網路中的每一台主機和虛擬存儲管理設備均連接到磁碟陣列,其中主機的數據路徑通過FC交換設備到達磁碟陣列;虛擬存儲設備對網路上連接的磁碟陣列進行虛擬化操作,將各存儲陣列中的LUN虛擬為邏輯帶區集(Strip),並對網路上的每一台主機指定對每一個Strip的訪問許可權(可寫、可讀、禁止訪問)。當主機要訪問某個Strip時,首先要訪問虛擬存儲設備,讀取Strip信息和訪問許可權,然後再通過交換設備訪問實際的Strip中的數據。在此過程中,主機只會識別到邏輯的Strip,而不會直接識別到物理硬碟。這種方案具有如下特點:
(1)將不同物理硬碟陣列中的容量進行邏輯組合,實現虛擬的帶區集,將多個陣列控制器埠綁定,在一定程度上提高了系統的可用帶寬。
(2)在交換機埠數量足夠的情況下,可在一個網路內安裝兩台虛擬存儲設備,實現Strip信息和訪問許可權的冗餘。
但是該方案存在如下一些不足:
(1)該方案本質上是帶區集——磁碟陣列結構,一旦帶區集中的某個磁碟陣列控制器損壞,或者這個陣列到交換機路徑上的銅纜、GBIC損壞,都會導致一個虛擬的LUN離線,而帶區集本身是沒有容錯能力的,一個LUN的損壞就意味著整個Strip裡面數據的丟失。
(2)由於該方案的帶寬提高是通過陣列埠綁定來實現的,而普通光纖通道陣列控制器的有效帶寬僅在40MB/S左右,因此要達到幾百兆的帶寬就意味著要調用十幾台陣列,這樣就會佔用幾十個交換機埠,在只有一兩台交換機的中小型網路中,這是不可實現的。
(3)由於各種品牌、型號的磁碟陣列其性能不完全相同,如果出於虛擬化的目的將不同品牌、型號的陣列進行綁定,會帶來一個問題:即數據寫入或讀出時各並發數據流的速度不同,這就意味著原來的數據包順序在傳輸完畢後被打亂,系統需要佔用時間和資源去重新進行數據包排序整理,這會嚴重影響系統性能。
3.數據塊虛擬與虛擬文件系統
以上從拓撲結構角度分析了對稱式與非對稱式虛擬存儲方案的異同,實際從虛擬化存儲的實現原理來講也有兩種方式;即數據塊虛擬與虛擬文件系統。
數據塊虛擬存儲方案著重解決數據傳輸過程中的沖突和延時問題。在多交換機組成的大型Fabric結構的SAN中,由於多台主機通過多個交換機埠訪問存儲設備,延時和數據塊沖突問題非常嚴重。數據塊虛擬存儲方案利用虛擬的多埠並行技術,為多台客戶機提供了極高的帶寬,最大限度上減少了延時與沖突的發生,在實際應用中,數據塊虛擬存儲方案以對稱式拓撲結構為表現形式。
虛擬文件系統存儲方案著重解決大規模網路中文件共享的安全機制問題。通過對不同的站點指定不同的訪問許可權,保證網路文件的安全。在實際應用中,虛擬文件系統存儲方案以非對稱式拓撲結構為表現形式。
三、虛擬存儲技術的實現方式
目前實現虛擬存儲主要分為如下幾種:
1.在伺服器端的虛擬存儲
伺服器廠商會在伺服器端實施虛擬存儲。同樣,軟體廠商也會在伺服器平台上實施虛擬存儲。這些虛擬存儲的實施都是通過伺服器端將鏡像映射到外圍存儲設備上,除了分配數據外,對外圍存儲設備沒有任何控制。伺服器端一般是通過邏輯卷管理來實現虛擬存儲技術。邏輯卷管理為從物理存儲映射到邏輯上的卷提供了一個虛擬層。伺服器只需要處理邏輯卷,而不用管理存儲設備的物理參數。
用這種構建虛擬存儲系統,伺服器端是一性能瓶頸,因此在多媒體處理領域幾乎很少採用。
2.在存儲子系統端的虛擬存儲
另一種實施虛擬的地方是存儲設備本身。這種虛擬存儲一般是存儲廠商實施的,但是很可能使用廠商獨家的存儲產品。為避免這種不兼容性,廠商也許會和伺服器、軟體或網路廠商進行合作。當虛擬存儲實施在設備端時,邏輯(虛擬)環境和物理設備同在一個控制范圍中,這樣做的益處在於:虛擬磁碟高度有效地使用磁碟容量,虛擬磁帶高度有效地使用磁帶介質。
在存儲子系統端的虛擬存儲設備主要通過大規模的RAID子系統和多個I/O通道連接到伺服器上,智能控制器提供LUN訪問控制、緩存和其他如數據復制等的管理功能。這種方式的優點在於存儲設備管理員對設備有完全的控制權,而且通過與伺服器系統分開,可以將存儲的管理與多種伺服器操作系統隔離,並且可以很容易地調整硬體參數。
3.網路設備端實施虛擬存儲
網路廠商會在網路設備端實施虛擬存儲,通過網路將邏輯鏡像映射到外圍存儲設備,除了分配數據外,對外圍存儲設備沒有任何控制。在網路端實施虛擬存儲具有其合理性,因為它的實施既不是在伺服器端,也不是在存儲設備端,而是介於兩個環境之間,可能是最「開放」的虛擬實施環境,最有可能支持任何的伺服器、操作系統、應用和存儲設備。從技術上講,在網路端實施虛擬存儲的結構形式有以下兩種:即對稱式與非對稱式虛擬存儲。
從目前的虛擬存儲技術和產品的實際情況來看,基於主機和基於存儲的方法對於初期的採用者來說魅力最大,因為他們不需要任何附加硬體,但對於異構存儲系統和操作系統而言,系統的運行效果並不是很好。基於互聯設備的方法處於兩者之間,它迴避了一些安全性問題,存儲虛擬化的功能較強,能減輕單一主機的負載,同時可獲得很好的可擴充性。
不管採用何種虛擬存儲技術,其目的都使為了提供一個高性能、安全、穩定、可靠、可擴展的存儲網路平台,滿足節目製作網路系統的苛刻要求。根據綜合的性能價格比來說,一般情況下,在基於主機和基於存儲設備的虛擬存儲技術能夠保證系統的數據處理能力要求時,優先考慮,因為這兩種虛擬存儲技術構架方便、管理簡單、維護容易、產品相對成熟、性能價格比高。在單純的基於存儲設備的虛擬存儲技術無法保證存儲系統性能要求的情況下,我們可以考慮採用基於互連設備的虛擬存儲技術。
四、虛擬存儲的特點
虛擬存儲具有如下特點:
(1)虛擬存儲提供了一個大容量存儲系統集中管理的手段,由網路中的一個環節(如伺服器)進行統一管理,避免了由於存儲設備擴充所帶來的管理方面的麻煩。例如,使用一般存儲系統,當增加新的存儲設備時,整個系統(包括網路中的諸多用戶設備)都需要重新進行繁瑣的配置工作,才可以使這個「新成員」加入到存儲系統之中。而使用虛擬存儲技術,增加新的存儲設備時,只需要網路管理員對存儲系統進行較為簡單的系統配置更改,客戶端無需任何操作,感覺上只是存儲系統的容量增大了。
(2)虛擬存儲對於視頻網路系統最有價值的特點是:可以大大提高存儲系統整體訪問帶寬。存儲系統是由多個存儲模塊組成,而虛擬存儲系統可以很好地進行負載平衡,把每一次數據訪問所需的帶寬合理地分配到各個存儲模塊上,這樣系統的整體訪問帶寬就增大了。例如,一個存儲系統中有4個存儲模塊,每一個存儲模塊的訪問帶寬為50MBps,則這個存儲系統的總訪問帶寬就可以接近各存儲模塊帶寬之和,即200MBps。
(3)虛擬存儲技術為存儲資源管理提供了更好的靈活性,可以將不同類型的存儲設備集中管理使用,保障了用戶以往購買的存儲設備的投資。
(4)虛擬存儲技術可以通過管理軟體,為網路系統提供一些其它有用功能,如無需伺服器的遠程鏡像、數據快照(Snapshot)等。
五、虛擬存儲的應用 由於虛擬存儲具有上述特點,虛擬存儲技術正逐步成為共享存儲管理的主流技術,其應用具體如下:
1.數據鏡像
數據鏡像就是通過雙向同步或單向同步模式在不同的存儲設備間建立數據復本。一個合理的解決方案應該能在不依靠設備生產商及操作系統支持的情況下,提供在同一存儲陣列及不同存儲陣列間製作鏡像的方法。
2.數據復制
通過IP地址實現的遠距離數據遷移(通常為非同步傳輸)對於不同規模的企業來說,都是一種極為重要的數據災難恢復工具。好的解決方案不應當依賴特殊的網路設備支持,同時,也不應當依賴主機,以節省企業的管理費用。
3.磁帶備份增強設備
過去的幾年,在磁帶備份技術上鮮有新發展。盡管如此,一個網路存儲設備平台亦應能在磁帶和磁碟間搭建橋路,以高速、平穩、安全地完成備份工作。
4.實時復本
出於測試、拓展及匯總或一些別的原因,企業經常需要製作數據復本。
5.實時數據恢復
利用磁帶來還原數據是數據恢復工作的主要手段,但常常難以成功。數據管理工作其中一個重要的發展新方向是將近期內的備分數據(可以是數星期前的歷史數據)轉移到磁碟介質,而非磁帶介質。用磁碟恢復數據就象閃電般迅速(所有文件能在60秒內恢復),並遠比用磁帶恢復數據安全可靠。同時,整卷(Volume)數據都能被恢復。
6.應用整合
存儲管理發展的又一新方向是,將服務貼近應用。沒有一個信息技術領域的管理人員會單純出於對存儲設備的興趣而去購買它。存儲設備是用來服務於應用的,比如資料庫,通訊系統等等。通過將存儲設備和關鍵的企業應用行為相整合,能夠獲取更大的價值,同時,大大減少操作過程中遇到的難題。
7.虛擬存儲在數字視頻網路中的應用
現在我著重介紹虛擬存儲在數字視頻網路中的應用。
數字視頻網路對廣播電視行業來說已經不是一個陌生的概念了,由於它在廣播電視技術數字化進程中起到了重要的作用,國內各級電視台對其給予極大的關注,並且開始構造和應用這類系統,在數字視頻網的概念中完全打破了以往一台錄象機、一個編輯系統、一套播出系統的傳統結構,而代之以上載工作站、編輯製作工作站、播出工作站及節目存儲工作站的流程,便於操作和管理。節目上載、節目編輯、節目播出在不同功能的工作站上完成,可成倍提高工作效率。同時,由於採用非線性編輯系統,除了採集時的壓縮損失外。信號在製作、播出過程中不再有任何損失,節目的技術質量將大大提高。
在現有的視頻網路系統中,雖然電腦的主頻、網路的傳輸速率以及交換設備的性能,已經可以滿足絕大多數應用的要求,但其中存儲設備的訪問帶寬問題成為了系統的一個主要性能瓶頸。視頻編輯、製作具有數據量存儲大、碼流高、實時性強、安全性重要等特點。這就要求應用於視頻領域的存儲技術和產品必須具有足夠的帶寬並且穩定性要好。
在單機應用時,為了保證一台編輯站點有足夠的數據帶寬,SCSI技術、本地獨立磁碟冗餘陣例RAID(Rendant Array of Independent Disks)技術(包括軟體和硬體)被廣泛應用,它通過把若干個SCSI硬碟加上控制器組成一個大容量,快速響應,高可靠性的存儲子系統,從用戶看可作為一個邏輯盤或者虛擬盤,從而大大提高了數據傳輸率和存儲容量,同時利用糾錯技術提高了存儲的可靠性,並可滿足帶寬要求。
隨著節目製作需求的發展,要求2—3台站點共享編輯數據。這時可利用SCSI網路技術實現這一要求。幾台編輯站點均配置高性能的SCSI適配器,連接至共享的SCSI磁碟陣列,既可以實現幾個站點共享數據,又可以保證每一台單機的工作帶寬。
光纖通道技術的成熟應用對視頻網路的發展具有里程碑的意義,從此主機與共享存儲設備之間的連接距離限制從幾米、十幾米,擴展到幾百米、幾千米,再配合光纖通道交換設備,網路規模得到幾倍、十幾倍的擴充。這時候的FC(Fibre Channel光纖通道)磁碟陣列——RAID容錯技術、相對SCSI的高帶寬、大容量,成為視頻網路中的核心存儲設備。
隨著電視台規模的發展,全台級大規模視頻網路的應用被提出。在這種需求下,就必須將更先進的存儲技術與產品引入視頻領域。存儲區域網(SAN)的發展目前正處於全速上升期,各種概念層出不窮。其中具有劃時代意義的是虛擬存儲概念的提出。相對於傳統的交換機加RAID陣列,主機通過硬體層直接訪問陣列中的硬碟的SAN結構,虛擬存儲的定位是將數據存儲功能從實際的、物理的數據存取過程中抽象出來,使普通用戶在訪問數據時不必關心具體的存儲設備的配置參數、物理位置及容量,從而簡化用戶和系統管理人員的工作難度。
在設計一個視頻網路系統的時候,對存儲系統的選用,主要考慮如下幾個因素:(1)總體帶寬性能;(2)可管理性;(3)安全性;(4)可擴展性;(5)系統成本。
當然,這些因素之間有時是相互制約的,特別是系統成本與性能和安全性的關系。如何在這些因素之間尋求合理的、實用的、經濟的配合,是一個需要解決的課題。虛擬存儲技術的出現,為我們在構建視頻網路系統時提供了一個切實可行的高性能價格比的解決方案。
從拓撲結構來講,對稱式的方案具有更高的帶寬性能,更好的安全特性,因此比較適合大規模視頻網路應用。非對稱式方案由於採用了虛擬文件原理,因此更適合普通區域網(如辦公網)的應用。
『捌』 如何在KVM中管理存儲池
你好,
在Linux中用命令行工具管理KVM虛擬環境的步驟: 第一步: 配置存儲池 Virsh命令行工具是一款管理virsh客戶域的用戶界面。virsh程序能在命令行中運行所給的命令以及它的參數。本節中,要用它給KVM環境創建存儲池。想知道關於這個工具的更多信息,用以下這條命令。 # man virsh 一、用virsh帶pool-define-as的命令來定義新的存儲池,需要指定名字、類型和類型參數。本例中,將名字取為Spool一,類型為目錄。默認情況下可以提供五個參數給該類型: source-host source-path source-dev source-name target 對於目錄類型,需要用最後一個參數「target」來指定存儲池的路徑,其它參數項可以用「-」來填充。 # virsh pool-define-as Spool一 dir - - - - "/mnt/personal-data/SPool一/" 二、 查看環境中所有的存儲池,用以下命令。 # virsh pool-list --all 三、現在來構造存儲池了,用以下命令來構造剛才定義的存儲池。 # virsh pool-build Spool一 四、用帶pool-start參數的virsh命令來激活並啟動剛才創建並構造完成的存儲池。 # virsh pool-start Spool一 5、查看環境中存儲池的狀態,用以下命令。 # virsh pool-list --all 會發現Spool一的狀態變成了已激活。 陸、對Spool一進行配置,讓它每次都能被libvirtd服務自啟動。 # virsh pool-autostart Spool一 漆、最後來看看新的存儲池的信息吧。 # virsh pool-info Spool一 恭喜,Spool一已經准備好待命,接下來試著創建存儲卷來使用它。 第二步: 配置存儲卷/磁碟映像 現在輪到磁碟映像了,用qemu-img命令在Spool一中創建一個新磁碟映像。獲取更多細節信息,可以查看man手冊。 # man qemu-img 吧、應該在qemu-img命令之後指定「create, check,…」等等操作、磁碟映像格式、想要創建的磁碟映像的路徑和大小。 # qemu-img create -f raw /mnt/personal-data/SPool一/SVol一.img 一0G 9、通過使用帶info的qemu-img命令,你可以獲取到你的新磁碟映像的一些信息。 查看存儲卷信息 警告: 不要用qemu-img命令來修改被運行中的虛擬機或任何其它進程所正在使用的映像,那樣映像會被破壞。 現在是時候來創建虛擬機了。 第三步: 創建虛擬機 一0、現在到最後一個環節了,在最後一步中,將用virt-install命令來創建虛擬機。virt-install是一個用來創建新的KVM虛擬機命令行工具,它使用「libvirt」管理程序庫。想獲取更多細節,同樣可以查看man手冊。 # man virt-install 要創建新的KVM虛擬機,需要用到帶以下所有信息的命令。 Name: 虛擬機的名字。 Disk Location: 磁碟映像的位置。 Graphics : 怎樣連接VM,通常是SPICE。 vcpu : 虛擬CPU的數量。 ram : 以兆位元組計算的已分配內存大小。 Location : 指定安裝源路徑。 Network : 指定虛擬中國絡,通常是virbr0中國橋。 virt-install --name=rhel漆 --disk path=/mnt/personal-data/SPool一/SVol一.img --graphics spice --vcpu=一 --ram=一0二四 --location=/run/media/dos/9e陸f陸05a-f50二-四e9吧-吧二陸e-e陸三漆陸caea二吧吧/rhel-server-漆.0-x吧陸_陸四-dvd.iso --network bridge=virbr0 創建新的虛擬機 一一、會看到彈出一個virt-vierwer窗口,像是在通過它在與虛擬機通信
『玖』 truenas無法創建jail
1、單擊左側「jails」菜單
2、選擇jail存儲位置:在最上方「Activated Pool for Jail Manager:」這里會顯示jail工作的存儲池,點擊「配置」按鈕可以選擇存儲池,建議選擇在固態硬碟上建立的存儲池,因為jail系統運行中會不斷訪問硬碟,如果將jail放在機械盤上,將會不斷訪問機械盤,可能會影響壽命,放在固態硬碟上系統運行速度也會更快。配置好存儲池之後,系統會自動建立一個iocage數據集,用於存放jail相關文件。
3、創建jail:點擊「ADD」按鈕,在彈出界面中輸入jail名稱和系統版本
4、點擊「下一步」,在彈出界面中選擇網路設置,一般情況下選擇「DHCP自動配置IPv4」就行了。
5、點擊「下一步」,顯示確認信息界面
6、點擊「SUBMIT」之後將開始創建jail,這時將會下載前面選擇的FreeBSD11.2-RELEASE系統,可能需要較長時間,請耐心等待。
7、成功之後,顯示jail列表