用SAN还是NAS?我来告诉你-创新互联

通过对SAN和NAS的比较,人们可以了解采用这两种存储系统架构时要考虑的事项。对象存储和云计算也会影响可用的存储选项。

存储区域网络(SAN)是以一种结构连接的存储,通常通过交换机连接,使许多不同的服务器能够轻松访问存储设备。从服务器应用程序和操作系统的角度来看,访问SAN中的数据存储或直接连接的存储之间没有明显区别。存储区域网络(SAN)与直接连接存储(DAS)一样,可以对数据进行块访问。

成都创新互联公司主营白水网站建设的网络公司,主营网站建设方案,成都APP应用开发,白水h5微信小程序搭建,白水网站营销推广欢迎白水等地区企业咨询

用SAN还是NAS?我来告诉你

网络附加存储(NAS)是一种远程文件服务方法。它不是在文件系统上使用软件,而是使用远程协议(如SMB或NFS)将文件访问重定向到另一设备。该设备作为具有自己的文件系统的服务器运行,处理文件I/O,并启用文件共享和集中数据管理。

SAN与NAS的决策通常归结为用户存储的数据类型。在比较SAN与NAS时,请记住NAS最终会将文件I/O请求转换为附加到其上的存储设备的块访问。SAN也是结构化数据的选,结构化数据是驻留在关系数据库中的数据。虽然NAS可以处理结构化数据,但它通常用于非结构化数据,非结构化数据主要由文件、电子邮件、社交媒体、图像、视频、通信以及关系数据库之外的几乎任何类型的数据组成。

用于存储的对象I/O变得更加普遍,这主要归功于其在云存储中的巨大用途。因此,与块存储一起使用的SAN与具有文件存储的NAS之间的明显区别变得模糊。

当供应商从块或文件转移到对象I/O以满足其存储需求时,用户仍然希望以他们习惯的方式访问数据:块存储用于SAN或文件存储用于NAS。供应商提供的系统具有前端系统,可呈现NAS或SAN体验,而后端则基于对象存储。

文件vs.块vs对象

文件I/O以与用户在计算机上的驱动器上相同的方式读取和写入数据,使用分层结构,文件夹内的文件可以位于更多文件夹中。NAS系统通常使用这种方法,它有许多好处:

•当使用NFS和SMB(最常见的NAS协议)时,用户可以像本地和外部驱动器一样复制和粘贴文件或整个文件夹。

•IT部门可以轻松管理这些系统。

块I/O将每个文件或文件夹视为更小数据位的各种块,并将每个块的多个副本分布在SAN系统中的各种驱动器和设备上。这种方法的好处包括:

•更高的数据可靠性。如果一个驱动器或多个驱动器发生故障,仍可访问数据。

•更快的访问。文件可以从最靠近用户的块重新组装,不需要通过文件夹层次结构。

对象I/O存储将每个文件视为单个对象,类似于文件I/O,并且没有嵌套文件夹的层次结构,如块I/O。使用对象存储,所有文件或对象都放入一个巨大的数据池或平面数据库中。基于已经与文件相关联或由对象存储操作系统(OS)添加的元数据来找到文件。

对象存储是三种方法中最慢的,主要用于云文件存储。但是,访问元数据的方式的最新进展以及对快速闪存驱动器的使用的增加缩小了对象、文件和块之间的速度差距。

NAS vs.SAN的使用

SAN与NAS的主要区别在于每种类型的存储方式对用户的影响。

NAS系统或设备通过标准以太网连接到网络,因此在用户看来就像任何其他网络连接设备一样。用户连接到NAS访问它上面的文件。NAS设备具有管理用户计算机请求的任何数据的写入和读取的操作系统。

一旦将其安装在用户的计算机上,SAN将显示为本地驱动器。这意味着它将作为本地驱动器运行,用户计算机上的操作系统将处理读取或写入数据的命令。这使用户可以像对待任何其他本地驱动器一样对待它,包括在其上面安装软件的能力。

SAN vs.NAS的连接

NAS系统可以是单个设备中的一个服务器或一组驱动器或服务器。这可以让NAS系统直接连接到网络,通常使用连接到以太网交换机的以太网电缆。

相反,SAN是由网络结构(如iSCSI或光纤通道)连接在一起的驱动器、设备或服务器池。

以太网和光纤网络多年来一直以速度为基础进行竞争。然而,这种优势一直体现在结构上,因为它具有更直接的连接,而不必通过以太网连接的TCP/IP处理。鉴于此,当数据速度相等时,结构最终具有I/O速度优势,因为当数据在存储和用户之间传输时,数据的接触次数较少。

NAS的优势

易用性是NAS的一个关键优势。NAS系统中的元数据具有层次性和可读性。用户可以使用简单的文件系统浏览器来查看文件名,并将它们组织成易于命名的文件夹。

使用NAS,用户可以协作和共享数据,无论他们身在何处。NAS可以轻松地从任何联网设备访问文件和文件夹。

NAS还以低于SAN的成本提供高容量。NAS设备将存储合并到一个地方,并支持数据管理和保护任务,如归档、备份和云存储。NAS可以处理非结构化数据,例如音频、视频、网站、文本文件和微软Office文档。

NAS设备可以配备更多或更大的磁盘以扩展存储容量。这种方法称为放大NAS。它们也可以聚集在一起以进行横向扩展存储。高端NAS设备可以容纳足够的磁盘来支持RAID。

NAS支持兼容便携式操作系统接口的文件访问,便于集中管理安全性和文件访问,并确保多个应用程序可以共享横向扩展NAS设备,而无需一个应用程序覆盖另一个应用程序正在使用的文件。

NAS的缺点

NAS速度不够快,无法满足高性能应用的需求。如果有太多的用户在同时请求系统的情况下可能让系统崩溃,它可能会进一步减速。然而,在更新的NAS系统中,无论是与HDD结合使用还是作为全闪存系统,都可以缓解速度问题。

NAS可能会出现可扩展性问题。添加太多NAS设备可能导致NAS蔓延,尤其是在必须单独管理所有设备的情况下。集群或横向扩展NAS被设计用于缓解该问题。

数据完整性可能会成为一个问题,因为文件系统会在逻辑或物理磁盘卷中存储元数据和文件内容。如果文件服务器断电,系统必须执行文件系统检查(也称为fsck)以验证数据的状态。根据NAS系统,执行文件系统检查(也称为fsck)所涉及的延迟可能很大。

NAS使用RAID也可能存在问题,因为RAID达到了可扩展性限制。重建时间可能需要数天的时间,这种情况只会随着多TB容量驱动器变得更加普遍而变得更糟。

SAN的优点

SAN将原始存储视为IT可以在需要时集中管理和分配的资源池。由于SAN通过网络结构连接,因此使用SAN的数据传输和访问速度比NAS快,所有一切都如此。

SAN系统具有高度可扩展性。可以根据需要添加容量。部署SAN的其他原因包括持续可用性和弹性。高可用性SAN设计为没有单点故障,从高可用性SAN磁盘阵列和带有冗余关键组件和SAN冗余连接的交换机开始。

SAN的缺点

成本和复杂性是SAN的主要缺点。这些系统的硬件很昂贵,而构建和管理它们需要专业知识和技能。

SAN远比NAS复杂,有专用线缆,通常是光纤通道,但可以使用以太网,以及专用交换机和存储硬件。光纤是专门为存储而开发的,因为在过去十年中,在协议取得进展之前,以太网不够可靠,无法传输数据块。但光纤通道SAN需要专业知识以及专用连接。

虽然SAN具有高度可扩展性,但垂直扩展SAN阵列的能力有限。一旦达到向上扩展限制,就必须移动到更高性能的存储阵列或添加多个存储阵列。越来越多的SAN磁盘阵列通过支持横向扩展来避免这个问题,其中添加了可同时扩展容量和性能的存储节点。

DAS如何适应

DAS(直连式存储)是未连接到网络的专用服务器或存储设备。DAS最简单的例子是计算机的硬盘。要访问DAS上的文件,用户必须能够访问物理存储设备。

DAS可以胜过NAS,特别是对于计算密集型软件程序。但是在使用DAS时,必须单独管理每个设备上的存储,从而增加了系统管理的复杂性。DAS系统通常不提供SAN和NAS中常见的高级存储管理特性,如复制、快照和瘦配置。

DAS也不能实现多个用户之间的共享存储。并且因为只有一个主机访问DAS设备,所以只有一部分可用存储最终被使用。

统一存储的兴起

统一存储的出现使存储管理员可以灵活地在同一阵列上运行块或文件。这些多协议系统在一个存储平台上整合基于SAN块的数据和基于NAS文件的数据。客户可以从SAN或NAS开始,稍后再添加支持和适当的连接。或者他们可以购买支持SAN和NAS的存储阵列。

统一存储的优缺点

《计算机周刊》编辑Antony Adshead与GlassHouse公司前技术顾问(现为戴尔EMC的顾问工程师)Andrew White谈论统一存储的挑战和好处。

统一存储使用文件和块协议。它可以使用文件协议(如SMB和NFS)以及块协议(如FC和iSCSI)。

这些系统的一个优点是它们比传统存储系统需要更少的硬件。更新的统一存储产品正在整合云存储和存储虚拟化。

主板可能孕育未来

如今大的动作和兴奋来自于通过结构扩展非易失性存储器(NVMe)协议。

NVMe协议是将闪存设备直接连接到计算机主板的最快方式,通过外围组件互连高速总线进行通信。它的性能远远超过通过SATA连接的SSD硬盘。想象一下,如果可以在整个SAN系统上整合这种快速的NVMe连接将会有什么样的体验。

公平地说,NVMe不能用于在远程最终用户和存储阵列之间传输数据,因此必须使用消息传递层。这使得NVMe看起来更像是一个以太网连接的NAS系统,它使用以太网的TCP / IP协议来处理数据移动。但NVMe over Fabrics开发人员正致力于使用远程直接内存访问(RDMA)来使该消息传递层对速度的影响最小。在提出的各种类型的RDMA中,有融合以太网上的RDMA,全球互联网广域RDMA协议和InfiniBand,它们被用于高性能计算系统。


网页标题:用SAN还是NAS?我来告诉你-创新互联
网页地址:http://cdiso.cn/article/cophch.html

其他资讯