如何在Linux系统中挂载RAID? (linux 挂载raid)

RD(Redundant Array of Inexpensive Disks)是一种数据存储技术,它通过将多个硬盘组合在一起,提高数据存储的性能和可靠性。在Linux系统中,我们可以使用一些工具来创建并挂载RD。

本文将简单介绍如何在Linux系统中挂载RD。在开始前,我们需要一些准备工作:

1. 两个或更多的硬盘 – 用于组建RD。

2. Linux系统 – 我们将使用Linux系统来创建和挂载RD。

一、创建RD

在Linux系统中创建RD通常使用mdadm命令。该命令是Linux内核中的一个工具,它可以将多个硬盘组合在一起,创建一个虚拟硬盘设备。 mdadm可以创建各种类型的RD扩展存储方案。 在本文中,我们将使用RD 1(镜像)。RD 1方式要求我们至少需要有两个相同大小的硬盘。

1.检查Linux系统中是否安装mdadm。

[root@linux ~]# mdadm –version

2.将硬盘分区并标记为Linux类型

我们需要将硬盘分区并标记为Linux类型,才能在Linux中使用。使用fdisk命令将硬盘分区并标记为Linux类型。

[root@linux ~]# fdisk /dev/sdb

p #查看硬盘分区列表

n #新建一个分区

p #选择分区类型

1 #选择分区编号

#选择分区的起始位置

#选择分区的大小,使用默认大小即可

w #保存分区信息

3.使用mdadm命令组合硬盘创建RD

使用mdadm命令组合硬盘创建RD 1。

[root@linux ~]# mdadm –create /dev/md0 –level=1 –rd-devices=2 /dev/sda1 /dev/sdb1

在此命令中:

–create:mdadm命令的选项。以此选项开始的所有字段定义一个新的RD设备。

/dev/md0:新创建的RD设备的名称。在Linux中,RD设备以/dev/md*的形式命名,其中*表示设备的编号。在此示例中,我们将设备命名为/md0。

–level:表示要创建的RD级别。在此命令中,我们指定RD1(镜像)。

–rd-devices:要组合到RD设备中的硬盘数量。在此示例中,我们将两个硬盘组合到生成的RD设备中。

/dev/sda1和/dev/sdb1:硬盘设备的名称,它们将被组合成一个RD设备。

二、挂载RD

我们已经创建了RD设备,接下来需要将其挂载到Linux系统中。挂载RD设备类似于挂载磁盘分区。

1.创建一个文件夹来挂载RD。

[root@linux ~]# mkdir /mnt/myrd

2.使用mount命令将RD设备挂载到该文件夹。

[root@linux ~]# mount /dev/md0 /mnt/myrd

在此命令中:

/dev/md0:RD设备的名称

/mnt/myrd:挂载设备的目录

3.使用df命令检查挂载,确认RD设备成功挂载。

[root@linux ~]# df -h

三、让挂载是永久的

默认情况下,RD设备在系统重启后不会挂载。如果要使其永久挂载,请执行以下步骤:

1.打开/etc/fstab文件。

[root@linux ~]# vim /etc/fstab

2.将以下行添加到文件的末尾。

/dev/md0 /mnt/myrd ext4 defaults 0 0

在此示例中,我们假设RD设备采用ext4文件系统,并将其挂载到/mnt/myrd目录中。

3.保存并关闭文件。

4.启动系统,RD设备应该会自动挂载到指定目录。

相关问题拓展阅读:

在linux中,创建空间为2G的raid0设备,要求开机启动后挂载在/shared目录下,求实验过程

这样吧 你先创建两个新的分区 注意 分区的格式和大小都要一样 更好是使用卷来做 比如创建的是/dev/vda5 和/dev/vda6两个分区用来做raid0 那么久输入以下命令创建raid0分区 mdadm -C /dev/md1 -a yes -l 0 -n 2 /dev/vda{5,6} 这样您的raid0就做成功了 使用mdadm -D /dev/md1即可查看您的raid0分区

至于您说的开机挂载。。。。。这个我记得好像不怎么需要 如果开机无法启用raid0的话 您就修改下 fstable 或者是将挂载的脚本写到 /etc/rc.d/rc.local(这个路径有些忘了 你找找吧 文件名是rc.local)

要做倒是简单 不过你确定是raid0设备么 raid0设备挂载出来有什么用么?我好根据你的需求来看看

如何在linux下做软raid实现方法

磁盘阵列软RAID实例.

前言:raid0, 容量倍增,加速。 raid1, 安全镜像备份。 raid5, 奇偶数据校验保证安全,磁盘利用率(n-1)。

****************************************

1. 准备硬盘分区。

****************************************

raid5 至少需要3快硬盘,我手上只有一块闲置硬盘,就拿它练手。

在一块硬盘上实现raid 是没有意义的,这里仅是为了实验,知道其过程。

分区如下:

主分区 /sdb1, 扩展分区/sdb10 随便干别的事情。

扩展分区/sdb{5..9} 做raid5

# fdisk -l /dev/sdb

Disk /dev/sdb: 160.0 GB,bytes

255 heads, 63 sectors/track,cylinders

Units = cylinders of* 512 =bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x86ea33f5

Device Boot StartEnd Blocks Id System

/dev/sdb 83 Linux

/dev/sdb 5 Extended

/dev/sdb fd Linux raid autodetect

/dev/sdb fd Linux raid autodetect

/dev/sdb fd Linux raid autodetect

/dev/sdb fd Linux raid autodetect

/dev/sdb fd Linux raid autodetect

/dev/sdb 83 Linux

# partprobe /dev/sdb

重新检测分区要通过, 可能需要重启系统。

****************************************

2. 创建raid5 设备/dev/md0

****************************************

raid 设备文件名,习惯上用md0, md1….等命名

注意: 创建需要内核支持, 选中相应的raid 选项,重编译内核,否则该命令不能通过,错误为invalid parameter

2.1 创建

# mdadm -C /dev/md0 -a yes -l 5 -n 4 -x 1 /dev/sdb{5..9}

mdadm: Defaulting to version 1.2 metadata

解释一下:

-C —> create

-a —> autodetected

-l —> level raid5

-n —> raid devices 4 (使用)

-x —> spare devices 1(备用)

给一个参考多硬盘命令

# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sd1

2.2: 设备名称查询

# ll /dev/md* -d

drwxr-xr-x 2 root root 60 Nov 7 01:51 /dev/md

brw-rwroot disk 9, 0 Nov 7 01:52 /dev/md0

2.3: 设备信息查询

# mdadm –detail /dev/md0

/dev/md0:

Version : 1.2

Creation Time : Thu Nov 7 01:14:

Raid Level : raid5

Array Size :(74.48 GiB 79.97 GB)

Used Dev Size :(24.83 GiB 26.66 GB)

Raid Devices : 4

Total Devices : 5

Persistence : Superblock is persistent

Update Time : Thu Nov 7 01:43:

State : clean, degraded, recovering

Active Devices : 3

Working Devices : 5

Failed Devices : 0

Spare Devices : 2

Layout : left-symmetric

Chunk Size : 512K

Rebuild Status : 63% complete

Name : hjj.localdomain:0 (local to host hjj.localdomain)

UUID : 9dee9c47:58dfe491:5c8db1c6:9686eba5

Events : 25

Number Major Minor RaidDevice State

active sync /dev/sdb5

active sync /dev/sdb6

active sync /dev/sdb7

spare rebuilding /dev/sdb8

spare /dev/sdb9

****************************************

3: 格式化raid 设备(磁盘)

# mkfs -t ext4 /dev/md0

****************************************

mke2fs 1.41.12 (17-May-2023)

Filesystem label=

OS type: Linux

Block size=4096 (log=2)

Fragment size=4096 (log=2)

Stride=128 blocks, Stripe width=384 blocks

inodes,blocks

blocks (5.00%) reserved for the super user

First data block=0

Maximum filesystem blocks=

596 block groups

32768 blocks per group,fragments per group

8192 inodes per group

Superblock backups stored on blocks:

32768, 98304,,,,,,,,

,,

Writing inode tables: done

Creating journal (32768 blocks):

done

Writing superblocks and filesystem accounting information:

done

This filesystem will be automatically checked every 34 mounts or

180 days, whichever comes first. Use tune2fs -c or -i to override.

****************************************

4. 挂载及使用raid 磁盘

****************************************

# mount /dev/md0 /mnt

# cd /mnt

# ls

lost+found

使用raid 设备(虚拟盘)

# echo “haha” > abc.txt

# cat abc.txt

haha

# df

FilesystemK-blocks Used Available Use% Mounted on

/dev/mapper/VolGroup-lv_root

84% /

tmpfs% /dev/shm

/dev/sda 15% /boot

/dev/mapper/VolGroup-lv_home

12% /home

/dev/md8 1% /mnt

****************************************

5. 设置开机启动RAID

****************************************

# mdadm –detail –scan

ARRAY /dev/md0 metadata=1.2 spares=2 name=hjj.localdomain:0 UUID=9dee9c47:58dfe491:5c8db1c6:9686eba5

# mdadm –detail –scan >/etc/mdadm.conf

经以上操作,系统重启时自动命名为md0, 否则会是md127 等等值, 不固定。

# vim /etc/fstab

添加:

/dev/md /mnt ext4 defaults

****************************************

6. 其它:停用设备,插拔磁盘

更详细文档: man mdadm

****************************************

停用raid 盘:

# mdadm –stop /dev/md0

查询

# ll /dev/md* , 无设备

mdadm 还可模拟拔出硬盘,修复硬盘,插入硬盘

# mdadm /dev/md0 –remove /dev/sdb5

验证:

# mdadm –zero-superblock –force /dev/md0

# mdadm /dev/md0 –add /dev/sdb5

验证:

验证方法:

# mdadm –detail /dev/md0

删除该raid 设备, 完整的操作过程如下示例。 比较规范,系统无错误。

当然,不按规范删除也可以。反正你也不要设备上的所有数据了。

mdadm /dev/md0 –fail /dev/sdb5 –remove /dev/sdb5

mdadm /dev/md0 –fail /dev/sdb6 –remove /dev/sdb6

mdadm /dev/md0 –fail /dev/sdb7 –remove /dev/sdb7

mdadm /dev/md0 –fail /dev/sdb8 –remove /dev/sdb8

mdadm /dev/md0 –fail /dev/sdb9 –remove /dev/sdb9

mdadm –remove /dev/md0

mdadm –stop /dev/md0

mdadm –misc –zero-superblock /dev/sdb5

mdadm –misc –zero-superblock /dev/sdb6

mdadm –misc –zero-superblock /dev/sdb7

mdadm –misc –zero-superblock /dev/sdb8

mdadm –misc –zero-superblock /dev/sdb9

即: 先删除RAID中的所有设备,然后停止,删除该RAID即可

为了防止系统启动时候启动raid, 应检查,修改相应的配置。

linux 加载raid卡之后识别到硬盘了,系统能安装上去,启动时候起不起来,报如下错误:

无法识别卷,尝试重新创建分区

是否虚拟机?无物理raid卡?

不能将/boot安装到LVM上。

直接安装到raid的lvm卷上的结果,就是认不出系统,不能启动。

你要有一个普通的ide/sata硬盘,将/boot分区安装到上面,其他的可以放在raid盘上。

1.启动之后进入raid设置界面,按ctrl+I,进入制作raid;

2.开机进入系统,应该能够进入文本模式(text mode),用root登录;

3.进入/dev内,找到末尾isw的设备,格式化ext3;

4.将其挂载到相应文件夹。

以上操作可以么?

关于linux 挂载raid的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。


数据运维技术 » 如何在Linux系统中挂载RAID? (linux 挂载raid)