[EDU] ELSA # 2008.03.26
@ STORAGE
-DAS
RAID 제어, 근거리, 6M ~ 25M, Single, Differtical
클러스터, 공유, 직접연결
-NAS
Ethnet, 여러 시스템, 별도의 임베디드 리눅스(BSD 계열)
저렴한 비용, 대용량, 확장가능, Remote-Storage
-SAN
FC타입(광체널), SAN SWITCH, 2CORE 구성,
EMC-Storage, Remote-Storage
====================================================
@ LVM & RAID
- LVM (직렬처리)
PV (Phisical Volume) -> VG (Volum Group) -> LV (Logical Volume)
- LVM 구성
가상디스크 5개 추가.
1. VMWare에서 가상 드라이브 추가
2. 스냅샷 구성
3.LVM 레이블 만들기
$ fdisk /dev/sdc
Command (m for help) : t
Patition number (1-5): 1
Hex Code (type L to list codes): L
Hex Code (type L to List codes) 8e 'Linux LVM
Command : w
$ fdisk -l |more
3.PV 만들기
$ pvcreate /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1
$ vgcreate mDB /dev/sdb1 /dev/sdc1
$ vgdisplay
$ man lvcreate
$ lvcreate -c, -L, -n,
★ chunksize :: 4k ~ 512k
하드의 단위, LVM의 단위
$ lvcreate -n mDB0 -L 70M mDB
$ cd /dev
$ ls mapper
$ ls
$ cd ..
$ cd mDB
$ ls -al
$ mkfs.ext3 /dev/mapper/mDB-mDB0
$ mkdir /mdb
$ cd
$ mount /dev/mapper/mDB-mDB0 mdb
$ df -h
$ umount mdb
$ man vgchange
-> VG 상태변경
$ vgchange -a[y/n] 'VG 활성화, -l '최대사이즈, -x[y/n] '리사이즈
$ vgchange -a y mDB
$ vgdisplay -v mdb
$ man vgextend
-> PV 확장
$ fdisk -l
$ vgdisplay mDB
$ vgextend mDB /dev/sdd1
-> VG Extends
$ vgdisplay
$ pvremove
$ lvremove
$ vgremove
$ vgreduce
----------------------------------------------------------
-RAID (병렬처리)
데이터의 재해복구 시스템
하드웨어타입,소프트웨어타입
RAID 0 : 디스크 최소 2개 (stripe)
논리적IO 분산, 읽기 성능은 최고, 공간효율 100%
디스크중 FAIL -> 데이터 복구불가능, 데이터 RECOVERY 불가능
RAID 1 :
미러링 :: MASTER(input)/SLAVE(copy) -> Sync Copy
- 디스크이중화 Disk Duplexing -> Windows
공간효율 50%, 공간효율x, 2way mirror, 3way mirror, 4way mirrorre
OS Mirroring
RAID 2 X
RAID 3 X
RAID 4 X :
stripe with dedicate parity
RAID 5 :
stripe with distribute parity
디스크 3개이상, 읽기성능(I/O)높음, OS Mirror X, 공간효율적,
디스크가 2개 이상 연속해서 깨질 경우 복구불가능.
RAID 6 : 광 기반에서 사용,
stripe with dual parity, 디스크 4개 이상
RAID 1+0
장애시 성능이 0+1 보다 뛰어남
복구시간이 빠름
stripe
mirror mirror
master - slave | master - slave
RAID 0+1 :
MIRRORED-STRIPE, 디스크 4개이상.
복구시간이 떨어짐,
mirror
stripe - stripe | stripe | stripe
RAID 1+5:
mirror -> stripefs
★ HotSpare
깨졌을 경우, Auto-Sync, 일시적사용
★ HotSwap
동적 디바이스
★ RAID 생성
-> /etc/raidtab
----------------------
raid_구성.txt 참조
---------------------- @ STORAGE
-DAS
RAID 제어, 근거리, 6M ~ 25M, Single, Differtical
클러스터, 공유, 직접연결
-NAS
Ethnet, 여러 시스템, 별도의 임베디드 리눅스(BSD 계열)
저렴한 비용, 대용량, 확장가능, Remote-Storage
-SAN
FC타입(광체널), SAN SWITCH, 2CORE 구성,
EMC-Storage, Remote-Storage
====================================================
@ LVM & RAID
- LVM (직렬처리)
PV (Phisical Volume) -> VG (Volum Group) -> LV (Logical Volume)
- LVM 구성
가상디스크 5개 추가.
1. VMWare에서 가상 드라이브 추가
2. 스냅샷 구성
3.LVM 레이블 만들기
$ fdisk /dev/sdc
Command (m for help) : t
Patition number (1-5): 1
Hex Code (type L to list codes): L
Hex Code (type L to List codes) 8e 'Linux LVM
Command : w
$ fdisk -l |more
3.PV 만들기
$ pvcreate /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1
$ vgcreate mDB /dev/sdb1 /dev/sdc1
$ vgdisplay
$ man lvcreate
$ lvcreate -c, -L, -n,
★ chunksize :: 4k ~ 512k
하드의 단위, LVM의 단위
$ lvcreate -n mDB0 -L 70M mDB
$ cd /dev
$ ls mapper
$ ls
$ cd ..
$ cd mDB
$ ls -al
$ mkfs.ext3 /dev/mapper/mDB-mDB0
$ mkdir /mdb
$ cd
$ mount /dev/mapper/mDB-mDB0 mdb
$ df -h
$ umount mdb
$ man vgchange
-> VG 상태변경
$ vgchange -a[y/n] 'VG 활성화, -l '최대사이즈, -x[y/n] '리사이즈
$ vgchange -a y mDB
$ vgdisplay -v mdb
$ man vgextend
-> PV 확장
$ fdisk -l
$ vgdisplay mDB
$ vgextend mDB /dev/sdd1
-> VG Extends
$ vgdisplay
$ pvremove
$ lvremove
$ vgremove
$ vgreduce
----------------------------------------------------------
-RAID (병렬처리)
데이터의 재해복구 시스템
하드웨어타입,소프트웨어타입
RAID 0 : 디스크 최소 2개 (stripe)
논리적IO 분산, 읽기 성능은 최고, 공간효율 100%
디스크중 FAIL -> 데이터 복구불가능, 데이터 RECOVERY 불가능
RAID 1 :
미러링 :: MASTER(input)/SLAVE(copy) -> Sync Copy
- 디스크이중화 Disk Duplexing -> Windows
공간효율 50%, 공간효율x, 2way mirror, 3way mirror, 4way mirrorre
OS Mirroring
RAID 2 X
RAID 3 X
RAID 4 X :
stripe with dedicate parity
RAID 5 :
stripe with distribute parity
디스크 3개이상, 읽기성능(I/O)높음, OS Mirror X, 공간효율적,
디스크가 2개 이상 연속해서 깨질 경우 복구불가능.
RAID 6 : 광 기반에서 사용,
stripe with dual parity, 디스크 4개 이상
RAID 1+0
장애시 성능이 0+1 보다 뛰어남
복구시간이 빠름
stripe
mirror mirror
master - slave | master - slave
RAID 0+1 :
MIRRORED-STRIPE, 디스크 4개이상.
복구시간이 떨어짐,
mirror
stripe - stripe | stripe | stripe
RAID 1+5:
mirror -> stripefs
★ HotSpare
깨졌을 경우, Auto-Sync, 일시적사용
★ HotSwap
동적 디바이스
★ RAID 생성
-> /etc/raidtab
----------------------
raid_구성.txt 참조
----------------------
-DAS
RAID 제어, 근거리, 6M ~ 25M, Single, Differtical
클러스터, 공유, 직접연결
-NAS
Ethnet, 여러 시스템, 별도의 임베디드 리눅스(BSD 계열)
저렴한 비용, 대용량, 확장가능, Remote-Storage
-SAN
FC타입(광체널), SAN SWITCH, 2CORE 구성,
EMC-Storage, Remote-Storage
====================================================
@ LVM & RAID
- LVM (직렬처리)
PV (Phisical Volume) -> VG (Volum Group) -> LV (Logical Volume)
- LVM 구성
가상디스크 5개 추가.
1. VMWare에서 가상 드라이브 추가
2. 스냅샷 구성
3.LVM 레이블 만들기
$ fdisk /dev/sdc
Command (m for help) : t
Patition number (1-5): 1
Hex Code (type L to list codes): L
Hex Code (type L to List codes) 8e 'Linux LVM
Command : w
$ fdisk -l |more
3.PV 만들기
$ pvcreate /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1
$ vgcreate mDB /dev/sdb1 /dev/sdc1
$ vgdisplay
$ man lvcreate
$ lvcreate -c, -L, -n,
★ chunksize :: 4k ~ 512k
하드의 단위, LVM의 단위
$ lvcreate -n mDB0 -L 70M mDB
$ cd /dev
$ ls mapper
$ ls
$ cd ..
$ cd mDB
$ ls -al
$ mkfs.ext3 /dev/mapper/mDB-mDB0
$ mkdir /mdb
$ cd
$ mount /dev/mapper/mDB-mDB0 mdb
$ df -h
$ umount mdb
$ man vgchange
-> VG 상태변경
$ vgchange -a[y/n] 'VG 활성화, -l '최대사이즈, -x[y/n] '리사이즈
$ vgchange -a y mDB
$ vgdisplay -v mdb
$ man vgextend
-> PV 확장
$ fdisk -l
$ vgdisplay mDB
$ vgextend mDB /dev/sdd1
-> VG Extends
$ vgdisplay
$ pvremove
$ lvremove
$ vgremove
$ vgreduce
----------------------------------------------------------
-RAID (병렬처리)
데이터의 재해복구 시스템
하드웨어타입,소프트웨어타입
RAID 0 : 디스크 최소 2개 (stripe)
논리적IO 분산, 읽기 성능은 최고, 공간효율 100%
디스크중 FAIL -> 데이터 복구불가능, 데이터 RECOVERY 불가능
RAID 1 :
미러링 :: MASTER(input)/SLAVE(copy) -> Sync Copy
- 디스크이중화 Disk Duplexing -> Windows
공간효율 50%, 공간효율x, 2way mirror, 3way mirror, 4way mirrorre
OS Mirroring
RAID 2 X
RAID 3 X
RAID 4 X :
stripe with dedicate parity
RAID 5 :
stripe with distribute parity
디스크 3개이상, 읽기성능(I/O)높음, OS Mirror X, 공간효율적,
디스크가 2개 이상 연속해서 깨질 경우 복구불가능.
RAID 6 : 광 기반에서 사용,
stripe with dual parity, 디스크 4개 이상
RAID 1+0
장애시 성능이 0+1 보다 뛰어남
복구시간이 빠름
stripe
mirror mirror
master - slave | master - slave
RAID 0+1 :
MIRRORED-STRIPE, 디스크 4개이상.
복구시간이 떨어짐,
mirror
stripe - stripe | stripe | stripe
RAID 1+5:
mirror -> stripefs
★ HotSpare
깨졌을 경우, Auto-Sync, 일시적사용
★ HotSwap
동적 디바이스
★ RAID 생성
-> /etc/raidtab
----------------------
raid_구성.txt 참조
---------------------- @ STORAGE
-DAS
RAID 제어, 근거리, 6M ~ 25M, Single, Differtical
클러스터, 공유, 직접연결
-NAS
Ethnet, 여러 시스템, 별도의 임베디드 리눅스(BSD 계열)
저렴한 비용, 대용량, 확장가능, Remote-Storage
-SAN
FC타입(광체널), SAN SWITCH, 2CORE 구성,
EMC-Storage, Remote-Storage
====================================================
@ LVM & RAID
- LVM (직렬처리)
PV (Phisical Volume) -> VG (Volum Group) -> LV (Logical Volume)
- LVM 구성
가상디스크 5개 추가.
1. VMWare에서 가상 드라이브 추가
2. 스냅샷 구성
3.LVM 레이블 만들기
$ fdisk /dev/sdc
Command (m for help) : t
Patition number (1-5): 1
Hex Code (type L to list codes): L
Hex Code (type L to List codes) 8e 'Linux LVM
Command : w
$ fdisk -l |more
3.PV 만들기
$ pvcreate /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1
$ vgcreate mDB /dev/sdb1 /dev/sdc1
$ vgdisplay
$ man lvcreate
$ lvcreate -c, -L, -n,
★ chunksize :: 4k ~ 512k
하드의 단위, LVM의 단위
$ lvcreate -n mDB0 -L 70M mDB
$ cd /dev
$ ls mapper
$ ls
$ cd ..
$ cd mDB
$ ls -al
$ mkfs.ext3 /dev/mapper/mDB-mDB0
$ mkdir /mdb
$ cd
$ mount /dev/mapper/mDB-mDB0 mdb
$ df -h
$ umount mdb
$ man vgchange
-> VG 상태변경
$ vgchange -a[y/n] 'VG 활성화, -l '최대사이즈, -x[y/n] '리사이즈
$ vgchange -a y mDB
$ vgdisplay -v mdb
$ man vgextend
-> PV 확장
$ fdisk -l
$ vgdisplay mDB
$ vgextend mDB /dev/sdd1
-> VG Extends
$ vgdisplay
$ pvremove
$ lvremove
$ vgremove
$ vgreduce
----------------------------------------------------------
-RAID (병렬처리)
데이터의 재해복구 시스템
하드웨어타입,소프트웨어타입
RAID 0 : 디스크 최소 2개 (stripe)
논리적IO 분산, 읽기 성능은 최고, 공간효율 100%
디스크중 FAIL -> 데이터 복구불가능, 데이터 RECOVERY 불가능
RAID 1 :
미러링 :: MASTER(input)/SLAVE(copy) -> Sync Copy
- 디스크이중화 Disk Duplexing -> Windows
공간효율 50%, 공간효율x, 2way mirror, 3way mirror, 4way mirrorre
OS Mirroring
RAID 2 X
RAID 3 X
RAID 4 X :
stripe with dedicate parity
RAID 5 :
stripe with distribute parity
디스크 3개이상, 읽기성능(I/O)높음, OS Mirror X, 공간효율적,
디스크가 2개 이상 연속해서 깨질 경우 복구불가능.
RAID 6 : 광 기반에서 사용,
stripe with dual parity, 디스크 4개 이상
RAID 1+0
장애시 성능이 0+1 보다 뛰어남
복구시간이 빠름
stripe
mirror mirror
master - slave | master - slave
RAID 0+1 :
MIRRORED-STRIPE, 디스크 4개이상.
복구시간이 떨어짐,
mirror
stripe - stripe | stripe | stripe
RAID 1+5:
mirror -> stripefs
★ HotSpare
깨졌을 경우, Auto-Sync, 일시적사용
★ HotSwap
동적 디바이스
★ RAID 생성
-> /etc/raidtab
----------------------
raid_구성.txt 참조
----------------------
댓글