[EDU] ELSA # 2008.03.26

@ STORAGE

-DAS
RAID 제어, 근거리, 6M ~ 25M, Single, Differtical
클러스터, 공유, 직접연결

-NAS
Ethnet, 여러 시스템, 별도의 임베디드 리눅스(BSD 계열)
저렴한 비용, 대용량, 확장가능, Remote-Storage

-SAN
FC타입(광체널), SAN SWITCH, 2CORE 구성,
EMC-Storage, Remote-Storage

====================================================

@ LVM & RAID

- LVM (직렬처리)
PV (Phisical Volume) -> VG (Volum Group) -> LV (Logical Volume)


- LVM 구성
가상디스크 5개 추가.

1. VMWare에서 가상 드라이브 추가

2. 스냅샷 구성

3.LVM 레이블 만들기
$ fdisk /dev/sdc

Command (m for help) : t
Patition number (1-5): 1
Hex Code (type L to list codes): L
Hex Code (type L to List codes) 8e 'Linux LVM
Command : w

$ fdisk -l |more

3.PV 만들기
$ pvcreate /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1

$ vgcreate mDB /dev/sdb1 /dev/sdc1

$ vgdisplay

$ man lvcreate

$ lvcreate -c, -L, -n,

★ chunksize :: 4k ~ 512k
하드의 단위, LVM의 단위

$ lvcreate -n mDB0 -L 70M mDB

$ cd /dev

$ ls mapper

$ ls

$ cd ..

$ cd mDB

$ ls -al

$ mkfs.ext3 /dev/mapper/mDB-mDB0

$ mkdir /mdb

$ cd

$ mount /dev/mapper/mDB-mDB0 mdb

$ df -h

$ umount mdb

$ man vgchange
-> VG 상태변경

$ vgchange -a[y/n] 'VG 활성화, -l '최대사이즈, -x[y/n] '리사이즈

$ vgchange -a y mDB

$ vgdisplay -v mdb

$ man vgextend
-> PV 확장

$ fdisk -l

$ vgdisplay mDB

$ vgextend mDB /dev/sdd1
-> VG Extends

$ vgdisplay

$ pvremove

$ lvremove

$ vgremove

$ vgreduce

----------------------------------------------------------

-RAID (병렬처리)
데이터의 재해복구 시스템
하드웨어타입,소프트웨어타입

RAID 0 : 디스크 최소 2개 (stripe)
논리적IO 분산, 읽기 성능은 최고, 공간효율 100%
디스크중 FAIL -> 데이터 복구불가능, 데이터 RECOVERY 불가능

RAID 1 :
미러링 :: MASTER(input)/SLAVE(copy) -> Sync Copy
- 디스크이중화 Disk Duplexing -> Windows
공간효율 50%, 공간효율x, 2way mirror, 3way mirror, 4way mirrorre
OS Mirroring

RAID 2 X
RAID 3 X

RAID 4 X :
stripe with dedicate parity

RAID 5 :
stripe with distribute parity
디스크 3개이상, 읽기성능(I/O)높음, OS Mirror X, 공간효율적,
디스크가 2개 이상 연속해서 깨질 경우 복구불가능.

RAID 6 : 광 기반에서 사용,
stripe with dual parity, 디스크 4개 이상

RAID 1+0
장애시 성능이 0+1 보다 뛰어남
복구시간이 빠름

stripe
mirror mirror
master - slave | master - slave

RAID 0+1 :
MIRRORED-STRIPE, 디스크 4개이상.
복구시간이 떨어짐,

mirror
stripe - stripe | stripe | stripe

RAID 1+5:
mirror -> stripefs

★ HotSpare
깨졌을 경우, Auto-Sync, 일시적사용

★ HotSwap
동적 디바이스

★ RAID 생성
-> /etc/raidtab

----------------------
raid_구성.txt 참조
---------------------- @ STORAGE



-DAS

RAID 제어, 근거리, 6M ~ 25M, Single, Differtical

클러스터, 공유, 직접연결



-NAS

Ethnet, 여러 시스템, 별도의 임베디드 리눅스(BSD 계열)

저렴한 비용, 대용량, 확장가능, Remote-Storage



-SAN

FC타입(광체널), SAN SWITCH, 2CORE 구성,

EMC-Storage, Remote-Storage



====================================================



@ LVM & RAID



- LVM (직렬처리)

PV (Phisical Volume) -> VG (Volum Group) -> LV (Logical Volume)





- LVM 구성

가상디스크 5개 추가.



1. VMWare에서 가상 드라이브 추가



2. 스냅샷 구성



3.LVM 레이블 만들기

$ fdisk /dev/sdc



Command (m for help) : t

Patition number (1-5): 1

Hex Code (type L to list codes): L

Hex Code (type L to List codes) 8e 'Linux LVM

Command : w



$ fdisk -l |more



3.PV 만들기

$ pvcreate /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1



$ vgcreate mDB /dev/sdb1 /dev/sdc1



$ vgdisplay



$ man lvcreate



$ lvcreate -c, -L, -n,



★ chunksize :: 4k ~ 512k

하드의 단위, LVM의 단위



$ lvcreate -n mDB0 -L 70M mDB



$ cd /dev



$ ls mapper



$ ls



$ cd ..



$ cd mDB



$ ls -al



$ mkfs.ext3 /dev/mapper/mDB-mDB0



$ mkdir /mdb



$ cd



$ mount /dev/mapper/mDB-mDB0 mdb



$ df -h



$ umount mdb



$ man vgchange

-> VG 상태변경



$ vgchange -a[y/n] 'VG 활성화, -l '최대사이즈, -x[y/n] '리사이즈



$ vgchange -a y mDB



$ vgdisplay -v mdb



$ man vgextend

-> PV 확장



$ fdisk -l



$ vgdisplay mDB



$ vgextend mDB /dev/sdd1

-> VG Extends



$ vgdisplay



$ pvremove



$ lvremove



$ vgremove



$ vgreduce



----------------------------------------------------------



-RAID (병렬처리)

데이터의 재해복구 시스템

하드웨어타입,소프트웨어타입



RAID 0 : 디스크 최소 2개 (stripe)

논리적IO 분산, 읽기 성능은 최고, 공간효율 100%

디스크중 FAIL -> 데이터 복구불가능, 데이터 RECOVERY 불가능



RAID 1 :

미러링 :: MASTER(input)/SLAVE(copy) -> Sync Copy

- 디스크이중화 Disk Duplexing -> Windows

공간효율 50%, 공간효율x, 2way mirror, 3way mirror, 4way mirrorre

OS Mirroring



RAID 2 X

RAID 3 X



RAID 4 X :

stripe with dedicate parity



RAID 5 :

stripe with distribute parity

디스크 3개이상, 읽기성능(I/O)높음, OS Mirror X, 공간효율적,

디스크가 2개 이상 연속해서 깨질 경우 복구불가능.



RAID 6 : 광 기반에서 사용,

stripe with dual parity, 디스크 4개 이상



RAID 1+0

장애시 성능이 0+1 보다 뛰어남

복구시간이 빠름



stripe

mirror mirror

master - slave | master - slave



RAID 0+1 :

MIRRORED-STRIPE, 디스크 4개이상.

복구시간이 떨어짐,



mirror

stripe - stripe | stripe | stripe



RAID 1+5:

mirror -> stripefs



★ HotSpare

깨졌을 경우, Auto-Sync, 일시적사용



★ HotSwap

동적 디바이스



★ RAID 생성

-> /etc/raidtab



----------------------

raid_구성.txt 참조

----------------------

댓글

이 블로그의 인기 게시물

[LINUX] CentOS 부팅시 오류 : UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY

[MSSQL] 데이터베이스가 사용 중이어서 배타적으로 액서스할 수 없습니다

구글코랩) 안전Dream 실종아동 등 검색 오픈API 소스를 공유합니다. (구글드라이브연동, 이미지 수집 소스)