'tip/tip. HP-UX'에 해당되는 글 7건

  1. 2014.06.23 Positional Parameters
  2. 2013.11.19 여러개의 depot 일괄 설치 방법
  3. 2013.10.18 Disk 구성 확인
  4. 2013.08.13 HP_UX Admin II
  5. 2013.04.16 [HP-UX] LVM
  6. 2013.04.16 [HP-UX] HP-UX 기동 순서
  7. 2013.04.16 [HP-UX] HP-UX admin tip#1 천천히 정리하자
tip/tip. HP-UX2014. 6. 23. 11:43

$$ : 스크립트 자신의 PID

$? : 스크립트 자신의 종료 상태 (혹은 이전 명령의 종료상태)

$_ : 이전에 실행된 명령어의 제일 마지막 인자값

$! : 백그라운드로 돌고 있는 가장 최근 PID

$- : 스크립트로 넘겨진 프래그들


$IFS : 구분자

$0 , $1, $2 ....  인자값($0는 script name 자체)

$# : 인자값 count

$* : $1,$2~~ 등등 한방에

$@ : $*와 비슷하지만 $IFS로 구분된 녀석들을 개별 Quate된 문자로 취급????????????

'tip > tip. HP-UX' 카테고리의 다른 글

여러개의 depot 일괄 설치 방법  (0) 2013.11.19
Disk 구성 확인  (0) 2013.10.18
HP_UX Admin II  (0) 2013.08.13
[HP-UX] LVM  (0) 2013.04.16
[HP-UX] HP-UX 기동 순서  (0) 2013.04.16
Posted by wooix
tip/tip. HP-UX2013. 11. 19. 15:31

depot 파일이 여러개일 경우 하나씩 설치해야되는 번거로움이 생기므로 아래와 같이 작업을 한다.


※ depot 자체를 설치할때 dependency가 적용되지는 않기 때문에 순서는 큰상관이 없다.


1. 여러개의 depot 파일을 하나의 디렉토리에 풀기

2. 설치 끝!


------ 상세 설명 ----



1.  먼저 depot파일을 풀자


- swcopy -x enforce_dependencies=false -s ${PWD}/xxxx.depot @ /targetdir

   목적지에 depot파일을 풀어 버리면 해당 이름의 디렉토리가 생성된다.

- SD copy창이 뜨면 -> Actions -> Copy를 이용


2. 디렉토리 통채로 설치


- 풀어놓은 디렉토리를 하나의 depot로 만들수도 있지만 그건 각자의 몫으로 남기고~ (귀찮다.)

- swinstall -s ${PWD}/targetdir

   하게 되면 일반 설치와 동일한 화면이 뜨게된다.

   전체 선택하고 설치를 하면 작업 끝.



※ swXXXXXX 관련 녀석들은 전체 경로를 넣어야 함을 주의하자

※ 여러서버에 적용해야될 필요있는것만 이렇게 하자 압축 푸는데도 시간 많이 걸리니까.

'tip > tip. HP-UX' 카테고리의 다른 글

Positional Parameters  (0) 2014.06.23
Disk 구성 확인  (0) 2013.10.18
HP_UX Admin II  (0) 2013.08.13
[HP-UX] LVM  (0) 2013.04.16
[HP-UX] HP-UX 기동 순서  (0) 2013.04.16
Posted by wooix
tip/tip. HP-UX2013. 10. 18. 18:56

서버한대를 이용해서 디스크 구성을 확인해 보자


1. bdf


Filesystem                   Gbytes    used      avail     %used  Mounted 
/dev/vg00/lvol3              48        24        24        50%    /       
/dev/vg00/lvol1              1         0         1         34%    /stand  
/dev/vg00/lvol4              9         6         3         62%    /tmp    
/dev/vg01/lvol3              9         4         4         52%    /oracle 
/dev/vx/dsk/tswasvg03/lvol1  58        13        42        24%    /data   
/dev/vx/dsk/tswasvg02/lvol2  29        3         24        12%    /applog 
/dev/vx/dsk/tswasvg02/lvol1  29        13        14        48%    /app    
/dev/vx/dsk/tswasvg01/lvol3  58        24        31        44%    /outlog 
/dev/vx/dsk/tswasvg01/lvol2  39        29        9         76%    /prod   
/dev/vx/dsk/tswasvg01/lvol1  4         2         2         49%    /home  


위에서 확인 가능한것은 vg00/vg01 의 lvm과

tswasvg01/02/03의 vx lvm이다.


2. volume group


먼저 vg00/01에 대해 살펴보자


sysopr@tswas:/home/sysopr/bin]vgdisplay
--- 볼륨 그룹 ---
VG 이름                     /dev/vg00
VG 쓰기 액세스              읽기/쓰기    
VG 상태                     사용 가능                
최대 LV                     255   
현재 LV                     4     
열린 LV                     4     
최대 PV                     16    
현재 PV                     2     
활성 PV                     2     
PV당 최대 PE                4356        
VGDA                        4  
PE 크기(MB)                 32        
총 PE                       8694   
할당된 PE                   5878    
사용 가능한 PE              2816         
총 PVG                      0    
총 예비 PV                  0        
사용 중인 총 예비 PV        0                  
VG 버전                     1.0     
VG 최대 크기                2178g      
VG 최대 확장 영역 수        69696              

VG 이름                     /dev/vg01
VG 쓰기 액세스              읽기/쓰기    
VG 상태                     사용 가능                
최대 LV                     255   
현재 LV                     3     
열린 LV                     3     
최대 PV                     16    
현재 PV                     2     
활성 PV                     2     
PV당 최대 PE                4375        
VGDA                        4  
PE 크기(MB)                 32        
총 PE                       8750   
할당된 PE                   4502    
사용 가능한 PE              4248         
총 PVG                      0    
총 예비 PV                  0        
사용 중인 총 예비 PV        0                  
VG 버전                     1.0     
VG 최대 크기                2240000m   
VG 최대 확장 영역 수        70000  


sysopr@tswas:/home/sysopr/bin]vgdisplay -v /dev/vg00
--- 볼륨 그룹 ---
VG 이름                     /dev/vg00
VG 쓰기 액세스              읽기/쓰기    
VG 상태                     사용 가능                
최대 LV                     255   
현재 LV                     4     
열린 LV                     4     
최대 PV                     16    
현재 PV                     2     
활성 PV                     2     
PV당 최대 PE                4356        
VGDA                        4  
PE 크기(MB)                 32        
총 PE                       8694   
할당된 PE                   5878    
사용 가능한 PE              2816         
총 PVG                      0    
총 예비 PV                  0        
사용 중인 총 예비 PV        0                  
VG 버전                     1.0     
VG 최대 크기                2178g      
VG 최대 확장 영역 수        69696              

   --- 논리 볼륨 ---
   LV 이름                     /dev/vg00/lvol1
   LV 상태                     사용 가능/동기화됨       
   LV 크기(MB)                 2016      
   현재 LE                     63     
   할당된 PE                   126     
   사용된 PV                   2       

   LV 이름                     /dev/vg00/lvol2
   LV 상태                     사용 가능/동기화됨       
   LV 크기(MB)                 32000     
   현재 LE                     1000   
   할당된 PE                   2000    
   사용된 PV                   2       

   LV 이름                     /dev/vg00/lvol3
   LV 상태                     사용 가능/동기화됨       
   LV 크기(MB)                 50016     
   현재 LE                     1563   
   할당된 PE                   3126    
   사용된 PV                   2       

   LV 이름                     /dev/vg00/lvol4
   LV 상태                     사용 가능/동기화됨       
   LV 크기(MB)                 10016     
   현재 LE                     313    
   할당된 PE                   626     
   사용된 PV                   2       


   --- 물리 볼륨 ---
   PV 이름                     /dev/disk/disk9_p2
   PV 상태                     사용 가능               
   총 PE                       4347   
   사용 가능한 PE              1408         
   자동 전환                   켜짐    
   능동적 폴링                 설정      

   PV 이름                     /dev/disk/disk31_p2
   PV 상태                     사용 가능               
   총 PE                       4347   
   사용 가능한 PE              1408         
   자동 전환                   켜짐    
   능동적 폴링                 설정


sysopr@tswas:/home/sysopr/bin]vgdisplay -v /dev/vg01
--- 볼륨 그룹 ---
VG 이름                     /dev/vg01
VG 쓰기 액세스              읽기/쓰기    
VG 상태                     사용 가능                
최대 LV                     255   
현재 LV                     3     
열린 LV                     3     
최대 PV                     16    
현재 PV                     2     
활성 PV                     2     
PV당 최대 PE                4375        
VGDA                        4  
PE 크기(MB)                 32        
총 PE                       8750   
할당된 PE                   4502    
사용 가능한 PE              4248         
총 PVG                      0    
총 예비 PV                  0        
사용 중인 총 예비 PV        0                  
VG 버전                     1.0     
VG 최대 크기                2240000m   
VG 최대 확장 영역 수        70000              

   --- 논리 볼륨 ---
   LV 이름                     /dev/vg01/swapvol
   LV 상태                     사용 가능/동기화됨       
   LV 크기(MB)                 32000     
   현재 LE                     1000   
   할당된 PE                   2000    
   사용된 PV                   2       

   LV 이름                     /dev/vg01/dumpvol
   LV 상태                     사용 가능/동기화됨       
   LV 크기(MB)                 30016     
   현재 LE                     938    
   할당된 PE                   1876    
   사용된 PV                   2       

   LV 이름                     /dev/vg01/lvol3
   LV 상태                     사용 가능/동기화됨       
   LV 크기(MB)                 10016     
   현재 LE                     313    
   할당된 PE                   626     
   사용된 PV                   2       


   --- 물리 볼륨 ---
   PV 이름                     /dev/disk/disk10
   PV 상태                     사용 가능               
   총 PE                       4375   
   사용 가능한 PE              2124         
   자동 전환                   켜짐    
   능동적 폴링                 설정      

   PV 이름                     /dev/disk/disk15
   PV 상태                     사용 가능               
   총 PE                       4375   
   사용 가능한 PE              2124         
   자동 전환                   켜짐    
   능동적 폴링                 설정


먼저 주목해야될 부분은 PE크기 로서 32MB이다.
vg00의 PE개수는 8694 크기는 8694*32MB = 271GB이다.
vg01은 8750*32MB = 273GB

PV는 각각 disk9_p2/disk31_p2 와 disk10/disk15로 구성되어져있다.

vg00은 lvol01/02/03/04로 나뉘었고
vg01은 swapvol/dumpvol/lvol3으로 구성되어져 있다.

그러면 남아있는 disk들에 대해서 보도록 하자

sysopr@tswas:/home/sysopr/bin]ioscan -m lun
Class     I  Lun H/W Path  Driver  S/W State   H/W Type     Health  Description
======================================================================
disk     25  64000/0xfa00/0x3    esdisk  CLAIMED     DEVICE       online  Optiarc DVD RW AD-5200A  
             1/0/0/2/1.0x2.0x0
                      /dev/disk/disk25   /dev/rdisk/disk25
ctl       8  64000/0xfa00/0x7    esctl   CLAIMED     DEVICE       online  HP      MSA60            
             1/0/12/0/0/0/0.0x5001438005a8d525.0x0
                      /dev/pt/pt8
ctl      10  64000/0xfa00/0xa    esctl   CLAIMED     DEVICE       online  HP      MSA60            
             1/0/14/0/0/0/0.0x5001438005a8d565.0x0
                      /dev/pt/pt10
disk      9  64000/0xfa00/0x1b   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500138ce01a.0x0
             1/0/12/0/0/0/0.0x5000c500138ce019.0x0
                      /dev/disk/disk9      /dev/disk/disk9_p2   /dev/rdisk/disk9     /dev/rdisk/disk9_p2
                      /dev/disk/disk9_p1   /dev/disk/disk9_p3   /dev/rdisk/disk9_p1  /dev/rdisk/disk9_p3
disk     10  64000/0xfa00/0x1d   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500138c1282.0x0
             1/0/12/0/0/0/0.0x5000c500138c1281.0x0
                      /dev/disk/disk10   /dev/rdisk/disk10
disk     15  64000/0xfa00/0x1e   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500138c1976.0x0
             1/0/12/0/0/0/0.0x5000c500138c1975.0x0
                      /dev/disk/disk15   /dev/rdisk/disk15
tape      3  64000/0xfa00/0x27   estape  CLAIMED     DEVICE       online  HP      DAT160           
             1/0/0/3/1.0x1.0x0
                      /dev/rtape/tape3_BEST    /dev/rtape/tape3_BESTb   /dev/rtape/tape3_BESTn   /dev/rtape/tape3_BESTnb
disk     29  64000/0xfa00/0x2b   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500138c1496.0x0
             1/0/12/0/0/0/0.0x5000c500138c1495.0x0
                      /dev/disk/disk29      /dev/disk/disk29_p2   /dev/rdisk/disk29     /dev/rdisk/disk29_p2
                      /dev/disk/disk29_p1   /dev/disk/disk29_p3   /dev/rdisk/disk29_p1  /dev/rdisk/disk29_p3
disk     31  64000/0xfa00/0x34   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500170d0b2e.0x0
             1/0/12/0/0/0/0.0x5000c500170d0b2d.0x0
                      /dev/disk/disk31      /dev/disk/disk31_p2   /dev/rdisk/disk31     /dev/rdisk/disk31_p2
                      /dev/disk/disk31_p1   /dev/disk/disk31_p3   /dev/rdisk/disk31_p1  /dev/rdisk/disk31_p3
ctl      14  64000/0xfa00/0x3c   esctl   CLAIMED     DEVICE       online  DGC     CX700            
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x0
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x0
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x0
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x0
                      /dev/pt/pt14
disk     61  64000/0xfa00/0x3d   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4000000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4000000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4000000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4000000000000000
                      /dev/disk/disk61   /dev/rdisk/disk61
disk     62  64000/0xfa00/0x3e   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4002000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4002000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4002000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4002000000000000
                      /dev/disk/disk62   /dev/rdisk/disk62
disk     63  64000/0xfa00/0x3f   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4004000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4004000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4004000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4004000000000000
                      /dev/disk/disk63   /dev/rdisk/disk63
disk     64  64000/0xfa00/0x40   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10      
 
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4006000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4006000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4006000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4006000000000000
                      /dev/disk/disk64   /dev/rdisk/disk64
disk     65  64000/0xfa00/0x41   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4001000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4001000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4001000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4001000000000000
                      /dev/disk/disk65   /dev/rdisk/disk65
disk     66  64000/0xfa00/0x42   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4003000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4003000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4003000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4003000000000000
                      /dev/disk/disk66   /dev/rdisk/disk66
disk     67  64000/0xfa00/0x43   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4005000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4005000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4005000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4005000000000000
                      /dev/disk/disk67   /dev/rdisk/disk67
disk     68  64000/0xfa00/0x44   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4007000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4007000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4007000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4007000000000000
                      /dev/disk/disk68   /dev/rdisk/disk68


위에서 이미 봤었던

disk9_p2/disk31_p2/disk10/disk15 를 제외하고 하나씩 뜯어 보자

 MSA60  DF0146B8052 CX700  CX700WDR10   DAT160   DVD RW AD-5200A 등이 있다.

먼저 MSA60은 해당 장치의 앞으로 보면

ctl       8  64000/0xfa00/0x7    esctl
ctl      10  64000/0xfa00/0xa    esctl  

이와 같다. 이는 controller로서

1/0/12/0/0/0/0.0x5001438005a8d525.0x0
1/0/14/0/0/0/0.0x5001438005a8d565.0x0

해당장치의 Hardware Path를 눈여겨 봐야한다.

disk      9  64000/0xfa00/0x1b   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500138ce01a.0x0
             1/0/12/0/0/0/0.0x5000c500138ce019.0x0
                      /dev/disk/disk9      /dev/disk/disk9_p2   /dev/rdisk/disk9     /dev/rdisk/disk9_p2
                      /dev/disk/disk9_p1   /dev/disk/disk9_p3   /dev/rdisk/disk9_p1  /dev/rdisk/disk9_p3
disk     10  64000/0xfa00/0x1d   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500138c1282.0x0
             1/0/12/0/0/0/0.0x5000c500138c1281.0x0
                      /dev/disk/disk10   /dev/rdisk/disk10
disk     15  64000/0xfa00/0x1e   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500138c1976.0x0
             1/0/12/0/0/0/0.0x5000c500138c1975.0x0
                      /dev/disk/disk15   /dev/rdisk/disk15
disk     29  64000/0xfa00/0x2b   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500138c1496.0x0
             1/0/12/0/0/0/0.0x5000c500138c1495.0x0
                      /dev/disk/disk29      /dev/disk/disk29_p2   /dev/rdisk/disk29     /dev/rdisk/disk29_p2
                      /dev/disk/disk29_p1   /dev/disk/disk29_p3   /dev/rdisk/disk29_p1  /dev/rdisk/disk29_p3
disk     31  64000/0xfa00/0x34   esdisk  CLAIMED     DEVICE       online  HP      DF0146B8052      
             1/0/14/0/0/0/0.0x5000c500170d0b2e.0x0
             1/0/12/0/0/0/0.0x5000c500170d0b2d.0x0
                      /dev/disk/disk31      /dev/disk/disk31_p2   /dev/rdisk/disk31     /dev/rdisk/disk31_p2
                      /dev/disk/disk31_p1   /dev/disk/disk31_p3   /dev/rdisk/disk31_p1  /dev/rdisk/disk31_p3


DF0146B8052라는 Description을 가진녀석들은 MSA60장비의 hwpath를 따라 간다는 것을 알수 있다.
즉 msa60이라는 diskarray에 꼽혀있는 disk들이라는 이야기 이다.

msa60에 꼽혀있는 각각의 디스크들은 ctl 8과 ctl 10을 지나는 2중 hwpath를 가지고 있다는 것이다.

msa60을 제외하면

disk     25  64000/0xfa00/0x3    esdisk  CLAIMED     DEVICE       online  Optiarc DVD RW AD-5200A  
             1/0/0/2/1.0x2.0x0
                      /dev/disk/disk25   /dev/rdisk/disk25
tape      3  64000/0xfa00/0x27   estape  CLAIMED     DEVICE       online  HP      DAT160           
             1/0/0/3/1.0x1.0x0
                      /dev/rtape/tape3_BEST    /dev/rtape/tape3_BESTb   /dev/rtape/tape3_BESTn   /dev/rtape/tape3_BESTnb

그리고 CX700이라는 EMC 스토리지가 보인다. 위의 둘은 크게 중요한게 아니므로 넘어가도록 하고

CX700의 경우 아래와 같이 컨트롤러와 8개의 disk로 구성이 된다.

ctl      14  64000/0xfa00/0x3c   esctl   CLAIMED     DEVICE       online  DGC     CX700            
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x0
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x0
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x0
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x0
                      /dev/pt/pt14
disk     61  64000/0xfa00/0x3d   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4000000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4000000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4000000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4000000000000000
                      /dev/disk/disk61   /dev/rdisk/disk61
disk     62  64000/0xfa00/0x3e   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4002000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4002000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4002000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4002000000000000
                      /dev/disk/disk62   /dev/rdisk/disk62
disk     63  64000/0xfa00/0x3f   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4004000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4004000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4004000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4004000000000000
                      /dev/disk/disk63   /dev/rdisk/disk63
disk     64  64000/0xfa00/0x40   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10      
 
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4006000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4006000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4006000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4006000000000000
                      /dev/disk/disk64   /dev/rdisk/disk64
disk     65  64000/0xfa00/0x41   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4001000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4001000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4001000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4001000000000000
                      /dev/disk/disk65   /dev/rdisk/disk65
disk     66  64000/0xfa00/0x42   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4003000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4003000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4003000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4003000000000000
                      /dev/disk/disk66   /dev/rdisk/disk66
disk     67  64000/0xfa00/0x43   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4005000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4005000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4005000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4005000000000000
                      /dev/disk/disk67   /dev/rdisk/disk67
disk     68  64000/0xfa00/0x44   esdisk  CLAIMED     DEVICE       online  DGC     CX700WDR10       
             1/0/4/0/0/0/0/4/0/0/0.0x5006016130603067.0x4007000000000000
             1/0/4/0/0/0/0/4/0/0/0.0x5006016930603067.0x4007000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016330603067.0x4007000000000000
             1/0/6/0/0/0/0/4/0/0/0.0x5006016b30603067.0x4007000000000000
                      /dev/disk/disk68   /dev/rdisk/disk68


여기서 눈여겨 볼 부분은 ctl 14의 경우 4개의 hwpath를 가지는데 실제 서버와 장비 사이에 2개의 SAN switch가 존재하기 때문에
cross 연결되어서 2by2 4개로 보여지게 된다.

tswas:/]vxdg list
NAME         STATE           ID
tswasvg01    enabled,cds          1299921431.60.tswas
tswasvg02    enabled,cds          1299921433.62.tswas
tswasvg03    enabled,cds          1299921434.64.tswas

를 통해 cx700에 3개의 vg가 존재하는 것을 확인 할수 있고

tswas:/]vxdisk list
DEVICE       TYPE            DISK         GROUP        STATUS
c10t0d1      auto:cdsdisk    c10t0d1      tswasvg01    online
c10t0d3      auto:cdsdisk    c10t0d3      tswasvg01    online
c10t0d5      auto:cdsdisk    c10t0d5      tswasvg01    online
c10t0d7      auto:cdsdisk    c10t0d7      tswasvg01    online

-----------------------------------------------------------------
c12t0d0      auto:cdsdisk    c12t0d0      tswasvg02    online
c12t0d2      auto:cdsdisk    c12t0d2      tswasvg02    online

-----------------------------------------------------------------
c12t0d4      auto:cdsdisk    c12t0d4      tswasvg03    online
c12t0d6      auto:cdsdisk    c12t0d6      tswasvg03    online

c15t2d0s2    auto:LVM        -            -            LVM
c15t3d0      auto:LVM        -            -            LVM
c15t4d0      auto:LVM        -            -            LVM
c15t5d0s2    auto:LVM        -            -            LVM
c15t6d0s2    auto:LVM        -            -            LVM

를 이용하면 실제 어떤 디스크장비가 vg에 포함되었는지 확인 가능하며

tswas:/]vxprint -v 
Disk group: tswasvg01

TY NAME         ASSOC        KSTATE   LENGTH   PLOFFS   STATE    TUTIL0  PUTIL0
v  lvol1        fsgen        ENABLED  5120000  -        ACTIVE   -       -
v  lvol2        fsgen        ENABLED  40960000 -        ACTIVE   -       -
v  lvol3        fsgen        ENABLED  61440000 -        ACTIVE   -       -

Disk group: tswasvg02

TY NAME         ASSOC        KSTATE   LENGTH   PLOFFS   STATE    TUTIL0  PUTIL0
v  lvol1        fsgen        ENABLED  30720000 -        ACTIVE   -       -
v  lvol2        fsgen        ENABLED  30720000 -        ACTIVE   -       -

Disk group: tswasvg03

TY NAME         ASSOC        KSTATE   LENGTH   PLOFFS   STATE    TUTIL0  PUTIL0
v  lvol1        fsgen        ENABLED  61440000 -        ACTIVE   -       -

를 통해 각 vg의 lvol을 확인 할 수 있다.

더욱 세부적인 내용은

tswas:/]vxprint   
Disk group: tswasvg01

TY NAME         ASSOC        KSTATE   LENGTH   PLOFFS   STATE    TUTIL0  PUTIL0
dg tswasvg01    tswasvg01    -        -        -        -        -       -

dm c10t0d1      c10t0d1      -        41907584 -        -        -       -
dm c10t0d3      c10t0d3      -        41907584 -        -        -       -
dm c10t0d5      c10t0d5      -        41907584 -        -        -       -
dm c10t0d7      c10t0d7      -        41907584 -        -        -       -

v  lvol1        fsgen        ENABLED  5120000  -        ACTIVE   -       -
pl lvol1-01     lvol1        ENABLED  5120000  -        ACTIVE   -       -
sd c10t0d1-01   lvol1-01     ENABLED  1280000  0        -        -       -
sd c10t0d3-01   lvol1-01     ENABLED  1280000  0        -        -       -
sd c10t0d5-01   lvol1-01     ENABLED  1280000  0        -        -       -
sd c10t0d7-01   lvol1-01     ENABLED  1280000  0        -        -       -

v  lvol2        fsgen        ENABLED  40960000 -        ACTIVE   -       -
pl lvol2-01     lvol2        ENABLED  40960000 -        ACTIVE   -       -
sd c10t0d1-02   lvol2-01     ENABLED  10240000 0        -        -       -
sd c10t0d3-02   lvol2-01     ENABLED  10240000 0        -        -       -
sd c10t0d5-02   lvol2-01     ENABLED  10240000 0        -        -       -
sd c10t0d7-02   lvol2-01     ENABLED  10240000 0        -        -       -

v  lvol3        fsgen        ENABLED  61440000 -        ACTIVE   -       -
pl lvol3-01     lvol3        ENABLED  61440000 -        ACTIVE   -       -
sd c10t0d1-03   lvol3-01     ENABLED  15360000 0        -        -       -
sd c10t0d3-03   lvol3-01     ENABLED  15360000 0        -        -       -
sd c10t0d5-03   lvol3-01     ENABLED  15360000 0        -        -       -
sd c10t0d7-03   lvol3-01     ENABLED  15360000 0        -        -       -

Disk group: tswasvg02

TY NAME         ASSOC        KSTATE   LENGTH   PLOFFS   STATE    TUTIL0  PUTIL0
dg tswasvg02    tswasvg02    -        -        -        -        -       -

dm c12t0d0      c12t0d0      -        41907584 -        -        -       -
dm c12t0d2      c12t0d2      -        41907584 -        -        -       -

v  lvol1        fsgen        ENABLED  30720000 -        ACTIVE   -       -
pl lvol1-01     lvol1        ENABLED  30720000 -        ACTIVE   -       -
sd c12t0d0-01   lvol1-01     ENABLED  15360000 0        -        -       -
sd c12t0d2-01   lvol1-01     ENABLED  15360000 0        -        -       -




v  lvol2        fsgen        ENABLED  30720000 -        ACTIVE   -       -
pl lvol2-01     lvol2        ENABLED  30720000 -        ACTIVE   -       -
sd c12t0d0-02   lvol2-01     ENABLED  15360000 0        -        -       -
sd c12t0d2-02   lvol2-01     ENABLED  15360000 0        -        -       -

Disk group: tswasvg03

TY NAME         ASSOC        KSTATE   LENGTH   PLOFFS   STATE    TUTIL0  PUTIL0
dg tswasvg03    tswasvg03    -        -        -        -        -       -

dm c12t0d4      c12t0d4      -        41907584 -        -        -       -
dm c12t0d6      c12t0d6      -        41907584 -        -        -       -

v  lvol1        fsgen        ENABLED  61440000 -        ACTIVE   -       -
pl lvol1-01     lvol1        ENABLED  61440000 -        ACTIVE   -       -
sd c12t0d4-01   lvol1-01     ENABLED  30720000 0        -        -       -
sd c12t0d6-01   lvol1-01     ENABLED  30720000 0        -        -       -

를 이용하면 더욱 세부적인 내용을 확인 가능하다 이를 도식화하면 다음과 같다.





tswas 디스크 분석.pptx



'tip > tip. HP-UX' 카테고리의 다른 글

Positional Parameters  (0) 2014.06.23
여러개의 depot 일괄 설치 방법  (0) 2013.11.19
HP_UX Admin II  (0) 2013.08.13
[HP-UX] LVM  (0) 2013.04.16
[HP-UX] HP-UX 기동 순서  (0) 2013.04.16
Posted by wooix
tip/tip. HP-UX2013. 8. 13. 11:54


layer

 command

7

# nsquery

 -> nsquery hosts host-name     <--- 이놈은 /etc/hosts 에 등록된 녀석이 있는지 확인하는 용도임

# nslookup 거의 동일.....

6


 5

 

 4

 

 3

ip확인 명령어

# ifconfig net-interface : ..

# netstat -in


# ifconfig lan0 128.1.1.1 netmask 255.255.0.0 up ( lan0의 ip setting 후 device up )

# ifconfig lan0 unplumb ( 설정 초기화 )

# ifconfig lan0 up/down ( down후 netstat -in해보면 lan0* 로 표시됨 )


routing table 관련

# route add host 129.1.1.1 128.1.0.1 1

                      dest          next      hop count


 2

# lanadmin : (없어질 예정 -> nwmgr이 대체)

 -> lanadmin -x # : 특정#의 lan card의 속도와 옵션

 -> lanadmin -X 1000FD # : #번째 lan card의 속도를 FullDuplex 1000Mb로 변경

 -> lanadmin -g 0 : 특정 lan 카드의 상태 확인 ( 이때 admini~ status/operation status 를 확인 하면 lan케이블 연결 유무까지 확인가능하다.)

# linkloop : (물리적인 연결상태 확인에 사용)

 -> linkloop -i 0 0x1212354589 (특정 mac과 물리적으로 통신가능한지 확인 --> 즉 물리적으로 연결 확인 하여 상대 컴퓨터가 전원이 들어온 상태로 연결이 되어있는가 까지 확인 가능 ip가 잘못되었다거나 하는건 상위 계층이므로 이 단계는 물리적 연결까지만!!!! 확인)  ----> nwmgr은 cable연결 유무까지 check 가능!!!!!(이래서 대체되는거임)

# lanscan : mac정보 , lan 정보 , H/W path (없어질 예정 -> nwmgr이 대체)

 --> Interface state : lan card만 정상이면 UP임

# nwmgr : lan정보 , mac, status 등 기본정보

 --> Interface state : lan에서 switch까지 연결까지 모든것이 정상이여야 UP이 됨.

# ioscan -fkC lan (f : full listing , k : show kernel structure(스캔안하고 등록된 값 출력) , C : class )

# arp -a ( memory상의 ip/MAC 정보 조회 cleanup interval은 ndd -h arp_cleanup_interval참조)

# ndd -get /dev/arp arp_cleanup_interval

# ndd -set /dev/arp arp_cleanup_interval 600000 (ms단위 , 단 메모리에만 적용 영구적으로 유지를 원하면! -> nddconf참조)

 1

 



   hostname/ip/dhcp 등 setting!


*


 

 /etc

 

 /etc/rc.config.d

* netconf 

   booting 시 network관련 저장된 정보를 load하도록 하는 파일


* nddconf

   ndd 명령어의 영구 유지를 위한 setting 파일

/sbin/init.d

* net start/stop ( netconf, nddconf 등의 설정을 읽어 들이는 서비스 )



1. lan card setting


rad 11.1

olrad /11.31

->     online

         replacement

         addition

         deletion


2. local network 끼리는 gateway setting없이도 통신가능!!


3. ip multiplexing (ip 배열에 추가 정보 넣는다고 생각해~)

  ifconfig lan0:1 128.1.5.2 netmask 255.255.0.0 up

  ifconfig lan0:1 unplumb (불가!!! 논리적 ip는 unplumb 명령어 안됨) --> ifconfig lan0:1 0.0.0.0 ( 이렇게 논리 ip 해제 )

  


기능 대충 알겠으면 nwmgr만 열심히 파라!!


nwmgr --diag --attribute dest=MAC -c lan0 (특정MAC과 L2 통신 확인)



------------------------------


부팅과정


boot=kernel load

/stand/vmunix


Firmware(bootrom)

1) POST/PAL/SAL/IODC : H/W selftest + 시스템 초기화

2) EFI (pc의 boot bios와 비슷) : 부팅 장치를 결정 (NVRAM에 있음) -> setboot로 확인

3) HPUX.EFI : 커널 로더 < -- AUTO "boot vmunix" (AUTO라는 파일은 저 문장만 가지고 있는 놈임, 필요한 이유는 auto boot 시 "boot vmunix"라는 명령어가 들어가야 되기 때문임! )

4) vmunix

5) init


자 이제 시작해 볼까~~~


Run Level 0~6


run level check은 "who -r" 로


run level 0

- halt state

- os포함 모든 프로세스가 종료된 상태

- shutdown 은 service를 내리는 명령어 옵션으로 -h halt추가 해야됨~ 즉 shutdown run level 0로 내리는 명령임.


run level s (=single user mode)

- 안전모드?

- 장애처리 목적 / 서비스 없음 / 최소한의 자원으로 부팅!

- /, /stand만 마운트

- login 과정이 없당~ --> root 패스워드 분실 (trusted system 설치시 single 모드에도 passwd 입력해야됨)


run level 1 (= single user mode : 왜 냐하면 network을 지원하지 않으니까~~~ 결국 console로만 접근 되니까 싱글이라 생각해~)

- 파일 시스템 자동 마운트 ( <- /etc/fstab )

- syslogd

- hostname 설정


run level 2 (= multi user mode )

- network 설정 (ip/netmask/gateway..)

- 서비스 실행 ( 이것땜에 시간이 젤 많이 걸리는 level임)


run level 3 (= multi user mode )

- CDE

- NFS ( nfsd가 올라옴 nsf client는 run level 2 만 되도 사용되니까~)


-------------------------------------


shutdown  후~~


EFI에서 에서 HPUX 로 넘어가서 boot vmunix -is(init Single mode)


로 넘어가자~

기다리면 os console 접속됨  이때 login상태는 아니기 때문에 환경설정이 안되어 있다


# mountall 실행 필요 디렉토리 mount후


login 한다.


이제는 run level을 올려보자~


# init 1 위에서 설명한 run level 1의 해당 프로세스들이 올라간다~ 이런식으로 init 3까지 올리면서 확인 해봐~


------------------------------------------


/etc/inittab


init:3:initdefault : default run level

/sbin/ioinitrc     : 새로운 장치 검색 및 인식

/sbin/bcheckrc : fsck 파일시스템 장애 복구

/sbin/rc           : Runlevel Control : 서비스 실행

/usr/sbin/getty : console login prompt

등등이들~~~


------------------------------------------


자 우리는 rc를 보자꾸나


/sbin/rc#.d 디렉토리의 파일들은 K/S로 나뉘는데 이건 그냥 kill / start 라는 말이고~

그 다음 숫자가 중요한데~ 하나의 서비스의 K/S의 숫자는 합이 1000이 된다.

이말은 가중치가 높은 K가 먼저 시작되었다면 가중치가 낮은 S는 늦게 시작되게 하기위해 만들어진 것이다.


일반적인 명령의 실행은 /sbin/init.d/~ 에 있는 script를 이용한다.

그러나~ 대부분의 init.d 디렉토리 아래의 실행 script들은 변수에 의존해 행동하도록 프로그램 되어있는데

이 변수들은 /etc/rc.config.d/ 아래에서 확인 가능하다.


즉 rc.config.d 아래의 설정들도 실행 스크립트 이므로 직접 프로세스를 init.d의 스크립트를 이용해 실행하려면

rc.config.d/someconfigscript -> sbin/init.d/somescript 순서로 실행해 줘야만 정상 적으로 작동된다.

(아니면 특정 변수 비교 구분에서 그냥 빠져나가 버린다~)


--------------------------------------------


NFS는 솔까말 쓸일이 영원이 없을거라 pass



'tip > tip. HP-UX' 카테고리의 다른 글

여러개의 depot 일괄 설치 방법  (0) 2013.11.19
Disk 구성 확인  (0) 2013.10.18
[HP-UX] LVM  (0) 2013.04.16
[HP-UX] HP-UX 기동 순서  (0) 2013.04.16
[HP-UX] HP-UX admin tip#1 천천히 정리하자  (0) 2013.04.16
Posted by wooix
tip/tip. HP-UX2013. 4. 16. 14:38

Logical Volume Manager


1. 기본 용어

PV, PE : Physical Volume, Physical Extend

VG : Volume Group

LV, LE: Logical Volume, Logical Extend


2. 용어 설명

PV : pv는 물리적인 window계열의 물리적 Partition에 mapping되는 개념이다.

Disk하나를 PV로 선택할 수도 있고 나뉘어진 여러 partition을 개별 PV로 선택할 수 도 있다.

PE : PV를 만들때 -s 옵션을 주게 되면 effective size of physical volume (즉 효율적 블럭 단위)를 생성하는데 이때 개별 block이 PE가 된다.

ex) 1G disk를 1M단위의 블럭을 만들경우 pe00000 ~ pe00999까지의 PE가 생성됨

확인     #> lvdisplay -v /dev/~

     #> pvdisplay -v /dev/~

VG : 물리적인 PV들을 묶어 하나의 거대한 logical volume Group을 만든다.

ex) PV1 :1G PV2 :2G PV3:3G 일때 VG가 PV1~3까지를 포함하면 6G의 VG가 생성됨.

VL : VG 안에서 사용자가 원하는 크기대로 나누어 놓은 Logical Volume

ex) 위의 6G를 사용자가 5G / 0.5G/ 0.5G LV1~3까지와 같이 편의 대로 만들 수 있다.

LE : VL을 생성 될때 만들어지는 effective size of Logical volume 을 말한다.


3. 실습을 통한 정리

전제 )

oracle의 기본 dir : /oracle

파티션 3개를 만드시오

vg이름 : vgora1

table : 4G : 4096MB /oracle/table

index : 2G : 2048MB /oracle/index

log : 2G : 2048MB /oracle/log

/dev/disk/disk01

/dev/disk/disk02

/dev/disk/disk03


=============== 1. 생성 시작 ==============


작업 순서 : 공간확보 -> PV -> DSF -> VG -> LV -> fs -> 마무리

1. 공간확보

위의 /dev/disk/disk01~03 까지를 이용

#>lvlnboot -v (부팅 disk확인 -> 피할것)

#> ioscan -m dsf (사용중인  disk확인)

or

#> strings /etc/lvmtab*

2. PV생성

pvcreate -f(force이므로 필요하면 쓸것) /dev/disk/disk01

pvcreate -f /dev/disk/disk02

pvcreate -f /dev/disk/disk03

3. DSF생성

#> mkdir /dev/vgora01

#> mknod /dev/vgora01/group c 128 0x001000     <- c는 device type임 128은 lvm driver임(lsdev 로 확인)

      뒤의 0x001000은 vgora01의 h/w주소 값으로 앞의 3자리까지 중복없이 사용하도록

4. VG생성

#>vgcreate -s 64 -p 20000 vgora01 /dev/disk/disk01 /dev/disk/disk02 /dev/disk/disk03

<- s는 pe size p는 max pe count (max는 max일뿐이니 직접적으로 size연산과 관련없음)

#>vgdisplay vgora01

#>strings /etc/lvmtab*

#>lvmadm -l

5.LV생성

#> lvcreate -L 4096 -n table vgora01      <- L은 lv_size 뒤는 MB단위 n은 name

#> lvcreate -L 2048 -n index vgora01

#> lvcreate -L 2048 -n log vgora01

6.fs생성

#> newfs -F vxfs -o largefiles /dev/vgora01/rtable      <- block말고 character device를 format / 

-o largefiles는 2G이상 크기에 필요한 옵션

#> newfs -F vxfs -o largefiles /dev/vgora01/rindex

#> newfs -F vxfs -o largefiles /dev/vgora01/rlog

7. 마무리

#> mkdir -fR /oracle /oracle/table /oracle/index /oracle/log

#>vi /etc/fstab

/dev/vgora01/table    /oracle/table     vxfs    default 0 2

/dev/vgora01/index    /oracle/index     vxfs    default 0 2

/dev/vgora01/log    /oracle/log     vxfs    default 0 2

#> mount -a

------------끝!---------

#> bdf (확인!!)


================= 생성 끝!~ =-==================


================= 2. 수정시작 ===================

/oracle/table 4096 -> 6000으로 확장!!!!!!!!


#> lvextend -L 6000 /dev/vgora01/table

#> fsadm -F vxfs -b 6000M /oracle/table

================= 수정 끝!~ =-==================


================= 3. 삭제시작 ===================

#> bdf | grep vgora01

#> umount  /oracle/table

#> umount  /oracle/index

#> umount  /oracle/log


#> vgchange -a n vgora01

#> lvmadm -l or strings /etc/lvmtab* 으로 vgora01에 소속된 disk 이름 확인!!!!!!

#>vgexport vgora01 (등록취소)

(disk내의 lvm흔적 삭제)

#>pvcreate -f /dev/rdisk/disk01

#>pvcreate -f /dev/rdisk/disk02

#>pvcreate -f /dev/rdisk/disk03


/etc/fstab에서 흔적 삭제

================= 삭제 끝!~ =-==================


'tip > tip. HP-UX' 카테고리의 다른 글

여러개의 depot 일괄 설치 방법  (0) 2013.11.19
Disk 구성 확인  (0) 2013.10.18
HP_UX Admin II  (0) 2013.08.13
[HP-UX] HP-UX 기동 순서  (0) 2013.04.16
[HP-UX] HP-UX admin tip#1 천천히 정리하자  (0) 2013.04.16
Posted by wooix
tip/tip. HP-UX2013. 4. 16. 13:54

init이전 생략

init 뜨고 나서

/sbin/rc[0-4].d 개별 디렉토리에 있는 link들이 실행됨
S는 boot에 사용
K는 shutdown에 사용

run level에 따라 [0-4]값이 적용되는데

일반적인 run level 3이기 때문에
rc0~rc3까지 순차적으로 진행

중요한 부분은 /sbin/rc?.d에 있는 S* softlink실행시
/sbin/init.d에 있는 실제 script 수행을 하면서
/etc/rc.config.d/ 있는 환경설정값을 읽어 들인다는 점임

ex) rc2.d/S620xfs -> /sbin/init.d/xfs 인데
xfs script안에서 /etc/rc.config.d/xfs 읽어 들임.
필요하다면 sbin/init.d에 있는 script 수정도 가능하겠지만
표준 방식이라 할수 있는
/etc/rc.config.d/ 안에 있는 변수값을 설정하는 것이 좋다.
특히 /etc/rc.config.d 안에는 해당 서비스 사용할지 안할지에 대한
flag값들이 존재 하므로 서비스의 실제 구동여부는
/etc/rc.config.d를 이용할 것.

'tip > tip. HP-UX' 카테고리의 다른 글

여러개의 depot 일괄 설치 방법  (0) 2013.11.19
Disk 구성 확인  (0) 2013.10.18
HP_UX Admin II  (0) 2013.08.13
[HP-UX] LVM  (0) 2013.04.16
[HP-UX] HP-UX admin tip#1 천천히 정리하자  (0) 2013.04.16
Posted by wooix
tip/tip. HP-UX2013. 4. 16. 13:53
1. login시 오타자 뒤에 @는 앞의 오타자 무시함
ex) login:fskj@root

2. OS가 사용할 수 있는 disk
  1. 내장 disk ( 첫 disk 2개가 SAS controller에서 H/W RAID 1 되서 공급 되기도 함.)
  2. Storage의 LUN (logical unit number)

3. run level
  0 => halt (모든작업이 정지된 상태 => power off도 문제 없음)
  s => single user mode (부팅초기, root한명만 접속 가능 root passwd 복구, 심각한 장애 처리 (mp=>console)
  1 => filesystem /etc/fstab참조해서 mount
  2 => IP 설정, network 활성화, 60%정도 service가 올라감.
  3 => CDE, nfs server 실행 : hp-ux 기본 run level (who -r로 확인 -R도 참조)

init 4 -> who -r
init 2 (내부적으로 4->3->2 순서로 진행됨)

4. hp-ux 에서 FC의 wwpn 조사하기 (Fiber Channel)
#> ioscan -fnC fc
=> /dev/fcd0 /dev/fcd1 ~~~~ (장치명)
fcmsutil /dev/fcd0 (장치명 관련 WWPN 확인 가능)

5. man section (keyword)
  1  => 일반 user command
  1m => hp-ux의 경우 system 관리용 명령
  2  => system call
  3  => 특정 개발 lang 관련 함수
  4  => system 구성 file의 내부 형식 (/etc/passwd 등등~)
ps) -o 에서 옵션 부실 see also참조하자

6. /etc/passwd
 x : shadow
 * : disable user
 * : trusted mode (user 정보가 로 표시)
--> so what 어케 쓰는 거지?
  1. to shadow mode
    => #>pwconv pwunconv
  2. passwd  정책 /etc/default/security
  3. useradd template /etc/default/useradd에 기본틀 설정
  4. useradd후 hp계열은 passwd작업까지 꼭 해줘야됨(기본이 login불가 상태)
  5. usermod 의 경우 home directory만들어야 되면 (-m -d /path option)일 경우 /etc/skel에서 기본 파일 복사하자
ex) oracle용 계정 만들기
groupadd -g 900 oinstall
groupadd -g 901 dba
useradd -m -u 900 -g oinstall -G dba oracle
passwd oracle

=============== H/W ============

LED경고등 들어온 경우
MP접속후 VFP(virtual front panel)에서 확인후 ctrl+b => SL(system log)에서 확인 가능

Bay : 장치를 장착할수 있는 공간
IO Bay => IO chassis (PCI slot들을 가진 IO board)

#> ioscan 
-f (full list) 
-k (view cached info)
-H dev-addr(5) 0/0/0/1/0 특정 주소 아래에 달린 녀석들 listing
-C class Class별 조회
-N Agile Addr로 보여준다.
-P health : health check
-m lun : lunpath에 대한 정보 via Agile view
-m hwpath : LUN관련 path 정보들
-m dsf : Agile & Legacy version addr보기


#> mpsched -S CPU의 상태를 정확히볼수 있다.(hyper thread작동 여부는 이걸로 확인)
     ps) locality Domain Count 값은 dual-core에서는 board의 수 / quad-core에서는 cpu socket의개수이다.

nPar의 활용방법
[[parstatus, vparstatus, hpvmstatus로 각 상태 확인]]

nPar(Node Partition) : cell board나 server blade를 묶어서 1개의 독립된 서버로 사용가능
1) nPar => O/S 설치 => app 설치
2) nPar => cpu core 단위로 vPar 생성
ex)             vpar0 (cpu core 4개) => O/S설치 => db server

                 vpar1 (cpu core 2개) => O/S설치 => web server 

3) nPar => hp-ux 설치 + Integrity VM s/w 설치 (VM Host)
ex)            vm1 (vCPU 몇개, vMem 몇G, vDisk 몇개) => app
                vm2 (vCPU 몇개, vMem 몇G, vDisk 몇개) => app

단 vm의 경우 자원을 공유하는 것이다 보니 특정 vm에서 overload발생시 전체 성능 내려감.

=============== H/W Addressing ============

legacy & agile(11i v3 부터 SAN환경에 특화) Address 

11i v3부터 LUN Max size 16TB지원
11i v2는 Max 2TB (os가 이상은 인식불가)
Multipath -> 11.23 까지는 O/S가 PV-Link (hot/standby)만 지원 secure Path 따로 구매 
                   11.31부터는 secure Path가 Kernel로 들어가서 자동으로 multipath지원


서버환경 2종류 Network

1. IP Network

2. SAN : storage 전용망 (FC SAN, IP SAN)
OS에서 disk에 작업 지시할때 SCSI protocol

SCSI Protocol
1) SCSI 2 => pSCSI
2) SCSI 3 => SAS, FC

SCSI명령에서는 주종관계가 설정
주 : initiator : HBA( pSCSI, SAS, FC )
종 : Target : disk, tape, storage LUN .....

SCSI 명령은 Block이 작업단위.
vs
NAS(Network Attached Storage) : tcp/ip 상에서 File 공유 서버
-> CIFS(SAMBA), NFS
NAS 작업단위 File


* Legacy H/W Address

1/0/0/1/0 
(Cell/SBA/LBA/device/function)

Legacy pSCSI Address
1/0/0/1/0.1.0 
(HBA H/W addr.target.LUN ID)

Legacy FC Address
1/0/0/1/0.6.1.0.0.0.1 
(HBA H/W addr.SAN domain.SAN area. SAN port. Array LUN ID(3))
 SAN domain = SAN SW의 id
 SAN area = array가 연결된 SW상의 rt번호
 SAN port = HUB사용시 array가 연결된 port번호(요즘은 port 잘 안씀)
 앞의 5자리는 initiator 
 뒤의 6자리가 target 임

 Array LUN ID는
 7bit.4bit.3bit 으로 구성됨
 ex)LUN ID 1, 8, 15
 0000000 0000 001 => x/x/x/x/x.x.x.x.0.0.1
 0000000 0001 000 => x/x/x/x/x.x.x.x.0.1.0
 0000000 0001 111 => x/x/x/x/x.x.x.x.0.1.7

*Agile Address

Agile View pSCSI H/W addr
1/0/0/0/1.0xa.0x0
(HBA addr.Target.LUN ID)

Agile View FC LUNpath H/W addr
1/0/0/0/1.0x64bits.0x64bits
(HBA addr.WW Port Name.LUN Addr)

Agile View FC LUN H/W path addr
64000/0xfa00/0x4
(virtual root node/vitual bus/virtual LUN ID)

install New Devices
1. do some physical works
2. run ioscan -> add the device to the kernel I/O tree
3. insf -> create device files
4. ioscan -kfn(N) to verify the configuration

============= device config ==================

/dev/*disk에 있는 것들 속성을 보면 
b/c로 구분되는데 
b = block mode DSF (block size만큼 대기 한후 writing -> 그래서 buffer(in memory)가 필요)
c = character mode DSF

char device(=raw device)는 응답속도에 focused
block device는 효율에 focused

insf
mksf
mknod <-- 이놈은 공부좀 해서 embedded system에서 써먹자
rmsf
lssf : view detail dsf attribute
lsdev : view dsf's major class ,driver, dev class

insf -e -v (기존꺼까지 모조리 재생성)

ex) dsf 삭제시 
#> insf -ev (재생성으로 복구)
#> ioscan -kfnN 으로 정상동작 확인

#> lvlnboot -v
boot disk확인

============= LVM 연습해보기 ============
vgdisplay

공간확보 -> PV -> LV -> VG -> fs -> mount

step 1.
여유 디스크 확인 하기 (현재 서버에서 사용중인 disk 조사하기)
#> lvlnboot -v (부팅 disk 확인 )
#> ioscan -m dsf (전체 disk 목록)
#> strings /etc/lvmtab* (system에 등록된 vg와 소속disk 이름)

추천 방법은 smh-> disk&file system -> disk 에서 "unused" 쉽게 확인

step 2. PV용 table 생성(???)
pvcreate -f /dev/rdsk/c0t2d0
pvcreate -f /dev/rdsk/c0t3d0
pvcreate -f /dev/rdsk/c0t4d0

step 3. DSF 생성하기
# mkdir /dev/vgora01
# mknod /dev/vgora01/group c 64 0x010000
# lsdev | grep 64
       64          64         lv              lvm

step 4. VG생성
# vgcreate -s 64 -p 64 vgora01 /dev/dsk/c0t2d0 /dev/dsk/c0t3d0 /dev/dsk/c0t4d0
Volume group "/dev/vgora01" has been successfully created.
Volume Group configuration for /dev/vgora01 has been saved in /etc/lvmconf/vgora01.conf

# vgdisplay vgora01
--- Volume groups ---
VG Name                     /dev/vgora01
VG Write Access             read/write
VG Status                   available
Max LV                      255
Cur LV                      0
Open LV                     0
Max PV                      64
Cur PV                      3
Act PV                      3
Max PE per PV               1016
VGDA                        6
PE Size (Mbytes)            64
Total PE                    297
Alloc PE                    0
Free PE                     297
Total PVG                   0
Total Spare PVs             0
Total Spare PVs in use      0
VG Version                  1.0
VG Max Size                 4064g
VG Max Extents              65024

# strings /etc/lvmtab*
/dev/vg00
/dev/disk/disk8_p2
/dev/vgora01
/dev/dsk/c0t2d0
/dev/dsk/c0t3d0
/dev/dsk/c0t4d0

# lvmadm -l
--- Version 1.0 volume groups ---
VG Name /dev/vg00
PV Name /dev/disk/disk8_p2

VG Name /dev/vgora01
PV Name /dev/dsk/c0t2d0
        /dev/dsk/c0t3d0
        /dev/dsk/c0t4d0
=----------------------------------------위를 보면 알겠지만 VG와 PV는 다 만들어 졌다. 이제는 lv로


step 5. LV생성
# lvcreate -L 4096 -n table vgora01
Logical volume "/dev/vgora01/table" has been successfully created with
character device "/dev/vgora01/rtable".
Logical volume "/dev/vgora01/table" has been successfully extended.
Volume Group configuration for /dev/vgora01 has been saved in /etc/lvmconf/vgora01.conf
root@vm194 [/dev/vgora01]
# lvcreate -L 2048 -n index vgora01
Logical volume "/dev/vgora01/index" has been successfully created with
character device "/dev/vgora01/rindex".
Logical volume "/dev/vgora01/index" has been successfully extended.
Volume Group configuration for /dev/vgora01 has been saved in /etc/lvmconf/vgora01.conf
root@vm194 [/dev/vgora01]
# lvcreate -L 2048 -n log vgora01
Logical volume "/dev/vgora01/log" has been successfully created with
character device "/dev/vgora01/rlog".
Logical volume "/dev/vgora01/log" has been successfully extended.
Volume Group configuration for /dev/vgora01 has been saved in /etc/lvmconf/vgora01.conf

# ls -la
total 32
drwxrwxrwx   2 root       sys           8192 Apr 10 17:20 .
dr-xr-xr-x  17 bin        bin           8192 Apr 10 17:15 ..
crw-rw-rw-   1 root       sys         64 0x010000 Apr 10 17:16 group
brw-r-----   1 root       sys         64 0x010002 Apr 10 17:20 index
brw-r-----   1 root       sys         64 0x010003 Apr 10 17:20 log
crw-r-----   1 root       sys         64 0x010002 Apr 10 17:20 rindex
crw-r-----   1 root       sys         64 0x010003 Apr 10 17:20 rlog
crw-r-----   1 root       sys         64 0x010001 Apr 10 17:20 rtable
brw-r-----   1 root       sys         64 0x010001 Apr 10 17:20 table

#vgdisplay -v 로 상세한 lv 도 확인 가능

setp 6. File system 생성
# newfs -F vxfs -o largefiles /dev/vgora01/rtable
    version 7 layout
    4194304 sectors, 4194304 blocks of size 1024, log size 16384 blocks
    largefiles supported
# newfs -F vxfs -o largefiles /dev/vgora01/rindex
    version 7 layout
    2097152 sectors, 2097152 blocks of size 1024, log size 16384 blocks
    largefiles supported
# newfs -F vxfs -o largefiles /dev/vgora01/rlog
    version 7 layout
    2097152 sectors, 2097152 blocks of size 1024, log size 16384 blocks
    largefiles supported

step 7. mount 하기 
root@vm194 [/oracle]
# ls -la
total 16
drwxrwxrwx   2 root       sys             96 Apr 10 17:07 .
drwxr-xr-x  15 root       root          8192 Apr 10 17:07 ..
root@vm194 [/oracle]
# mkdir table index log
root@vm194 [/oracle]
# ls -la
total 16
drwxrwxrwx   5 root       sys             96 Apr 10 17:23 .
drwxr-xr-x  15 root       root          8192 Apr 10 17:07 ..
drwxrwxrwx   2 root       sys             96 Apr 10 17:23 index
drwxrwxrwx   2 root       sys             96 Apr 10 17:23 log
drwxrwxrwx   2 root       sys             96 Apr 10 17:23 table

# vi /etc/fstab
/dev/vgora01/table /oracle/table vxfs delaylog 0 2
/dev/vgora01/index /oracle/index vxfs delaylog 0 2
/dev/vgora01/log   /oracle/log   vxfs delaylog 0 2
:wq!

# mount -a
# bdf
Filesystem          kbytes    used   avail %used Mounted on
/dev/vg00/lvol3    1048576  236256  806120   23% /
/dev/vg00/lvol1    1835008  188960 1633272   10% /stand
/dev/vg00/lvol8    4587520  453752 4109072   10% /var
/dev/vg00/lvol7    6856704 3224128 3604280   47% /usr
/dev/vg00/lvol6    1179648   20840 1149760    2% /tmp
/dev/vg00/lvol5    10723328 5690968 4993112   53% /opt
/dev/vg00/lvol4    1179648   21080 1149648    2% /home
/dev/vgora01/log   2097152   18006 1949207    1% /oracle/log
/dev/vgora01/index 2097152   18006 1949207    1% /oracle/index
/dev/vgora01/table 4194304   18520 3914805    0% /oracle/table

====================vg resize & remove 적을것.

================disk partitioning ====================

LVM v1.0 vg에서
PE size에 따른 PV의 크기 제약
PV의 크기 = PE size x pv내 PE개수
4MB x 65000 => 256G
32MB x 65000 => 2T
64MB x 65000 => 2T

LVM v2.0 vg에서는 
PE/PV 충분한 개수가 제공되어 제약없음.

/etc/lvmtab (LVM v1.0 구성 file : 등록된 vg이름과 소속 disk이름 보관)
/etc/lvmtab_p (LVM v2.x 구성 file : 동일)

strings /etc/lvmtab* (11.23까지는 전용명령이 없어서 strings이용)
lvmadm -l (11.31에서 추가됨)
lvmadm -t (LVM 버전별 크기 제약 조건 나열)


vgcreate 

mkdir /dev/vg01
mknod /dev/vg01/group c 128 0x001000 <- lvm v2로 생성

============================

LVM 명령들

접두어 (pv,vg,lv)
동사부 (create,remove,extend,reduce,display,modify ... )

===========================

disk 크기 확인 하기

diskinfo /dev/rdsk/c_t_d_








--------------------------------------------------------------------------

lost+found <- inode 읽은 파일들의 보관


* fuser -cu /somedir  : somedir을 사용중인 프로세스를 확인
* fuser -ku /somedir  : somedir을 사용중인 프로세스 kill
(fuser는 특정 디렉토리를 사용중인 프로세스에 대한 조회 및 작업종료 지시)
그리고 나서 umount로 가자!! ~ 굿이네 (but oracle 관련 디렉토리 같은거 잘못건들면 시스템 난리난다.)

kill -l
9) kill  : die!!     (쌩으로 종료, integrity 보호 안해준다)
15) term : terminate (정상 종료 과정을 거친다)

[ kill -9 ,fuser -k, rm -rf / 이것들은 가능하면 내손으로 치지 말자!! ]

#> mount -a (etc/fstab에 등록된 정보를 기준으로 전체 mount)
#> mountall (mount -a + repair /etc/fstab : single user mode에서 사용!!)

 ------------------------ file system 관리 -----------------------------

조각 모음 
#> fsadm -F vxfs -DE /somedir   
: 해당 mount point에 대한 report --> 이때 ave # extends가 숫자가 높으면 아래명령어로 go
#> fsadm -F vxfs -DEde -t 3600 /somedir 
: 해당 mount point에 대한 조각 모음 시작 -t는 초단위 시간

Repairing
#> mount -v
#> umount /somedir
#> fsck -F vxfs /dev/vgxx/xxxx01 (해당 lv)
#> mount /data
#> fsck -F vxfs -o full,nolog /dev/vgxx/xxxx01 
(full check -> log area나 file system metadata부분에 문제 있을 경우 이 옵션을 이용하자)

LV 용량 확장 시키기>

1. LV 확장 시키기
#> lvextend -L SIZE (바꾸고 싶은 크기) /dev/vgxx/xxx
#> lvdisplay (-v) /dev/vgxx/xxx

2. 그리고 나서 fs확장 (LV 크기만큼으로 확장됨)
#> umount /somedir
#> extendfs -F vxfs /dev/vgxx/xxxx01
#> mount /somedir
#> bdf /somedir

LV 용량 축소 시키기>

1. fs축소
#> fsadm -F vxfs -b SIZE(줄일크기) /somedir
bdf /somedir

2. LV축소
#> lvreduce -L SIZE /dev/vgxx/xxxxx
#> lvdisplay -v /dev/vgxx/xxxxx

file system 상 정보를 모두 폐기할때> 
#> dd if=/dev/zero of=/dev/vg01/rdatavol bs=64k   (0으로 64k block씩 끝까지 writing)

그냥 참조만해.. 우린 이거 안써.

VG 축소 시키기>
disk1~3중에서 3을 빼버릴때.
#> pvdisplay -v /dev/disk/disk3
#> pvmove /dev/disk/disk3 /dev/disk/disk2
#> vgreduce vg01 /dev/disk/disk3
#> vgdisplay -v vg01

VG 삭제 시키기 10-28>
전제 조건
1. 하나의 physical volume만 있어야됨.
2. logical volume은 없어야됨.

정식 방법 vs 약식 방법 (잘 봐~)
----------------------------

ll -ud somefile --> file의 last access time 출력

 hp-ux 의 OS bundle 종류들 (license 묶음)
1) Base-OE (가장 기본, 가장쌈, 상업용 license없음)
2-1) HA-OE (ServiceGuard cluster sw, online-jfs, mirror disk/ux, glance.....)
2-2) VSE-OE (vPar, VM, online-jfx...)
3) DC-OE (HA-OE + VSE-OE통합버전) : 최상위 버전


=========================MP============================

hp-ux 서버의 MP접속방법
1.physical server들은 mp의 ip로 telnet,ssh로 접속


========================kernel==========================

#> kconfig
#> kconfig -s original (현재 커널 backup)
#> kconfig
#> ll /stand/original

tuning 시작!!

#> kctune    <- kernel 값들 보여줌
#> kctune nproc (동시실행 가능한 process의 최대개수)
#> kctune nproc=5000
자동backup할거냐 물어오면 yes -> /stand/backup에 저장
#> kctune nproc=5200
이때 부턴 자동으로 저장 (5000값이 저장됨) 원래 있던 값은 어디로? 
=> 없어 그래서 original을 만들었던거야!!!!
#> kconfig -s oracle 
#> kconfig                <- 이것저것 생겨난게 보일거야

만약 튜닝이 이상해서 복구한다면?
#> kconfig -l original (dynamic 부분은 즉시 적용 but static 부분은 재부팅 될때 까지 미적용)
#> kconfig -D (static 부분 확인-> 내용이 나오면 reboot 아니면 그냥 ~~~)
#> 
#> 
#> 
#> 
#> 


'tip > tip. HP-UX' 카테고리의 다른 글

여러개의 depot 일괄 설치 방법  (0) 2013.11.19
Disk 구성 확인  (0) 2013.10.18
HP_UX Admin II  (0) 2013.08.13
[HP-UX] LVM  (0) 2013.04.16
[HP-UX] HP-UX 기동 순서  (0) 2013.04.16
Posted by wooix