월: 2011 4월

IBM, 메인프레임 플랫폼에 Windows를 지원 예정

zBX(blade Server)에 Windows를 지원함에 따라 IBM zEnterprise는 z/OS, UNIX (Linux), Windows 를 통합할 수 있는 최초의 platform이 될 것이며, 서버 통합 및 운영관리의 효율성을 한층 높이게 되었습니다. 그동안 Mainframe에 Windows 서버를 통합하기 위해 필요했던 Migration 관련 비용에 대하여 절감 할 수도 있게 되었습니다.

IBM, 메인프레임 플랫폼에 Windows를 지원할 예정

http://raptor-hw.net/xe/82769

향후엔 zBX없이도,  z/VM에 위에 Linux와 함께 Windows가 운영 될 수도 있겠네요. Mantissa Corporation이란 회사가 x86기반의 모든 OS를 메인프레임에서 지원하는 z86VM이란 제품도 만들고 있습니다.

z86VM – Windows on System z

http://www.mainframezone.com/it-management/windows-and-other-x86-operating-systems-on-system-z/P2

Advertisements

[IBM 공모전] 색다른 앱 공개오디션!

한국IBM에서 색다른 앱 공개오디션을 개최한다고 합니다. 지난 해에 이은 두 번째 행사입니다. 이름하여, “2011 똑똑한 지구를 위한 똑똑한 애플리케이션 공모전 시즌II”!

이번 행사에 깊은 관심과 애정이 가는 이유는, 다름아닌 이 공개오디션의 개발 환경으로 zLinux가 제공된다는 것 때문입니다. 🙂 여기가 zlinuxtoday.com이기 때문에, zLinux에 관련한 내용을 주로 다루기 때문에, 그렇기 때문에!!! 잠깐 소개할까 합니다.

애플리케이션 공모전에 참가하는 대학부/일반부 참가팀 또는 참가자는 웹을 통해서 자신의 앱을 개발하기 위한 개발 서버를 신청하게 되고, 저희가 보유한 IBM System z9 시스템이 zLinux 서버를 열심히, 뚝딱 만들어서 자동으로 제공하게 됩니다. 그 이후부터는 앱을 개발하고, 테스트하는 용도로 zLinux 서버를 사용하면 되는 것이지요. DB2, 웹스피어 애플리케이션 서버, 래쇼날 등의 IBM 소프트웨어를 비롯하여 오픈소스 소프트웨어들을 활용하여 참가자가 직접 스마터 플래닛 주제에 부합하는 애플리케이션을 개발하는 방식으로 진행된다고 하네요.

시스템은 기본적으로 자원 풀(Resource Pool)이 되는 System z와 스토리지 기반의 Provisioning 부문, 각 가상 서버들의 상태와 시스템 전반을 모니터링하는 Monitoring 부문, 그리고 앞 단에서 참가자들의 서버 요청과 스케쥴링, 서버 생성 등에 대한 명령을 자원 풀로 보내는 Application 부문으로 나뉘게 됩니다. Application은 System x가 담당하고, Provisioning과 Monitoring은 System z가 담당하게 됩니다. 두둥!!!

많은 분들이 참가하셔서 “똑똑한 지구”를 위해 훌륭한 애플리케이션들을 만들어주셨으면 좋겠습니다. 화이팅!

자세한 공모전에 대한 내용은 아래 사이트를 참고하시기 바랍니다.

색다른 앱 공개오디션: 2011 똑똑한 지구를 위한 똑똑한 애플리케이션 공모전 시즌 II

IBM에서 앱개발 공모전을 하네요. cloud 환경으로 개발 서버를 팀별로 준다니, 개발/테스트 환경으로서의 국내 클라우드의 새로운 레퍼런스도 되니 엄청기대됩니다~

색다른 앱 공개오디션

2011 똑똑한 지구를 위한 똑똑한 애플리케이션 공모전 시즌II

한국IBM에서는 대학(원)생 및 일반인을 대상으로 4월19일부터 약 5개월 동안 ‘2011 똑똑한 지구를 위한 똑똑한 애플리케이션 공모전 시즌II’를 개최합니다. 한국IBM을 대표하는 공모전인 만큼, 스마터 플래닛의 구현에 관심있는 개발자 및 학생들이 많이 참여할 수 있도록 주변에 대한 적극적인 홍보 및 안내를 직원 여러분께 부탁드립니다.

작년에 이어 본 공모전은 IBM 혁신 아젠다이자 생활과 환경을 실질적으로 변화시키는 동력 ‘스마터 플래닛’을 애플리케이션으로 현실화하기 위해 기획되었습니다.

이번 공모전은 IBM System z(리눅스)기반 클라우드 컴퓨팅 환경에서 DB2, 웹스피어 애플리케이션 서버, 래쇼날 등의 IBM 소프트웨어를 활용하여 참가자가 직접 스마터 플래닛 주제에 부합하는 애플리케이션을 개발하는 방식으로 진행됩니다.

특히 올해 공모전은 참가 대상을 대학부에서 일반부까지 확장하며, 중소기업청의 후원으로 심사 기준을 통과한 앱은 비즈니스로 확장하도록 지원합니다. 또한 수상 앱 중 사회 공헌과 관련된 경우, IBM 100주년 글로벌 사회공헌 프로젝트의 일환으로 정부 기관 및 NGO 등과 연계한 상용화 서비스 기회 등을 제공합니다.

감사합니다.

 
  
  공모 주제
     ‘똑똑한 지구’를 주제로 하는 애플리케이션 개발
  공모 내용
      – 스마터 플래닛 : 교통/ 금융/ 통신/ 공공안전/ 헬스케어
                            / 대학 등     
      – 개발분야 : 웹/모바일/클라이언트서버     
      – 개발플랫폼 : IBM의 System z(리눅스) 기반 클라우드
                           컴퓨팅 환경, 모바일의 경우 안드로이드
                           플랫폼 환경
  참가 부문 및 자격
      대학부 및 일반부 (개인 또는 5인 이하 팀 참여 가능)
  공모전 일정
      –  2011년 6월 10일          : 제안서접수마감               
      –  2011년 6월13일-17일   : 제안서아이디어 공개 심사
      –  2011년 6월 24일          : 스마트캠프(오리엔테이션)
      –  2011년 8월31일           : 애플리케이션 제출마감
      –  2011년 9월 30일          : 시상식
  시상 내용
     – 총 상금 2,000만원 및 사업화 지원
  참가자 혜택
     – 제안서를 제출한 참가자 전원에게 ‘참가 인증서’발급     
      – 참가팀 중 사전 제안서 심사를 통해 DB2 자격증 취득을
        위한 교육 지원 (강사, 교재, 자격증)
      – 참가팀 중 희망 대학생을 대상으로
        ‘System z 애플리케이션 개발자 과정’ 교육 지원
         (강사, 교재, 인증서)
      – 대학생 부문 참가팀의 경우, IBM의 대학생 홍보대사인
         ‘IBM Campus Wizard’ 참여 기회 부여
  주최 : 한국IBM
  후원: 중소기업청
  협찬: SK텔레콤, 한국레드햇

  공모전 웹사이트 www.smarterplanet-contest.co.kr
 
  공모전 포스터 및 전단 다운로드

* 본 공모전 관련 문의 사항은 한국IBM 공모전 운영국(02-3781-5339, dwkorea@kr.ibm.com)으로 해 주시기 바랍니다.
(참고: 본 행사 관련 문의사항은 SWG IDR 김은희 차장(#8095, kimeh@kr.ibm.com)에게 해 주십시오.)

 

zLinux는 정말로 안전할까?

요근래 금융권에서 발생한 보안 사고로 인해 IT 업계가 뒤숭숭해졌습니다.

그 어떤 보안 솔루션으로 시스템을 무장한다 하더라도 권한을 획득한 한 사람으로 인해 모든 것이 파괴될 수 있다는 사실을 다시금 확인할 수 있게 된 사건이라 할 수 있습니다. 무엇보다 보안 인식과 잘 정비된 프로세스, 그리고 IT 인력 관리(단순히 통제가 아닌)가 필요한 시기가 아닌가 생각됩니다.

참고 글: 현대캐피탈, 농협 사태로 다시금 짚어보는 사회공학(social engineering)

시스템의 운영체제를 몽땅 날려버릴 수 있는 명령은 의외로 간단합니다. 이번 뉴스에서도 언급된 rm(remove), dd(disk dump) 명령 한 줄이면 깔끔하게 정리(?)할 수 있습니다. 물론 시스템의 슈퍼유저인 root 권한을 획득해야만 가능한 일이지요.

고민이 됩니다. zLinux는 이러한 문제에서 온전히 자유로울 수 있을까?
“zLinux”, “Linux on IBM System z”가 이름에서도 알 수 있듯이 IBM의 메인프레임이라하는 System z에서 운영되는 Linux입니다. 일반 x86 환경에서 운영되는 Linux와 동일한 운영체제입니다. 결국 유닉스와 마찬가지로 Linux 역시 root 권한만 획득하면 운영체제 전체를 간단히 삭제해버릴 수 있습니다.

그래도 뭔가 방법이 있을 것 같아서 좀 뒤져보았습니다.
zLinux는 기본적으로 System z의 가상환경 하에서 구동됩니다. 가상화 하이퍼바이저인 z/VM이 제공하는 가상화 환경에서 운영되는 것이지요. z/VM이 제공하는 가상 CPU, 가상 메모리, 가상 디스크, 가상 네트워크 자원 등을 사용하도록 되어있습니다. z/VM은 다른 플랫폼의 하이퍼바이저와는 달리 하나의 완전한 운영체제입니다. 애초 태생 자체부터가 가상화 환경을 위한 운영체제로 시작된 것이지요. z/VM이 제공하는 가상화 기술 몇 가지를 잘 활용하면 root 권한을 가지고도 시스템 전체를 삭제할 수 없도록 구성할 수 있습니다.

두 가지 방법이 있습니다.
첫 번째는 z/VM 환경에서 사용하는 디스크를 이용해서 Linux를 설치하고, 이를 여러 Linux 서버들이 공유하는 방법입니다. Linux 구동 시 변경이 일어나지 않는 부분과 변경이 필요한 부분을 나누어서 구성하고, 변경이 발생하지 않는 부분(/bin, /sbin, /lib, /boot, /usr, /opt, …)은 Read-Only로 각 Linux 서버들이 마운트합니다. 그 외 변경이 필요한 부분(/etc, /var, /srv, /home, …)은 각 Linux 서버마다 별도로 마운트해서 구성합니다. 이미 해외 사례 중 Nationwide가 이런 식으로 서버를 구성해서 사용하고 있지요. 물론 설정 파일들이 많은 /etc, 로그파일들이 많이 존재하는 /var 등의 부분은 삭제가 가능하겠지만, Linux 서버가 구동되기 위해 반드시 필요한 부분은 z/VM 단에서 Linux로 Read-Only Disk(CDROM이라고 생각하시면 됩니다)를 붙여두기 때문에 root 권한을 가지고 있다하더라도 삭제가 불가능합니다.


참고 문서: Read-Only Root Filesystem using Linux on System z

두 번째는 가상 메모리를 이용하는 방법입니다. 바로 DCSS 영역을 활용하는 방법인데요, 애초에는 주로 공통으로 많이 사용되는 어플리케이션들(예를 들어, WebSphere Application Server, Oracle, DB2 등)을 이 영역에 설치하고 여러 Linux 서버들이 이를 공유해서 사용하는 방법입니다. 하지만, 근래 들어서는 이 영역에도 앞서 설명한 Read-Only 미니디스크처럼 운영체제의 부분을 설치해서 사용하기도 합니다. 업그레이드나 패치 적용 시에는 Master Linux 서버에서 작업하고 나머지 서버들은 재마운트나 리부팅 정도로 간단히 적용할 수도 있겠지요.


참고 문서: WebSphere Application Server in a z/VM DCSS

두 가지 방법 모두 운영체제의 보호라는 점에서도 의미가 있겠습니다만, 자원의 공유를 통해 성능 향상(운영체제와 어플리케이션들을 모두 메모리에 올려서 사용하기 때문에 – 요즘 노트북의 SSD에 윈도우 설치해서 사용하는 것과 같은 원리라 생각할 수 있겠지요)과 자원의 효율적 활용(같은 디스크나 메모리를 여러 Linux가 공통으로 사용하기 때문에 적은 메모리와 디스크가 사용됩니다)이라는 부가적 이득도 생각할 수 있습니다. 물론 그 외의 변경이 필요한 부분들에 대해서는 다른 보안 솔루션의 힘을 빌려야할 것 같습니다.

여기까지는 가상 서버 단에서의 방법이라고 한다면, 하이퍼바이저 단에서의 보안 역시 중요합니다. 가상 서버 단에서 아무리 막아봐야 정작 그 기반이 되는 하이퍼바이저에서 몽땅 지우라는 명령을 수행하면 아무 소용없는 일이 되어버리니까요.

z/VM에서는 메인프레임 운영체제인 z/OS에서 사용하는 것과 동일한 보안 관리자인 RACF(Resource Access Control Facility – 자원 접근 제어 도구, 여지껏 해킹을 단 한 차례도 성공하지 못한)를 사용합니다. z/VM에 할당되어있는 모든 자원 – CPU, 메모리, 디스크, 네트워크, I/O 등 – 에 대해서 접근 제어가 가능합니다. 절대 권한을 가지는 root와 같은 ID를 두지 않습니다. 특수 권한이라 부르는 3가지 권한을 각각 다른 ID에 할당하게 됩니다. 또한 직접 로그인이 불가능하고, 권한을 부여받은 개인 ID를 통해서만 로그인이 가능하니 로그인 정보를 추적할 수 있게 됩니다. 이런 자원들의 접근 제어를 통해 각 Linux 서버들은 완벽히 물리적으로 분리된 서버들과 같이 서로의 자원들을 침범할 수 없게 되는 것이지요. 물론 위에서 설명한 것처럼 공유를 허락한 부분들은 사용이 가능하고요.

“아, 이런 상황에서 zLinux는 과연 얼마나 안전할까”라는 생각에 몇 자 적어보았습니다.
물론 그렇다할지라도 정말 모든 권한을 다 가지고 있는 사람에 의한 의도적 파괴에는 그 어떤 서버도 무방비에 가까울 수 밖에 없습니다. 결국 중요한 것은 서두에서도 얘기한 것처럼 “인식”의 문제겠지요.

Recovery of LVM DASD error on zlinux ipl- Redhat

root volume이 LVM인데 DASD를 동적으로 추가하고 실수로 fstab, modprobe.conf, zipl, mkintrd를 수행하지않고 IPL하면 DASD error가 발생하며 아래와 같이 booting이 되지 않습니다.  이 때 recovery하는 방법입니다.

=====================================================

18:39:04 Scanning logical volumes
18:39:04   Reading all physical volumes.  This may take a while…
18:39:05   Couldn’t find device with uuid
‘Os3guQ-6mwh-w2JE-LM3n-3Nwy-QaGp-U6E4cd’.
18:39:05   Couldn’t find all physical volumes for volume group
VolGroup00.
18:39:05   Couldn’t find device with uuid
‘Os3guQ-6mwh-w2JE-LM3n-3Nwy-QaGp-U6E4cd’.
18:39:05   Couldn’t find all physical volumes for volume group
VolGroup00.
18:39:05   Couldn’t find device with uuid
‘Os3guQ-6mwh-w2JE-LM3n-3Nwy-QaGp-U6E4cd’.
18:39:05   Couldn’t find all physical volumes for volume group
VolGroup00.
======================================================

* Recovery방법

1. CMS로 로긴하여 설치시 사용했던 PARM file과 CONF file을 수정하여 Rescue mode로 IPL.

* PARM file – rescue추가

root=/dev/ram0 ro ip=off ramdisk_size=40000 rescue
CMSDASD=191  CMSCONFFILE=rhel5.conf

* CONF file – DASD Address변경

HOSTNAME=”FOOBAR.SYSTEMZ.EXAMPLE.COM”
DASD=”150-159

 

2. IPL후 설치 때와 동일한 정보를 넣고 rescue mode로 로그인 후 fstab, modprobe.conf  file에 정확한 DASD 정보로 수정 후,

다음 작업(Bold체) 수행

The recovery console log seems to suggest it should have worked though:

login as: root
Welcome to the Red Hat Linux install environment 1.1 for zSeries

Running anaconda, the CentOS 4.5 rescue mode – please wait…

Your system is mounted under the /mnt/sysimage directory.
When finished please exit from the shell and your system will reboot.

-/bin/sh-3.00# vgscan

Reading all physical volumes.  This may take a while…
Found volume group “VGztpf” using metadata type lvm2
Found volume group “VolGroup00” using metadata type lvm2
-/bin/sh-3.00# vgchange -a y
1 logical volume(s) in volume group “VGztpf” now active
2 logical volume(s) in volume group “VolGroup00” now active

-/bin/sh-3.00# pvdisplay

— Physical volume —
PV Name               /dev/dasdd1
VG Name               VGztpf
PV Size               6.88 GB / not usable 3.11 MB
Allocatable           yes (but full)
PE Size (KByte)       4096
Total PE              1760
Free PE               0
Allocated PE          1760
PV UUID               27fl0g-kjxZ-VTij-eVvc-kfSM-MngN-0zrYNF

— Physical volume —
PV Name               /dev/dasdb1
VG Name               VolGroup00
PV Size               2.29 GB / not usable 11.64 MB
Allocatable           yes (but full)
PE Size (KByte)       32768
Total PE              73
Free PE               0
Allocated PE          73
PV UUID               CYsk0I-XLWq-Kv9d-WtiJ-FEgu-b2IA-nY3aKi

 

-/bin/sh-3.00# lvdisplay

— Logical volume —
LV Name                /dev/VGztpf/LVztpf
VG Name                VGztpf
LV UUID                eENhVR-eSRV-pFi6-GU2K-Gph8-h1es-tI2MyN
LV Write Access        read/write
LV Status              available
# open                 0
LV Size                6.88 GB
Current LE             1760
Segments               1
Allocation             inherit
Read ahead sectors     0
Block device           253:0

— Logical volume —
LV Name                /dev/VolGroup00/LogVol00
VG Name                VolGroup00
LV UUID                9u3PP2-LwdK-XA58-rQPO-3kLs-K73H-NSIEDj
LV Write Access        read/write
LV Status              available
# open                 1
LV Size                10.84 GB
Current LE             347
Segments               4
Allocation             inherit
Read ahead sectors     0
Block device           253:1

 

-/bin/sh-3.00# mkdir /mnt/sysimage2
-/bin/sh-3.00# mount /dev/VolGroup00/LogVol00 /mnt/sysimage2
-/bin/sh-3.00# mount /dev/dasda1 /mnt/sysimage2/boot
-/bin/sh-3.00# mount /dev/VGztpf/LVztpf /mnt/sysimage2/ztpf
-/bin/sh-3.00# chroot /mnt/sysimage2 /bin/bash
bash-3.00# /sbin/mkinitrd -v -f /boot/initrd-`uname -r`.img `uname -r`

Creating initramfs
Looking for deps of module ide-disk
Looking for deps of module ext2
Looking for deps of module dm-mod
Looking for deps of module dm-mirror     dm-mod
Looking for deps of module dm-mod
Looking for deps of module dm-zero       dm-mod
Looking for deps of module dm-mod
Looking for deps of module dm-snapshot   dm-mod
Looking for deps of module dm-mod
Using modules:  ./kernel/drivers/md/dm-mod.ko ./kernel/drivers/md/dm-mirror.ko
./kernel/drivers/md/dm-zero.ko ./kernel/drivers/md/dm-

snapshot.ko
/sbin/nash -> /tmp/initrd.qAk813/bin/nash
/sbin/insmod.static -> /tmp/initrd.qAk813/bin/insmod
/sbin/udev.static -> /tmp/initrd.qAk813/sbin/udev
/etc/udev/udev.conf -> /tmp/initrd.qAk813/etc/udev/udev.conf
copy from /lib/modules/2.6.9-55.EL/./kernel/drivers/md/dm-mod.ko(elf64-s390)
to /tmp/initrd.qAk813/lib/dm-mod.ko(elf64-s390)
copy from
/lib/modules/2.6.9-55.EL/./kernel/drivers/md/dm-mirror.ko(elf64-s390) to
/tmp/initrd.qAk813/lib/dm-mirror.ko(elf64-s390)
copy from /lib/modules/2.6.9-55.EL/./kernel/drivers/md/dm-zero.ko(elf64-s390)
to /tmp/initrd.qAk813/lib/dm-zero.ko(elf64-s390)
copy from
/lib/modules/2.6.9-55.EL/./kernel/drivers/md/dm-snapshot.ko(elf64-s390) to
/tmp/initrd.qAk813/lib/dm-snapshot.ko(elf64-s390)
/sbin/lvm.static -> /tmp/initrd.qAk813/bin/lvm
/etc/lvm -> /tmp/initrd.qAk813/etc/lvm
`/etc/lvm/lvm.conf’ -> `/tmp/initrd.qAk813/etc/lvm/lvm.conf’
Loading module dm-mod
Loading module dm-mirror
Loading module dm-zero
Loading module dm-snapshot

bash-3.00# /sbin/zipl -V

Using config file ‘/etc/zipl.conf’
Target device information
Device……………………..: 5e:00
Partition…………………..: 5e:01
DASD device number…………..: 0120
Type……………………….: disk partition
Disk layout…………………: ECKD/compatible disk layout
Geometry – heads…………….: 15
Geometry – sectors…………..: 12
Geometry – cylinders…………: 3339
Geometry – start…………….: 24
File system block size……….: 4096
Physical block size………….: 4096
Device size in physical blocks..: 25596
Building bootmap ‘/boot//bootmap’
Building menu ‘rh-automatic-menu’
Adding #1: IPL section ‘linux’ (default)
kernel image……: /boot/vmlinuz-2.6.9-55.EL at 0x10000
kernel parmline…: ‘root=/dev/VolGroup00/LogVol00’ at 0x1000
initial ramdisk…: /boot/initrd-2.6.9-55.EL.img at 0x800000
Preparing boot device: 0120.
Preparing boot menu
Interactive prompt……: enabled
Menu timeout…………: 15 seconds
Defau
lt configuration…: ‘linux’
Syncing disks…
Done.
bash-3.00#