メニュー 閉じる

Blog

Solarisゾーニング

Solarisの素敵な機能、ゾーニング(Solarisコンテナ)の学習中。

今日はとりあえず「ゾーン」と呼ばれる、同一サーバなのに別サーバみたいなものを作ってみました。

 

まずはリソースプールの定義から。

# pooladm -e
# pooladm –s
# poolcfg -c ‘create pool pool_zone1’
# poolcfg -c ‘create pset pset_zone1 (uint pset.min = 1; uint pset.max = 2)’
# poolcfg -c ‘associate pool pool_zone1 (pset pset_zone1)’

 

ゾーン作成開始!

# zonecfg -z zone1
zone1: そのような構成済みゾーンはありません
‘create’ を使用して、新しいゾーンの構成を開始してください。
zonecfg:zone1> create
zonecfg:zone1> set zonepath=/export/zones/zone1
zonecfg:zone1> set autoboot=true
zonecfg:zone1> set pool=pool_zone1
zonecfg:zone1> add net
zonecfg:zone1:net> set physical=pcn0
zonecfg:zone1:net> set address=192.168.0.98
zonecfg:zone1:net> end
zonecfg:zone1>
zonecfg:zone1> add attr
zonecfg:zone1:attr> set name=comment
zonecfg:zone1:attr> set type=string
zonecfg:zone1:attr> set value="Test Zone 1"
zonecfg:zone1:attr> end
zonecfg:zone1> verify
zonecfg:zone1> commit
zonecfg:zone1> exit
#

ここまでは難なく終了。

(エラーっぽいのは、新規ゾーンを作ろうとしてるから正常なはず。)

肝心かなめのインストールを開始すると…

# zoneadm -z zone1 install
zoneadm: zone ‘zone1’: 警告: プール ‘pool_zone1’ が見つかりません。デフォルトのプールを使用します
Preparing to install zone <zone1>.
Creating list of files to copy from the global zone.
Copying <12961> files to the zone.
Initializing zone product registry.
Determining zone package initialization order.
Preparing to initialize <1701> packages on the zone.
Initialized <1701> packages on zone.
Zone <zone1> is initialized.
Installation of these packages generated errors: <SUNWtpm>
The file </export/zones/zone1/root/var/sadm/system/logs/install_log> contains a log of the zone installation.
#

ありゃ?

リソースプールが見つかりません。
なんでだろー???

 

…と思いつつ、まあデフォルトプール使ってくれたようなのでreadyにしてみる。

# zoneadm -z zone1 ready
zoneadm: zone ‘zone1’: 警告: プール ‘pool_zone1’ が見つかりません。デフォルトのプールを使用します
zone ‘zone1’: WARNING: Pool not found; using default pool
#

やっぱりデフォルトプール。
まあいいや。実験だし。

 

つーことで、ゾーン(仮想コンテナ)起動!!!

# zoneadm -z zone1 boot
zoneadm: zone ‘zone1’: 警告: プール ‘pool_zone1’ が見つかりません。デフォルトのプールを使用します
#

またデフォルトプール(笑)

なんでじゃーーーー。

 

とりあえず、

# zlogin -C zone1

で、ポストインストール?(ゾーンの初期化)を実行、これで別マシンみたいなやつが動くようになりました。

わっほいわっほい。

 

…よくわからない方、すみません(^^;

 

※テスト環境: SXCE(Solaris Express, Commuinity Edition)/x86 (snv_112)

静たんまちゅり

090506_1129~0001 090506_1308~0001

5/6は「静たんまちゅり」という名の美弥乃静撮影会&ボーリング大会でした。

ちょっと撮影会は雨模様で残念でしたが、何とか撮影中はあまり降らず、また室内で撮れるところもあったので助かりました。

こちらの写真はオフショット的に携帯でぱしゃり~☆

楽しかったです。

ボーリング大会は…成績散々でした(^^;
ので、あまり触れないでおこうと思います(爆)

その後成績発表~。

なんかライブハウスみたいなところでした。
面白かったです。

ちなみに荻上トモちゃんの誕生日が近かったこともあり、みんなでサプライズ!
ケーキが登場したりと、なかなか素敵な時間になりました☆

こういうイベントまたやりたいなー♪

にゃん。

SXCE/ZFS

SXCE(Solaris Express, Community Edition)で、ZFS/RAID-Zを使ってみるの巻。

そもそもみくりんにはSolarisのDISK管理の知識が無いのだけど、試行錯誤で下記をなんとか。
今回はSCSI接続の仮想DiskをVMwareで割り当てて、RAID-Zを構築してみました。

 

# format
Searching for disks…done

c2t0d0: configured with capacity of 7.98GB
c2t1d0: configured with capacity of 7.98GB
c2t2d0: configured with capacity of 7.98GB

AVAILABLE DISK SELECTIONS:
       0. c0d0 <DEFAULT cyl 5218 alt 2 hd 255 sec 63>
          /pci@0,0/pci-ide@7,1/ide@0/cmdk@0,0
       1. c2t0d0 <VMware,-VMwareVirtualS-1.0 cyl 1042 alt 2 hd 255 sec 63>
          /pci@0,0/pci1000,30@10/sd@0,0
       2. c2t1d0 <VMware,-VMwareVirtualS-1.0 cyl 1042 alt 2 hd 255 sec 63>
          /pci@0,0/pci1000,30@10/sd@1,0
       3. c2t2d0 <VMware,-VMwareVirtualS-1.0 cyl 1042 alt 2 hd 255 sec 63>
          /pci@0,0/pci1000,30@10/sd@2,0
Specify disk (enter its number):

 

で、ここからパーティションを切らないといけないので、ディスク番号を指定した後、fdiskコマンドを実行。

 

format> fdisk
No fdisk table exists. The default partition for the disk is:

  a 100% "SOLARIS System" partition

Type "y" to accept the default partition,  otherwise type "n" to edit the
partition table.
y
format>

 

ディスクの100%をSolarisパーティションにするか聞いてきたので、今回は迷わず「y」。あとはformatコマンドのdiskサブコマンドで対象DISKを切り替えつつ、同様のパーティション設定を1,2,3のDISKそれぞれに実施。

 

その後、

# zpool create rpoolz raidz c2t0d0 c2t1d0 c2t2d0

で、rpoolzができ上がるので、

# zfs create rpoolz/zwork

とやったら、、

 

# zpool list
NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
rpool   39.8G  10.1G  29.6G    25%  ONLINE  –
rpoolz  23.9G   266K  23.9G     0%  ONLINE  –

# zfs list
NAME                     USED  AVAIL  REFER  MOUNTPOINT
rpool                   10.6G  28.5G  32.5K  /rpool
rpool/ROOT              8.98G  28.5G    19K  legacy
rpool/ROOT/snv_112      8.98G  28.5G  8.84G  /
rpool/ROOT/snv_112/var   144M  28.5G   144M  /var
rpool/dump              1.00G  28.5G  1.00G  –
rpool/export             103M  28.5G    21K  /export
rpool/export/home        103M  28.5G   103M  /export/home
rpool/swap               512M  29.0G  36.1M  –
rpoolz                   171K  15.7G  28.0K  /rpoolz
rpoolz/zwork            25.3K  15.7G  25.3K  /rpoolz/zwork
#

めでたく rpoolz/zwork が完成。

あとはこのzfsエリアをSambaで共有して使うと、信頼性の高いファイルサーバーになるんじゃないかと画策中。

さぁてどうかな?