みくにっき。

カテゴリー > 技術(16)

≪前のページ | main | 次のページ≫

2011/12/18(Sun) :

VMwareESXi5+Linux仮想マシンでPPPoE/DMZ/LAN(内部LAN)構成の2段NAT/NAPTルータを作る

というわけで家庭用ルータ撲滅計画の終着点。
結局LinuxでNAT/NAPT箱を作りました(笑)
でも普通に作ったらマシンが増えるので仮想化で。
否、プライベートクラウドで!(笑)
#pfSenseで一度作ったけど、あまりに不安定なので潰しました(爆)


[作るもの]
DMZを備えたNAT/NAPTルータ2つを用意して、公開サーバをDMZに置く構成を作ります。
ルータはすべてVMwareESXi5ホストに仮想マシンとして載せてしまい、必要な接続点のNICだけを外部と接続します。
まあこんな感じですので図を見てください(笑)
20111218router

[だがしかしその前に。]
・VMwareESXiのゲストからPPPoEできるの?→普通にできます。
・他のゲストに負荷かかったら?→ESX/ESXiはリソースを予約したり制限したりできます。
・仮想マシンでルータを作ってもホストにアタックされたらだめじゃん? → VMware管理ポートをPPPセグメントに接続しなければ外部からホストに直接アクセスするのは難しいです。

これで概ね不安はなくなりましたかね?

[用意するもの]
・VMware ESXi 対応NIC×3ポート以上(必須) → VMware Compatibility Guide: I/O Device Search
・IntelVTまたはAMD-V対応CPU(必須)
・適当なマザー、メモリ、部屋に転がってたHDD(注:まだ使えること)
・ESXi5のインストールメディア(ISOイメージ)  → VMware vSphere Hypervisor™ (ESXi)
・Linuxインストールメディア(ISOイメージ) → Software archives at ftp.riken.jp (任意)

こんなところですかね。今回はゲストOSにはRedHat系のLinuxを使いました。
あとは先に進むだけです(´∀`)ノ

(1)ハードウェアを組み上げて、ネットワークカード(NIC)を挿します。

とりあえず組み立てますが、PPPoEのテスト時以外は物理SWに繋ぐ必要はありません。
ESXiを入れてNICが3ポート以上認識できるか祈ります(笑)
3ポートの内訳は、

・NIC#1はPPPoE接続用セグメント

・NIC#2はDMZ(公開サーバ設置用セグメント)
・NIC#3はVMware管理+内部LANセグメントを兼ねます。
です。

(2)ESXi5をインストールし、仮想スイッチを物理NICと関連付け。
(3)仮想マシンを2つ作り、図のように4つのNICを仮想スイッチに関連付けます。

ちょっと追加設定をしてしまっていますのでこんな感じで(笑)

20111218router2

この設定では上からLAN(内部ネットワーク)、DMZ、PPPになります。
(図ではVM MGTが内部セグメント、VM DMZが公開セグメント、VM WAN/PPPが外部接続点。)


(4)ゲストOSをインストールしてルータを作ります。

これで完成!(おいw)

まあ、いちおう必要なパッケージだけ書いておきましょうかw
インストールしたのは、これくらい。
・iptables
・dhcpd
・bind(named)
・rp-pppoe

ルータ機能としてはほとんどiptablesなので、iptables設定だけ必死で頭を使って設定します(笑)
まあ、iptablesだけは起動停止とPPPoE接続用にスクリプトを書いてリブート/PPP切断時も自動で接続&設定されるようにしておくといいですね。
それ以外は設定ファイルを書いて終わりなのですぐにできます。

おわりに。

ルータの仮想化って他にやってる人がいなかったのですが、あっさり動いちゃって拍子抜けでした。
ハードウェアとしてはまあNIC対応が厳しい点と、CPUのVT/AMD-V対応くらいが満たせれば、あとは適当でも簡単に動くので結構おすすめかもです。
もちろんルータ部分はLinuxじゃなくてもよいので、pfSenseなどを使う場合も同じですね。
ルータを作るのはFreeBSDが良いという話ですし。

というわけで、サーバーを公開しているけど現在家庭用ルータの人、家庭用ルータが機能不足でなんとかしたい方、ルータが不安定で困っている方、いかがでしょうか。

それでは今日はこのへんで。

どろん!

2010/05/14(Fri) :

ESXi4/D510MOその後(深まる謎)

こんばんわっ!
気温変化についていけなくて体調崩してるみくりん☆ですorz
皆さん大丈夫ですかー?

#なんか今週はダウンしてるひとが多いような…^^;

えーと、まあ最近いろいろ忙しかったのでブログ更新とかできてなかったんですが、ようやくまたD510MOをいじれたので、その後の報告ってな感じです。


■RTL8111 on Intel D510MOの謎。

前回記事で、ESXi4を導入して試行錯誤してたんですが、結局NWに負荷を掛け続けるとネットワークが切れちゃうんですね。

でも、この問題が発生するのは今のところ、

・Ubuntu系Linux
・ESXi4系ハイパーバイザ(ベースはLinuxですね)

あたりの事例が多いようです。
他では調べた範囲では問題なさそうな雰囲気。
(Windows入れてる方は見かけませんので不明ですが…)

一方で、動作がうまく行っていて問題が出ない(NWが切れない)のは、

・CentOS 5.4

ですね。(5.5とかは出たばっかりなので試せてません…)
おそらくRHEL5.4とかも、ソースは一緒なので大丈夫なんじゃないかと思います。

で…

▼なぜ RTL8111D ドライバの自動判別に失敗するのか
http://d.hatena.ne.jp/metastable/20100211/1265885917

この問題がまず頭にあり…。
(つまりRTL8168/8111系のチップに対してRTL8169のドライバが使われちゃうから問題、って情報なんですけども。)

これがとても気になっているんですが…
正常動作しているCentOS5.4環境では、lsmodしてみると、なんとRTL8169のドライバで動いています。
同じマザーボード2枚使ってますが、どちらも症状が出ません。
(24時間データ転送し続けてもNWが切れません。)

じゃあ何が問題か…というと、カーネルなのかなぁ?という感じがしてきました。
CentOS 5.4でyum updateして最新状態にしたカーネルは、

# uname -a
Linux hostname 2.6.18-164.el5PAE #1 SMP Thu Sep 3 04:10:44 EDT 2009 i686 i686 i386 GNU/Linux

(↑32bitです)
と、「2.6.18」ベースのカーネルを使っている模様。

いちおう最新(最近)のカーネルソース(2.6.33.2)を持ってきて、付属していたRTL8169のドライバソースを眺めてみましたが…よくわからず。
これをCentOS 5.4のカーネルソースと比較してみると何かわかるかもしれませんが、さすがにそこまではできていません。

#今ちょうどCentOS 5.4を入れたので、kernel-develを突っ込んでRTL8169のソースがあればdiffでもかけてみようかな。。

少なくとも、RealtekのソースコードからビルドしたものをESXi4 Update1で動かした範囲ではどうやっても問題が発生したので、うまく動かすヒントは2.6.18のカーネルに付属のRealtek系ドライバソースにあるかも。

カーネルのconfigでもRTL8169のドライバパラメータはあれど、RTL8168/8111系のパラメータはないし、一般的には上記の問題と関係なくRTL8169のドライバで動くのかもしれません。

Amebloのほうで、サウスチップが怪しいという情報をコメントでいただいたものの、ちゃんと動いちゃう事例があるので謎は深まるばかり。。

あとはESXi4もUpdate1は不安定?という(ソース不明)情報もいただいてますので、時間が許せば、バージョン落として古いほうのESXi4.0.0を入れてみるとまた挙動が違うかもしれません。

うーん、時間がほしいな。
とりあえず当面はCentOSベースで使う予定です…。

まあ気が向いたらまた検証してみます。^^;



2010/05/02(Sun) :

VMware ESXi 4 (U1)をD510MOで動かす(断念)

前回記事「VMware ESXi 4 (U1)をD510MOで動かす」のつづきです。

軽くおさらいすると、

・D510MOはRealtek RTL8168/8111というNICチップを積んでいる。
・ESXiでこのNICチップは正式サポートされていない。
・有志が作ってくれたありがたいドライバを利用して、無理やりインストール可能。
・これで一応動作するが、Realtek RTL8168/8111系のドライバはRTL8169と誤認識される不具合があるため注意する。

ここまでが前回の流れ。
で、その後なんですけれども。
このNICチップでのトラブル報告は多いですね…。
まあ、誤認識してしまう時点でダメなのですが。

で結論は…やっぱり解決できませんでした。

でっかいファイルを転送していると、途中でLink Downします。
NWで高トラフィックの用途には使い物にならないですね。

仮想ディスクをまるごとscpでバックアップするとか無理です。
↑これ厳しいです。

LinkDownのタイミングでは、r8168.oドライバがエラー(panic)を吐いていますが、「panic」なのでハードなのかドライバなのかさっぱりです。
(混乱を招くといけないので、あえてエラーメッセージは明記しないことにしますね。。)

─────ところが─────。

実はわたくし、このマザーボード、もう1枚使用しておりまして。

こちらは毎週1回200GB弱のリモートバックアップ(scp)処理が走るのですが、このとき一度もLinkDownなんぞしたことはありません。

気になるそのマシンの構成は…「CentOS 5.4/32bit版」で、lsmod叩いたらなんとRTL8169のドライバで動作していました。

ここから推測されるのは…
Realtek RTL8168/8111ドライバが「64bit環境」でpanicを起こすのではないか??ということ。

別件ですけども、Atom D510自体は64bitでも、「VTに非対応なので、64bitOSをゲストにできない」(何か方法があるのかもですが)と怒られたりもしました。
ですので、r8168.oが「Atomに足りないニーモニック」とかを叩きに行って、panic起こしてコケてる可能性もありそうです。。
(そんなのがあるのか詳しく調べて無いですけど…)

一方で、32bitの方はといえば、x86のニーモニックはフルサポートのはずで、その範囲で動くから問題が起きない?…んじゃないでしょうか?と。


■とりあえずの私的結論。

こうなると、VT非対応のためにせっかくのESXi4で64bitゲストが使えない可能性が高い今、ESXi4(64bit)を使うメリットはほとんどなくなります。

じゃあ残る選択肢は、ESXi3.5(32bit)です。
ですが…これには32bitの「r8168.o」ドライバが必要ですね。
ESXi4を動かそうっていう有志はいるけれども…ESXi3.5をって人はもうあまり(ざっとみたところでは)見当たりません。

ここまでくると32bit/LinuxベースのVMwareServerに戻すほうが賢明かも…

結局、あくまで推測ですが…

「Atom 64bit+RTL8168/8111」の組み合わせが問題?

のようなかほりがプンプンします…。

ESXi4を動かしたいなら「VTくらい対応している」、もう少しスペック高くていいCPUを使うべきなのかもしれませんね。

とりあえず、個人的には一旦諦めて、ESXi4+D510MO+オンボードNIC(RTL8111)の組み合わせ使わない対応にする方向で検討しようと思います。。

将来的にRealtekのドライバが安定したらまたESXi4も検討かな?という程度で。
そんなわけで、今回は諦めることにして、他の勇者に続きは譲ります(笑)

■補足

ちなみに、D510MOにはNICを増設できないわけではないので、やっぱり使いたいって人は、「PRO/100」とか「PRO/1000」なんかをジャンク同様に仕入れてきて、PCIスロットに突き刺して運用する方法が一番手っ取り早いと思います。

■さらに補足

もう少し突っ込むと、一旦Atomマシンに64bitのCentOSとかを入れて、Atom D510環境でコンパイルしたr8168.oを作ってみる、という方法もあるかもしれません。(有志が配布してるドライバはAtom D510マシンでビルドしたものではない可能性があるので。)

これらの情報がトライしてる方々の参考になれば幸いです。



2010/04/21(Wed) :

VMware ESXi 4 (U1)をD510MOで動かす

VMwareが便利で、うちではいっぱいサーバーが動いているのですが、今回、「Atom D510/1.66GHz/2コアHT」でESXi4 Update1が動いてくれたら安くて省電力でいいなぁと、導入することに。
した訳ですが…なぜか原因不明のトラブルに見舞われることに。

結局はネットワークドライバだったんですが…。


今回使ったマザーボードはIntel純正のD510MO。
Atom D510をオンボードで搭載です。

そしてもちろん、NICはインテル系のPRO/1000とかを積んでるだろう…と踏んでいたわけですが、考えて見れは8000円弱の格安マザーでそんな高価なNICのチップを積んでいるはずも無く(笑)

#デスクトップ用のPRO/1000GTでも4800円くらいしますからね…。

結局、ESXi4では未サポートのRealtek製のチップを搭載していたわけです。(通称カニチップ:チップ表面にカニみたいな絵が書いてあるからそう呼ばれます)

で、とりあえず普通にインストールしようとしても「このNICはサポートしてないよん、HCL(ハードウェア互換リスト)を見てね!」(意訳)って怒られて、インストールができませんでした。。

が、いろいろ情報を漁っていたら素敵なことに、このチップのドライバを用意してくれてる人がいたりとかとか。
すばらしいです。

なので、こちらのページを参考に。

▼D510MOでVMware ESXi 4.0をインストールするには
http://d.hatena.ne.jp/shibason/20100117/1263711644

ただ、インストーラのほうはどうにも、USBブートの解説で、あとはブートCDを改造するとかでやるとかしないとダメなんですが…
うちのUSBメモリはなぜだかブートしてくれなかったですorz

仕方ないので、PRO/1000GTを買ってきて(爆) ←おい
PCIスロットに突き挿し、カニチップを無効化してインストール(笑)

#コスト高くなってんじゃんwww
#…といってもPRO/1000GTは持ってて損は無いのでこの機会に(笑)

でも、せっかくなのでオンボードNICに戻して運用してやろうということで、KNOPPIXでブートして、HDD上のドライバをぶちこんで起動してみました。
そして…見事動作成功~!!

と思っていましたが…ここで悲劇が。
どうせならドライバは新しいやつにしよう!と…

▼r8169 Driver "Works"
http://www.vm-help.com/forum/viewtopic.php?f=17&t=1525

ここからoem.tgzを持ってきて入れてしまったんですね。
しかし…でっかいファイルを転送するとネットワークが切れる。
なんでかなぁ…と2週間くらい悩み、たどり着いたのがココ。

▼なぜ RTL8111D ドライバの自動判別に失敗するのか
http://d.hatena.ne.jp/metastable/20100211/1265885917


そうです、D510MOに積んであるチップはRTL8169ではなくてRTL8168/RTL8111Dのほう。
1桁違いですがえらい違いです(笑)
これがまた中途半端に動いちゃうから困ったもんで。

なので、最初のサイトにあったほうのr8168.oを含むほうのoem.tgzを
突っ込まないといけなかったんですね。。

▼RTL8111/8168 and P55 integr. SATA Ctrl. (AHCI) for ESX 4
http://www.vm-help.com/forum/viewtopic.php?f=12&t=1272

なんともはや馬鹿らしい。
しかしあれです、自動判別失敗の記事とか読んでると、直接Linuxぶちこんで試行錯誤するとかしたら、もっとハマってた可能性も…!?

まあとりあえず原因判明してすっきりです(^^;
これでもう一回、oem.tgzを置き換えて使ってみようと思います。

同じようなことでハマらないように、真似する人は気を付けましょう~。

#2週間も悩んで損した…orz



■2010/5/2追記:

実はハマりはまだ続きました…
こちらへ→ http://illusions.jp/blog/?id=283



2009/12/01(Tue) :

ATMにいっぱい挨拶させる方法

東京で某赤い看板のU銀行のATM、
前から気になってたんだけど…
 
前に立つと、「いらっしゃいませ!」って言うんですよね。
あれ。

というわけで、ATMが20台とか並んで居る場合…
端っこから端っこまで、前を歩いていくと…

なんと!

「いらっしゃいませ!」
「いらっしゃいませ!」
「いらっしゃいませ!」
「いらっしゃいませ!」
「いらっしゃいませ!」
(以下略)

\(^o^)/

…すいません、もう遊びません(笑)

我ながら馬鹿すぎる…(爆)

やったことある人挙手!(いねーだろww)
じゃ、コレ読んで笑ってしまった人、こんな私に何か一言orz



2009/09/14(Mon) :

Love++

ラブプラス オンリーイベント ”ラヴ・インクリメント” Love++
http://www.puniket.com/love_inc/

 

ネーミングセンスいいなぁ。


ていうかプログラマじゃなくても分かるのかしら…

 

サンプルコード:

try {
    otoko o = new LOVEPLUS("nene_anegasaki");
    for (int Love = 0; Love < ∞; Love++) {
        o.Kiss();
    }
} catch (Exception e) {
    Console.WriteLine("人生にエラーが見つかりました。");
}



2009/05/17(Sun) :

ZFS on Linux(FUSE)

FUSE(Filesystem in Userspace)を使った、ZFSのLinux実装がある(現在β版)ことが判明。

http://www.wizy.org/wiki/ZFS_on_FUSE

LinuxカーネルへのZFS実装は、SunのCDDLライセンスに抵触するため不可能っぽい。

また、特許の問題もあるそうな。

 

詳しくは長文の英語の情報しかなかったので正しく理解できなかったものの、FUSE実装でパフォーマンスが出るようであれば、ZFSをLinuxでも十分に使えるだろう。

(特許は自己責任だが、FUSE経由ならカーネルのGPL/ZFSのCDDLライセンスには抵触しないらしい。)

今後の展開に期待したいところ。

詳しく知りたい方は「ZFS on FUSE」をキーワードに検索されたし。

 

ただ、そうはいっても単純にストレージの信頼性としてZFSを採用したいというニーズなら、iSCSI経由でSolarisサーバを直接採用するといった案も考えられる。

この場合、WindowsやMac OS XなどからもローカルストレージとしてZFSファイルシステム上の領域を使用できる。

 

ネットワーク経由で「ファイルサーバとして使う」のなら、いっそiSCSIでクライアントマシンからローカルストレージ風に用いるのも良い選択肢ではなかろうか。

GFSとiSCSIの組み合わせもあるので、iSCSIターゲットにSolaris/ZFSをそのまま用いるのは悪くないかもしれない。



2009/05/17(Sun) :

Solaris 10 Update 7 (5/09)とか

ありゃ…?
すごいタイミングでSolaris 10アップデートがリリースされた…

会社にSPARCサーバ導入したばっかりorz @約100万円

 

うーん?

OSごと入れ替えて起動できなくなったりしたら泣くなぁ…
というわけで、会社では触らないことに。

自宅には入れてみよう~(笑)

あ、自宅はもちろんx86版っすよw

 

とりあえず、この「Solaris10 5/09」で、ついにiSCSIターゲットとしてSolaris 10が正常に使えるらしい(10/08版までは駄目だったそうな)ので、本格的なZFSファイルサーバ構築を検討しようかな。

 

ただ、一方でLinuxでもDRBDによるネットワーク経由のミラーリング、RHCSとか、Heartbeatによるクラスタ、DM-MPによるマルチパスSAN@iSCSIとか、CLVMとかGFSとかいうキーワードにも興味が…(^^;

 

というわけで、本日見つけたサイトをメモ。

検閲TECH さん
http://ken-etsu-tech.blogspot.com/

miko's cafeterrace さん
http://cafelounge.net/dev/

 

いやはや、こんなにも有益な情報をバンバン公開されているとは…。
ほんとにすばらしいですね。

うちのサーバーもクラスタ化、冗長化、対障害性強化を推進したいところなので、ぜひとも参考にさせていただこうかと。

 

そういえば、土曜日にSofmapさんに行ったら、Opteron搭載のhpマシン(たぶんPCサーバ)がアウトレットで49,800円とかで売られてました。

ちょうどNASとかファイルサーバの追加とかを検討していたので気になったけど、お金が無いので我慢して帰宅(苦笑)※1

つかまった店員さん、なかなか話してて楽しそうでしたが今回は見送ります、ごめんなさいw

 

※1  お金が無いといいながら「けいおん!」の罠に落ちまくってますが…orz



2009/05/09(Sat) :

続、Solarisゾーニング

前回は、結局リソースプールがうまくできてなかったみたい。

# pooladm –e
# pooladm –s

をもう一回やって、リソースプールの定義をやってみる。

# poolcfg -c 'create pset zone1 (uint pset.min = 1; uint pset.max = 2)'
# poolcfg -c 'create pool pool_zone1'
# poolcfg -c 'associate pool pool_zone1 (pset pset_zone1)'

 

すると、以下のような感じに。

# poolcfg -c info

system default
        string  system.comment
        int     system.version 1
        boolean system.bind-default true
        string  system.poold.objectives wt-load

        pool pool_zone1
                int     pool.sys_id 1
                boolean pool.active true
                boolean pool.default false
                int     pool.importance 1
                string  pool.comment
                pset    pset_zone1

        pool pool_default
                int     pool.sys_id 0
                boolean pool.active true
                boolean pool.default true
                int     pool.importance 1
                string  pool.comment
                pset    pset_default

        pset pset_zone1
                int     pset.sys_id 1
                boolean pset.default false
                uint    pset.min 1
                uint    pset.max 2
                string  pset.units population
                uint    pset.load 10
                uint    pset.size 1
                string  pset.comment

                cpu
                        int     cpu.sys_id 0
                        string  cpu.comment
                        string  cpu.status on-line

        pset pset_default
                int     pset.sys_id -1
                boolean pset.default true
                uint    pset.min 1
                uint    pset.max 65536
                string  pset.units population
                uint    pset.load 247
                uint    pset.size 1
                string  pset.comment

                cpu
                        int     cpu.sys_id 1
                        string  cpu.comment
                        string  cpu.status on-line

#

おおっ。
リソースプールがちゃんとできたので、確定。(これは前回やってない)

# pooladm –c

 

この後、前回作ったzone1をhalt→uninstall→installで再インストールしてみる。

# zoneadm -z zone1 halt
# zoneadm -z zone1 uninstall
ゾーン zone1 を uninstall してよろしいですか (y/[n])? y
#

アンインストール完了。
続いてインストール実行!

# zoneadm -z zone1 install
Preparing to install zone <zone1>.
Creating list of files to copy from the global zone.
Copying <12961> files to the zone.
Initializing zone product registry.
Determining zone package initialization order.
Preparing to initialize <1701> packages on the zone.
Initialized <1701> packages on zone.
Zone <zone1> is initialized.
Installation of these packages generated errors: <SUNWtpm>
The file </export/zones/zone1/root/var/sadm/system/logs/install_log> contains a log of the zone installation.
#

おおっ。

# zoneadm -z zone1 ready
#

おおおっ。

# zoneadm -z zone1 boot
#

やったー!!

つーことで成功しましたっ♪

にゃほほーい☆



2009/05/05(Tue) :

SXCE/ZFS

SXCE(Solaris Express, Community Edition)で、ZFS/RAID-Zを使ってみるの巻。

そもそもみくりんにはSolarisのDISK管理の知識が無いのだけど、試行錯誤で下記をなんとか。
今回はSCSI接続の仮想DiskをVMwareで割り当てて、RAID-Zを構築してみました。

 

# format
Searching for disks...done

c2t0d0: configured with capacity of 7.98GB
c2t1d0: configured with capacity of 7.98GB
c2t2d0: configured with capacity of 7.98GB

AVAILABLE DISK SELECTIONS:
       0. c0d0 <DEFAULT cyl 5218 alt 2 hd 255 sec 63>
          /pci@0,0/pci-ide@7,1/ide@0/cmdk@0,0
       1. c2t0d0 <VMware,-VMwareVirtualS-1.0 cyl 1042 alt 2 hd 255 sec 63>
          /pci@0,0/pci1000,30@10/sd@0,0
       2. c2t1d0 <VMware,-VMwareVirtualS-1.0 cyl 1042 alt 2 hd 255 sec 63>
          /pci@0,0/pci1000,30@10/sd@1,0
       3. c2t2d0 <VMware,-VMwareVirtualS-1.0 cyl 1042 alt 2 hd 255 sec 63>
          /pci@0,0/pci1000,30@10/sd@2,0
Specify disk (enter its number):

 

で、ここからパーティションを切らないといけないので、ディスク番号を指定した後、fdiskコマンドを実行。

 

format> fdisk
No fdisk table exists. The default partition for the disk is:

  a 100% "SOLARIS System" partition

Type "y" to accept the default partition,  otherwise type "n" to edit the
partition table.
y
format>

 

ディスクの100%をSolarisパーティションにするか聞いてきたので、今回は迷わず「y」。あとはformatコマンドのdiskサブコマンドで対象DISKを切り替えつつ、同様のパーティション設定を1,2,3のDISKそれぞれに実施。

 

その後、

# zpool create rpoolz raidz c2t0d0 c2t1d0 c2t2d0

で、rpoolzができ上がるので、

# zfs create rpoolz/zwork

とやったら、、

 

# zpool list
NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
rpool   39.8G  10.1G  29.6G    25%  ONLINE  -
rpoolz  23.9G   266K  23.9G     0%  ONLINE  -

# zfs list
NAME                     USED  AVAIL  REFER  MOUNTPOINT
rpool                   10.6G  28.5G  32.5K  /rpool
rpool/ROOT              8.98G  28.5G    19K  legacy
rpool/ROOT/snv_112      8.98G  28.5G  8.84G  /
rpool/ROOT/snv_112/var   144M  28.5G   144M  /var
rpool/dump              1.00G  28.5G  1.00G  -
rpool/export             103M  28.5G    21K  /export
rpool/export/home        103M  28.5G   103M  /export/home
rpool/swap               512M  29.0G  36.1M  -
rpoolz                   171K  15.7G  28.0K  /rpoolz
rpoolz/zwork            25.3K  15.7G  25.3K  /rpoolz/zwork
#

めでたく rpoolz/zwork が完成。

あとはこのzfsエリアをSambaで共有して使うと、信頼性の高いファイルサーバーになるんじゃないかと画策中。

さぁてどうかな?



≪前のページ | main | 次のページ≫


Calendar

<< May, 2017 >>
SMTWTFS
 123456
78910111213
14151617181920
21222324252627
28293031   

New Entries

Categories

Recent Comments

Archives

過去の記事▼

Feed

RSS1.0 XML Feed

RSSリーダーにドラッグ&ドロップで登録すると記事を読めます。よろしくです♪

おすすめ


ピュアニーモ キャラクターシリーズ No.076 ガリレイドンナ 星月・フェラーリ 完成品ドール[アゾン]《04月予約》


ガリレイドンナ もふもふミニタオル 星月


ガリレイドンナ 缶バッジ 星月・フェラーリ


Microsoft Windows 8.1 Pro (DSP版) 64bit 日本語 発売記念パック 窓辺ファミリーバージョン