5ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

RAID総合スレッド No.5

1 :login:Penguin:2009/09/16(水) 23:34:35 ID:JK/kMdkU
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/
スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.com/ja-JP/_common/os_support/linux/

Linux EVMS 一般
ttp://evms.sourceforge.net/

Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。
... あと続けてくらさい。

2 :login:Penguin:2009/09/17(木) 00:31:57 ID:FGAuQfF7
2隷奴

3 :login:Penguin:2009/09/17(木) 10:24:21 ID:a38jzfUh
前スレ、どうなった?
1000行ってなかった気がするけど、落ちた?

4 :login:Penguin:2009/09/17(木) 12:13:32 ID:EBgro0cj
>>3
984でDATE落ちしてて誰もたてる様子がなかったので建てました

5 :login:Penguin:2009/09/17(木) 15:09:51 ID:ioZx6ZJ8
>>3
981以上で一定期間書き込みがないと落ちる。

6 :login:Penguin:2009/09/19(土) 00:47:59 ID:zqqctU3x
すみませんちょっと質問させてください。
stripe orderって論理的なslotナンバーみたいな認識で良いんでしょうか?
ググったんですが解説しているとこがなくて困ってます。
お願いします。

7 :login:Penguin:2009/09/19(土) 10:46:29 ID:GE78LuGJ
mdadmでRAID5のアレイにディスクを一本足そうとadd→growしたんだけど
うっかりパーティションを切り忘れてディスクデバイスそのものをaddしちゃったので
reshapeジョブをいったん止めたい。
しかしmdadmからあれこれ試したところ
何やっても「今やってるからちょっと待っとけ」みたいな表示。
でも素直に待ったら一日かかる。
諦めるしかないかなー?

8 :login:Penguin:2009/09/19(土) 12:52:38 ID:NZbmXcrB
バックアップも取らずにreshapeしたのなら諦めるしかないのでは?

9 :login:Penguin:2009/09/19(土) 13:40:53 ID:gNI7Yumi
質問です。

CentOS5.3のmdadmのRAID5で、Rebuild Statusが30%completeぐらいで0%に戻ります。
rebuildしている状態で、mountしようとすると、以下のような感じになります。
何か救済案はないでしょうか。

[root]# mount /data
mount: wrong fs type, bad option, bad superblock on /dev/md2,
missing codepage or other error
In some cases useful info is found in syslog - try
dmesg | tail or so

[root]# dmesg | tail
SCSI device sdk: 1953525168 512-byte hdwr sectors (1000205 MB)
sdk: Write Protect is off
sdk: Mode Sense: 00 3a 00 00
SCSI device sdk: drive cache: write back
md: syncing RAID array md2
md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc.
md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction.
md: using 128k window, over a total of 976759936 blocks.
EXT3-fs error (device md2): ext3_check_descriptors: Block bitmap for group 3968 not in group (block 834142208)!
EXT3-fs: group descriptors corrupted!


10 :login:Penguin:2009/09/19(土) 16:04:25 ID:GE78LuGJ
>>8
いや、つまりムダな時間がかかるから止める方法ないかな?って話なんだけど
バックアップがあったらなんかいいことあったかね?
どうせ書き戻しやら何やらしなきゃならないからあまりメリットが思いつかないけど

11 :login:Penguin:2009/09/20(日) 00:28:14 ID:Br9GWSzG
>>7
sata/md/lvm/fs
なオレはパーティションなんぞ切らずにmdでRAID5 array組んでますよ

12 :login:Penguin:2009/09/20(日) 00:29:54 ID:Br9GWSzG
>>9
fs壊れてるよ、それ・・・

13 :7:2009/09/20(日) 16:32:20 ID:JfCgkafy
結局素直に時間で解決したw

>>11
俺も昔はそうしてたんだけど、
ある時、アレイの容量を増やそうと同容量のディスクを一本買ってきたら
元あったディスクと新規ディスクの総セクタ数がほんの少し違ってて
(つまり新ディスクの方が数セクタ少なくて)追加できず…ということがあった。
それ以来、総容量より僅かに小さいパーティションをきちんと切るようにしたよ。

14 :login:Penguin:2009/09/21(月) 14:16:08 ID:Ly9SE+U7
ん?
mdならパーティションなんぞ切らなくても
使用容量が指定できたと思うが

それに既にあるアレイに追加するなら
どう転んでも既に使われてる他のドライブと
同じ容量しか使われない

時間がどーとか悩むだけ無駄

15 :login:Penguin:2009/09/21(月) 14:22:07 ID:nwMOYBnG
>>13
嫌過ぎるな > わずかに足りない

LVMで500GBx3をLVMでまとめて
1.5TBのディスクのアレイに参加させようとしたらわずかに足りない・・
良く見たらfree PEがまだまずかに残っていた。lvextendで0になるまでぶちこんだらなんとかなった

16 :login:Penguin:2009/09/21(月) 14:39:49 ID:Ly9SE+U7
>>15
LVMでまとめたボリュームをRAIDに加えるって
なんでそんな危険なことを?
RAIDの意味を真っ向から否定するようなw

17 :login:Penguin:2009/09/21(月) 14:42:16 ID:nwMOYBnG
>>16
比較的最近1.5TBをメインのアレイに変えたので
これまでの500GBがいっぱい余っているため。貧乏性なので・・

18 :login:Penguin:2009/09/21(月) 14:44:27 ID:Ly9SE+U7
>>13
--size または -z

19 :login:Penguin:2009/09/21(月) 14:47:49 ID:Ly9SE+U7
>>17
「いっぱい余ってる」なら
LVMではなく
もう一個足してRAID5のボリュームにして
それをもう一段上のRAIDに参加させる
の方が正しいような気がする。

面倒くせーから
俺はやらんけどねw

20 :login:Penguin:2009/09/21(月) 14:54:51 ID:nwMOYBnG
>>19
正確には6個なので、それも考えたけど。

で、まあ
結局のところ止めました!w
リビルド開始までは確認したけど「遅ッ」
1.5TBなら 25MB/sくらいの速度なのだけど
LVMまぜたら 17MB/sくらいになって残り時間が「万分」という表示に

いや、それも正確にはLVMが悪いのかそれとも
今回初めてRAID6にしているため、RAID6はパリティ計算が小難しいから
遅いのかよくわかっていなかったりする

21 :login:Penguin:2009/09/21(月) 14:57:17 ID:0rI++oYo
バーカ

22 :login:Penguin:2009/09/24(木) 17:41:10 ID:QOatyG3l
http://pc12.2ch.net/test/read.cgi/software/1232865288/735
>>教えてください
>>質問なんですが外付けのHDDも暗号化できますか?
>>2テラのHDDを4台でハードウエアRAID 0構成したHDDを暗号化して使いたいのですが
>>問題有りませんか?

23 :login:Penguin:2009/09/25(金) 22:29:45 ID:OgNrc6NB
素直に1.5TBを購入し 500GBは500GBでアレイにした
RAID6って初めてだ。こんな感じ。やっとリビルド終わった記念。チラ裏スマソ。
$ cat /proc/mdstat
Personalities : [raid1] [raid5] [raid4] [raid6]
md2 : active raid6 sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
1953535744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]

md1 : active raid6 sdm1[5] sdl1[4] sdk1[3] sdj1[2] sdi1[1] sdh1[0]
5860543744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]

24 :login:Penguin:2009/09/27(日) 19:56:01 ID:OVR/+voC
電源とSATAホットスワップベイとマルチプライヤーだけのRMな箱売ってないかなー

25 :login:Penguin:2009/09/28(月) 10:39:20 ID:Lzc9hMsI
いろいろ調べてみたんだが、明確な内容がつかめないので質問します。(調べ方が足りなかったらすまん)

CentOSにて
/boot RAID1
swap
/ RAID1+0

として、InstallしたいのだがInstallerには、RAID0, 1, 5, 6 しかないのでInstallerから組むことはできないと思うが
Install後に何か手を加えてRAID10でパーティション構築して、/ として使用する方法はない?

26 :login:Penguin:2009/09/28(月) 11:40:16 ID:1pzidZ2O
FedoraだったらインストーラでRAID10できるんだけどなー

27 :login:Penguin:2009/09/28(月) 13:28:48 ID:C/Lh+sXP
>>25
インストール中にコマンド打って、あらかじめ好きなようにmdを作っておいて、
そこにインストールする、という手順じゃダメ?

28 :login:Penguin:2009/09/29(火) 17:04:26 ID:uKmkyA+r
>>25
一旦USBメモリとかにインストールして、カーネルを入れ替えてから、好きなような構成に設定したHDDにまるごとrsyncでコピる。

29 :login:Penguin:2009/10/04(日) 20:06:23 ID:QoLrolGm
>>24
裸族の雑居ビルじゃだめなんか

30 :login:Penguin:2009/10/13(火) 14:47:09 ID:IKMNvC1+
ざぞくのらっきょビル

31 :login:Penguin:2009/10/18(日) 20:32:48 ID:kyzATX8H
システム:md0(sda1 + sdb1のraid1) + データ:md1(sda3 + sdb3のraid1)
という構成でシステムを再インストールしたいのですがどうすればいいのでしょう?
  1.sdb1をfail&removeしてmd0から除く
  2.sdb1に新システムをインストール
  3.sdb1から起動し、元のmd0(sda1のみ)にシステムをコピー&grub設定
  4.sda1から起動し、sdbをadd
と思ったのですが…1の時点でコケました。

1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、
と、ワケワカランとなってしまいました。
# そもそもmd0のシステムを入れ替えてmd1って動くのでしょうか?

32 :login:Penguin:2009/10/18(日) 20:43:55 ID:/Yo7fcPn
> 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
> 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、

BIOSでの起動ドライブの指定は意図した通りに設定してあんの?
至極まっとうな動作だと思うが
1枚だけで起動できなきゃなんの為のRAID1なんだ


33 :login:Penguin:2009/10/19(月) 10:35:44 ID:F1hFmcmu
何をしたいのかさっぱりわからん。

34 :login:Penguin:2009/10/19(月) 12:01:56 ID:5c6ufY3t
BIOSのHDD起動順序

35 :login:Penguin:2009/10/19(月) 12:23:40 ID:OwtH0QAV
つか
RAIDのレベルで二つに割ってる意味がサッパリ分からん。
ボリューム分けたいなら普通はLVMでやるもんだと思うが。
パフォーマンスが落ちるだけじゃねーの?

36 :login:Penguin:2009/10/19(月) 12:44:43 ID:Js6Cpgcr
LVM挟んだほうが明らかにオーバーヘッドが一枚多いだろw

37 :login:Penguin:2009/10/19(月) 16:32:02 ID:Sjy8xwGc
明らか
か?

38 :login:Penguin:2009/10/19(月) 21:48:33 ID:fwC9TQj2
実効"ほぼ"ゼロってのは叩きやすいからね
定量的に考えられない奴が引っかかるから扇動しやすい

39 :login:Penguin:2009/10/20(火) 11:23:21 ID:nQrL8SHf
パフォーマンスはともかく
ディスク故障->交換時にかかる手間暇に関しては
LVMで分けた方がずっと楽だな。

40 :login:Penguin:2009/12/14(月) 19:40:04 ID:RyeiL2Wz
LinuxMDでHDD4本でRAID1を2本ずつかけてるんだが、
複数のmdデバイスを同時にresyncかけるのはできるのかな?

OSインストール時に二個同時に走ってるのを/proc/mdstatで見たんだけど、
再起動すると一個ずつになってる、、

同時でやれば速く終わるはずなんだけど

41 :login:Penguin:2009/12/15(火) 11:32:32 ID:tx5kvce1
>>40
> 同時でやれば速く終わるはずなんだけど

むしろ遅くなりそうな気がするが。
同一のCPU、同一のコントローラで
二つの処理を同時に行わせるんだよな?

42 :login:Penguin:2009/12/15(火) 14:19:25 ID:CbO7zir3
>>41
そうなんだけども、CentOSインスコ時の裏ターミナルで見たら二本のRAIDペアが同時でMAX近いスピードが出てるんだよ。

resync終了前に再起動すると起動してからresyncが走るけど一本ずつresyncに。

同時並行でresyncできるかmd.txt見てもそんなパラメータないし謎、、

43 :login:Penguin:2009/12/15(火) 14:52:55 ID:kA6phnL8
ボリュームの初期化と
データが入ってるボリュームのresyncでは
話が全く違うように思える

44 :login:Penguin:2009/12/15(火) 16:18:22 ID:CbO7zir3
>>43
もち、買ってきたばっかのブランクHDDです

45 :login:Penguin:2009/12/15(火) 17:52:50 ID:DeZ5m+oO
単にrcスクリプトの問題じゃねえの

46 :login:Penguin:2009/12/16(水) 02:11:43 ID:5fywQ9w/
ひょっとしたらmdadmで作成した時だけは同時に走るのかもしれない…

で再起動してからは同期が終ってないから普通に順番に走ると。

客先とかで組むと最後まで完了しないと帰れないのでって事情ですw

47 :login:Penguin:2009/12/16(水) 11:50:39 ID:cGLo5n8p
そういう事情なら
前の日のうちにresync済ませておいたHDDを持ち込めば
再認識させるだけで即座に帰れるぞw

48 :login:Penguin:2009/12/23(水) 17:30:17 ID:zGW6BKPU
LVMもRAIDに加えられるようなのでちょっと悩み中

今、自宅ファイルサーバの構成が
500GB 2個
1TB 2個
1.5TB 1個
という構成
OSは80GBのHDDに入れている

容量が足りなくなったついでにRAID5を組もうと思い、
1.5TB 2個を追加しようと思っている

ここで、A案かB案か迷っている
A案 500GB+1TBで1.5TBのLVMを組んで 1.5TB 5個でRAID5を組む
B案 1.5TBをfdiskで500GBと1TBのパーティションで切って
500GB 5個と1TB 5個でそれぞれRAID5を組む

今後のディスク追加は1.5TB以上だと思うのでA案を考えているけど、
A案だと再構成に何日もかかるのかな?

49 :login:Penguin:2009/12/23(水) 18:40:50 ID:DJuG93Mm
どちらかといえばB案かな。大容量での再構成はできれば避けたい。
ただ、両方のボリュームへの同時アクセスでヘッドの取り合いになりそうではある。
このあたりはアクセスパターン次第かと。

もしAなら、LVMにしなくてもlinear arrayでつなげばいい気がしないでもない。
mdXもRAIDに参加できる

で、冗長性を保った状態で容量拡張をしたいならRAID1+LVMが一番楽。
大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
一番小さいアレイからデータ掃き出して外す。
うちはこれで、1発250GBの時代から新陳代謝させて
今 1TB RAID1 x 3 + 500GB RAID1 x2 になってる。
このあたりは容量効率をとるかメンテナンス性を取るかの判断かな

50 :login:Penguin:2009/12/23(水) 23:29:29 ID:o+oOXBGn
3台のRAID5(md0)を4台構成に変更しようと思い、下のコマンドを実行していくと失敗する。
# mdadm /dev/md0 -a /dev/sdd1
mdadm: hot added /dev/sdd1
# mdadm -G /dev/md0 -n 4
mdadm: Cannot set device size/shape for /dev/md0: Invalid argument

ちなみに、md0はLVMに組み込まれています。

今までこのようなことをが起きた事はなかったのですが、どなたかご存知の方、教えていただけませんか?


51 :login:Penguin:2009/12/24(木) 00:01:18 ID:SIaUuIyu
>>49
> 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
> 一番小さいアレイからデータ掃き出して外す。

参考までに教えて欲しいのだが、この掃き出しというのはpvmoveで
大きいアレイにデータを寄せて、resize2fsでfsを縮小、
vgreduceでLVをVGから外す、という流れでおk?

52 :login:Penguin:2009/12/24(木) 02:50:17 ID:NQCo/TNI
>>51
減らすときはfs-LV-VG-PVっていうレイヤの上から、増やすときはその逆。
なので手順はresizefs→lvreduce→vgreduce→pvremoveだし、
増やすときはpvcreate→vgextend→lvextend→resizefs

53 :login:Penguin:2009/12/24(木) 02:52:07 ID:NQCo/TNI
途中で送信してしまった。

(通常の構成なら)RAID(md)層はPVのさらに下に来る。
あとはLVMスレで頼む

54 :login:Penguin:2009/12/24(木) 12:29:30 ID:VyYXnLPe
>>52
lvreduceすると自動的にpvmoveされるっけ?

55 :login:Penguin:2009/12/24(木) 13:03:22 ID:VyYXnLPe
Linuxのmdで、ローカルにATAやSCSIのディスクがつながっていて
なんらかの冗長化をしたい、というシチュエーションに限定した話で
いいんですけども、
・ディスク全体でmdを構成して、md上にパーティションをつくる
・パーティション分けてから、パーティションごとにmdをつくる
利点欠点について説明する場面があるんだけど、何を言えばいいだろう。
その気になれば後でどうにでもなるからどっちでもいいや、
とつい思ってしまうんだけど……

話す相手は「コンピュータには慣れているけど(学問的な意味で)
サーバメンテ的なことには詳しくない人」です。

56 :login:Penguin:2009/12/24(木) 13:10:57 ID:wt0k8Pk+
つまり、お前もよく理解していないってこった。

57 :login:Penguin:2009/12/24(木) 21:07:27 ID:NQCo/TNI
LVMスレへの誘導をもろともしないバカなんだし、許してやれよ…

58 :login:Penguin:2009/12/25(金) 09:54:17 ID:Bu/8ScH4
>>50
> ちなみに、md0はLVMに組み込まれています。

答えが書いてあるんじゃないかって気がする。

59 :login:Penguin:2009/12/25(金) 09:56:03 ID:Bu/8ScH4
>>57
誤:もろともしない
正:ものともしない

60 :login:Penguin:2009/12/27(日) 22:44:10 ID:xPaTeqXA
>>52>>51への返答になってないことにも気づかず偉そうだな…… > /dev/null

61 :login:Penguin:2010/01/04(月) 22:46:36 ID:kJMQbgtx
ねぇ、LVMで足らない分をポチポチ足していったら
JBODみたいに1つでも壊れたらまずいHDDアレイにならない?

62 :login:Penguin:2010/01/18(月) 01:11:33 ID:FrA+yAqo
>>48ですが、A案で構成中に問題が
>>49さんを参考に500GB+1TBをlinear arrayでつないでみたのですが、
OS再起動するとRAID構成から外れてしまう

# mdadm --create /dev/md1 --level linear --raid-devices 2 /dev/sdf1 /dev/sdg1
# mdadm /dev/md0 --add /dev/md1
# mdadm --grow /dev/md0 -n 5

これで一旦はmd0に組み込まれるんだが、OS再起動すると/dev/md1が外れる
恐らくOS起動時、/dev/md0を構成するときに/dev/md1が構成されていないからだと思うんだが
/dev/md0を/dev/md9としてもダメだった

今度lvmからmd0への組みこみを試してみようと考えているが、
linear arrayでできる方法はないのだろうか?

63 :login:Penguin:2010/01/19(火) 20:18:03 ID:+d0hdVIw
initrd作り直したか?

64 :login:Penguin:2010/01/20(水) 18:35:12 ID:XwDp0ABh
ubuntu9.10からのpalimpsestディスクユーティリティつかったソフトウェアRAIDやってる人はいるかい?

65 :login:Penguin:2010/01/20(水) 19:29:48 ID:ndWbRgCE
まぁFedora11から入ってるから、いるんじゃね?


66 :login:Penguin:2010/01/21(木) 00:16:24 ID:VDTPOdY5
いやー自動マウントの設定がうまくいかなくてさー

67 :login:Penguin:2010/01/23(土) 03:37:11 ID:3Mk8FRSB
そこそこIOPSの高い数TBのストレージを作りたいんですが、
基本的にはディスク本数を増やすアプローチで良いのでしょうか?

68 :login:Penguin:2010/01/23(土) 10:49:58 ID:NzyUkd6I
数TB程度ならSSD並べるだけでいいだろ

69 :login:Penguin:2010/02/05(金) 18:22:40 ID:0skLHFUh
swapを冗長化するという話はほとんど聞きませんが、
swap域でディスクエラーが起きたらどうなるのでしょうか?
プロセスが突然死するのでしょうか?
暴走することもあるのでしょうか?

一般には、swapを冗長化するデメリットが
プロセスが突然死したりするかもしれない心配より
大きいと考えられているのでしょうか?

70 :69:2010/02/05(金) 18:25:40 ID:0skLHFUh
別の質問です。

sdaとsdbでraid1を組んだとき、
sdaがあるビットは1だと言い、sdbはそのビットは0だと言ったら
何が起こるのでしょうか?

71 :69:2010/02/05(金) 18:34:06 ID:0skLHFUh
>>70

これは間抜けな質問だったかもしれません。raid5などと混同していました。
無視してくださって結構です。

72 :login:Penguin:2010/02/05(金) 18:39:23 ID:hTXVw8Is
>>69
前半 YES。ただそれが問題になる場合は、スワップをしないように最大まで
メモリを載せる。スワップしたら負け。

73 :69:2010/02/05(金) 18:44:53 ID:0skLHFUh
>>72
早っ。

今までスワップは、とにかくするもんだと思っていましたが、吹っ切れました。


74 :login:Penguin:2010/02/05(金) 18:47:13 ID:VwALYjfj
>>69
実際にやってみた。
物理メモリにマッピングされているページを、わざとスワップアウトさせた状態で:
sudo /bin/sh -c 'cat /dev/zero >/dev/<swap>'

ええ、フリーズしました。
どうしたらよいでしょうか?電源ボタン長押しでいいですか?

75 :login:Penguin:2010/02/05(金) 19:19:11 ID:j8P2r62W
物理メモリの延長と考えればメモリの破損だからなあ
そりゃ止まるよね

76 :login:Penguin:2010/02/05(金) 19:25:12 ID:VwALYjfj
でもさ、ユーザ空間のプロセスなんてカーネルに管理されているんだから
強制的に終了させられることは珍しくないじゃん?
だからさーそういう例外を予測して、完全には無理だろうけど、
フェイルセーフな方向に失敗させるのがプログラマの仕事じゃないかな?

77 :login:Penguin:2010/02/05(金) 21:54:13 ID:/2F2WLUF
OSとアプリの責任分界をまるっきり無視だなw

78 :login:Penguin:2010/02/06(土) 02:29:34 ID:NYl8i1Ri
初心者なのでこのスレには不似合かもしれないんですけど
緊急事態なので教えてください

REID0を組んでるのですがマザーが逝ってしまったらしく
BIOSまで行き着かず電源が落ちてしまいます

なんとかHDのデータだけでも救出したいのですが
ほかのマザーでもREIDのHDは認識しますか?

可能でしたらその手順も教えていただけたら...

お願いいたします

79 :login:Penguin:2010/02/06(土) 07:27:04 ID:OzdAS2DW
ソフトRAIDなのかハードRAIDなのか。

ハードなら同じハードを揃える。
ソフトなら移し変えるだけ可じゃね?

もうちょっと環境詳しく。

80 :login:Penguin:2010/02/06(土) 09:53:58 ID:NYl8i1Ri
>79
ありがとうございます

DELL DIMENTION 9100のBTOのメーカー設定のソフトウェアREIDです

自分としては他のマザーで大丈夫なら
今時のマザーとCPUを購入して他のパーツを流用できれば理想なのですが

同じマザーでなければ無理なようでしたら
ヤフオクで純正のマザーを落とそうかと思ってます



81 :login:Penguin:2010/02/06(土) 14:55:17 ID:kWyCQKjd
WindowsXPモデルしか無いみたいだけどここはLinux板だよ。

82 :login:Penguin:2010/02/06(土) 15:04:03 ID:y6S0x+iZ
REID て。

83 :login:Penguin:2010/02/07(日) 04:45:16 ID:HVHbakeU
ローマ字入力してる人に多いタイプミスだから気にしない…
(わたしは親指シフトだから…笑)

84 :login:Penguin:2010/02/07(日) 05:10:36 ID:Is4alLXh
タイプミスだろうが何だろうが繰り返してる上に直す気がない時点でダメ認定済みなわけだが

85 :login:Penguin:2010/02/07(日) 06:19:54 ID:e3D699rK
RAID0でデータを救出って時点で頭おかしいね
RAID0はなくなってもいいデータを入れるものだろうに

86 :login:Penguin:2010/02/07(日) 07:13:30 ID:kPG49Q02
>RAID0でデータを救出って時点で頭おかしいね
ディスクが逝かれたってことじゃないみたいだし、
そこは別にいいだろ。


87 :login:Penguin:2010/02/13(土) 05:44:18 ID:nV0eWbuV
質問です

元々
本体:eSATAカード増設
外部ストレージ:PMP対応のeSATA接続の箱にHDD2本(sdc, sdd)でRAID0
OS:fedora 11

の構成のサーバにfedora12をクリーンインストールしました。


インストール後、sdc、sddとも見えてて、sdc1、sdd1の各パーティションも0xfdで見えてますが、
RAID0の状態では見えていない状況です

この状態でRAIDの組みなおしは可能でしょうか?

88 :login:Penguin:2010/02/13(土) 07:31:30 ID:0ecMg6dD
意味不明

89 :login:Penguin:2010/02/13(土) 09:03:14 ID:TRB1DKG4
たぶん,
sdaにFedora11入れてて,sdc,sdcをSoftRAIDしてたのが,
sdaをFedora12にしてSoftRAID設定が消えちゃったって
言ってるみたいだね〜

Fedoraに強い人!助けて〜(笑


90 :login:Penguin:2010/02/13(土) 13:22:54 ID:ZQ7DCUTq
>>87
まず確認してほしいけど、起動後に、
mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1
とすると、RAID0のアレイは動くんだよね?

それで動かないようなら、dmraidが悪さをしている可能性がある
dmraid -r
としてみて、/dev/sdcや/dev/sddが出てくるようならそれに該当する

91 :login:Penguin:2010/02/13(土) 13:38:35 ID:0WzASaEG
ソフトウェアRAIDで、dmraid って、ググっても古い記事しか見つからないんだけど、今でも再構築周りの不安定さってあるんでしょうか。確実に再構築できることを求めるなら、やっぱり md で組むべき?


92 :login:Penguin:2010/02/13(土) 13:56:06 ID:ZQ7DCUTq
>>91
逆にdmraidを使いたい理由を教えてほしいんだけど
Windowsとかとアレイを共用してるとか?
それとも最近のマザーにはparity計算するハードとか載ってるのかな?

枯れてるという意味でも、柔軟性でもmdの方がいいと思うけどな
たとえば、マザーが壊れたとかした場合、dmraidだと移行が面倒
mdだとそんな制限ないし、スーパーブロックの構造もわかってるので、壊れても
なんとか修復できたりする


93 :login:Penguin:2010/02/13(土) 15:11:10 ID:nV0eWbuV
>>90
返信ありがとうございます。

fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
/devを見たところsdc1、sdd1ともない状況でした

現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
とやってみたところinvalid major number '8' とでてきて詰まってる状況です


ちなみにmdadm -A /dev/md5 /dev/sdc /dev/sddを実行した結果を貼り付けて見ます

[root@sv1 ~]# cat /proc/mdstat
Personalities : [raid1]
md5 : inactive sdc[1](S) sdd[0](S)
4514 blocks super external:imsm

94 :login:Penguin:2010/02/13(土) 15:49:26 ID:ZQ7DCUTq
>>93
>fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
>/devを見たところsdc1、sdd1ともない状況でした

あり得ない。じゃあ、fdiskは何のファイルをオープンしてるんだよって話だ
実際そうなんだというなら、
strace fdisk /dev/sdc
の結果を張ってみてくれ

>現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
>とやってみたところinvalid major number '8' とでてきて詰まってる状況です

その「XX」が合ってるかどうか気になるな
デバイスファイル作るなら /dev で
./MAKEDEV sdc
としてみたら?(余計なファイルもいっぱいできるけど)

まぁ、いずれにしても通常はudevが作るわけだし、mknodできないとすれば別の理由か
mount
の結果と
dmesg
の結果でも張ってみてくれよ(dmesgは長いからsdc、sddの認識部分だけでいいや)

95 :login:Penguin:2010/02/13(土) 15:54:37 ID:ZQ7DCUTq
>>94
自己レス
ちょっと勘違いしてた
状況を整理すると、/dev/sdcと/dev/sddは存在しているわけだな。んで、/dev/sdc1と/dev/sdd1がないと
パーティションテーブルが壊れているのか、非互換なのか…という感じですか
とりあえず
fdisk -l /dev/sdc
fdisk -l /dev/sdd
の結果と、dmesgのsdcとsddの認識部分のログが見たいですな


96 :login:Penguin:2010/02/13(土) 16:00:09 ID:nV0eWbuV
>>95
度々すみません

# fdisk -l /dev/sd[c,d]

ディスク /dev/sdc: 500.1 GB, 500106780160 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00072abe

デバイス ブート 始点 終点 ブロック Id システム
/dev/sdc1 1 60801 488384001 fd Linux raid 自動検出

ディスク /dev/sdd: 500.1 GB, 500107862016 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00095176

デバイス ブート 始点 終点 ブロック Id システム
/dev/sdd1 1 60801 488384001 fd Linux raid 自動検出

(続く)

97 :login:Penguin:2010/02/13(土) 16:05:59 ID:nV0eWbuV
(続き)
# dmesg | grep sd[c,d]
sd 6:0:0:0: [sdc] 976771055 512-byte logical blocks: (500 GB/465 GiB)
sd 6:0:0:0: [sdc] Write Protect is off
sd 6:0:0:0: [sdc] Mode Sense: 00 3a 00 00
sd 6:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdc:
sd 6:1:0:0: [sdd] 976773168 512-byte logical blocks: (500 GB/465 GiB)
sd 6:1:0:0: [sdd] Write Protect is off
sd 6:1:0:0: [sdd] Mode Sense: 00 3a 00 00
sd 6:1:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdd: sdc1
sd 6:0:0:0: [sdc] Attached SCSI disk
sdd1
sd 6:1:0:0: [sdd] Attached SCSI disk


>その「XX」が合ってるかどうか気になるな
# ll /dev/sdc
brw-rw---- 1 root disk 8, 32 2010-02-13 15:31 /dev/sdc
となっていましたのでマイナー番号は33を指定してました

98 :login:Penguin:2010/02/13(土) 16:23:17 ID:ZQ7DCUTq
>>96
>>97
fdiskの結果もおかしくないし、デバイス認識にも問題ない
mknodのマイナー番号指定もおかしくない(33であってる)
だけど、/dev/sdc1の作成には失敗するし、そもそもudevでの自動認識もできないわけですか
どうにも謎ですな

PMPに接続しているHDDをマザー上のSATAポートに接続しなおしてテストしてみるというのはどうでしょう
ある程度問題の切り分けが可能かも。または、別のHDDを接続して、区画設定からやり直すとか

SELinuxが何かしてる?
restorecon -R /dev
してみるとか(これで解決するとも思えんが…)

99 :login:Penguin:2010/02/14(日) 20:11:05 ID:32z55fMa
>>92
いえ。dmraid の方が高速だって記事を見かけたことがあるもので(ソースは失念しました)、安定してるなら入れてみようと思っただけなんです。

100 :login:Penguin:2010/02/15(月) 08:42:59 ID:dKzXeQoa
>>99
どっちも似たような処理をするわけだし、dmraidの実装が極端に優れているとかでなければ、速度差はそれほど期待
できない気がするなぁ。ちょっとググってみたけど、明確な性能差があるという最近のベンチ結果は見当たらなかった
(あまりしつこくは検索してない)

もしも速度差があるとすれば、dmraidがやるべきことをやっていないとかじゃないの?
dmraidのソース見たけど、未実装な機能であるとか、「more sanity check」とかのコメントが結構あったよ

mdでは、最近、バリアの実装が全RAIDレベルで完了したみたいだし、安全性考えるならばmdでしょ
そもそもdmraidではRAID 4/5使うにはまだカーネルにパッチを当てないといかんし、RAID 6に至っては未サポート
その上、ハード依存性もあるとなっては、俺なら多少の速度差程度では使う気にならんなぁ

もちろん使ってみてベンチマークとか取って報告してくれると嬉しいが


101 :login:Penguin:2010/02/15(月) 18:31:35 ID:3eiOHoeN
質問があります.長文ですがよろしくお願いします.

現在Vine linux 4.2 でファイルサーバを構築しています.
mdadmにて1.5T3台でRaid5の状態から,もう一台追加で
1.5T4台にしようとしたのですが,

# mdadm --manage /dev/md1 --add /dev/sdb1
mdadm: added /dev/sdb1

の後に--growを行ったところ

# mdadm --grow /dev/md1 --raid-disks=4
mdadm: Need to backup 384K of critical section..

となりエラーになります.
簡単に調べたところ,海外のサイトで
カーネルが2.6.19以降でないとraid5のgrowができないとあったので
Vine4.2のカーネルが2.6.16なのが原因だと考えていますが
それであっているでしょうか?

また,カーネルが問題なら,Vine5は文字化けの問題その他で
アップグレードを躊躇しているので
これを機に他のディストリに移行しようかと思っています.
このときにRaidのデータを残したまま移行する方法はありますか?
もしあれば教えていただきたいです.



102 :login:Penguin:2010/02/15(月) 19:46:15 ID:dKzXeQoa
>>101
raid5のgrow対応は2.6.17からじゃなかったかな。いずれにしても2.6.16なら駄目かな

んで、これはエラーじゃなくて、正常時にも同様のメッセージが出るよ
>mdadm: Need to backup 384K of critical section..

>これを機に他のディストリに移行しようかと思っています.
>このときにRaidのデータを残したまま移行する方法はありますか?

基本的にどのディストリであっても、そのまま移行できます
でも何があるか分からないから、バックアップは取っておきましょう

103 :login:Penguin:2010/02/15(月) 20:10:52 ID:VLzsUrgl
>>101
Vine4.2で
1.5TB x 6 のRAID6
500GB x 6 のRAID6
やってますよ。
過去にはRAID5 500GB x 4 をGrowで 500GB x 6にしたり普通にやってました。
Linux ***** 2.6.16-76.40vl4 #1 SMP Sun Nov 9 04:43:51 JST 2008 i686 athlon i386 GNU/Linux
普通にできるからガンガレw貴重なVineの友w

104 :login:Penguin:2010/02/15(月) 20:16:50 ID:Qu2WEuRS
>>101
カーネルのバージョンに加えてmdadmのバージョンも問題(2.6以上じゃないとダメ)。

Debian etchはカーネルが2.6.18なんだけどmdadmが2.5.xだったのでRAID5のgrowができなかった記憶が。

105 :101:2010/02/15(月) 20:35:37 ID:3eiOHoeN
皆さん早速の返事ありがとうございます.
>>102
すいません,一行コピーできていませんでした.
エラーは3行目だと思います.

# mdadm --grow /dev/md1 --raid-disks=4
mdadm: Need to backup 384K of critical section..
mdadm: Cannot set device size/shape for /dev/md1: Invalid argument

です.早速カーネルをあげてみます.

>>103
あなたもVineですか.
Vineは最近話題に上ることが少なくなった気がしたので
仲間がいると分かってうれしいです.
私もできるならVineのままでいきたいのでもう少しがんばってみます

>>104
mdadmのバージョンは考えてもみませんでした.
確認したところ

mdadm - v2.5.5 - 23 October 2006

でしたので,こちらもバージョンアップします.

早くやりたいけど,まだ家に帰れない...

106 :103:2010/02/15(月) 21:04:45 ID:VLzsUrgl
>>105
過去の自分の作業ログを見たところ
500GBx4→500GBx6のときはraidtools、

1.5TBx4→1.5TBx6のときは
http://piro791.blog.so-net.ne.jp/2008-11-07
ここを参考にやってました。

がんばってください。
自分のmdadm も2.5.5でバージョン全く同じです。

107 :login:Penguin:2010/02/16(火) 12:07:46 ID:U/2RUOkN
でもVine 4.2なら直にメンテナンスされなくなるし、
いずれは5.xに行くか他のディストリに移る必要があるよ。
5.xへの移行はデフォルトの文字コードその他、
他のディストリに移行するのと大差ない面倒があるので俺は結局CentOSに移った。
RedHat系なら yum の使い方覚える必要がある程度で
Vineでのノウハウがそのまま使えるし大した問題はない。

確か俺もVineでは growがうまく行かなかった記憶がある。
その時は調べた結果「ああ、kernel が古いのか」で納得したと思う。
>>103 が「普通にできる」てのがちょいと信じ難いが…
>>103 の kernel はいくつなのかな?

ま、Vineにはつきもののこの手のトラブルが皆無になるし
将来のことを考えると結局は他所へ移った方が楽だと思う。
メジャーなディストリだとトラブル時にネット上での情報量が多いしね。

108 :login:Penguin:2010/02/18(木) 00:39:32 ID:WHcn7By1
>>100
あーソースまではチェックしてなかったです。
ううむ。未だにその状況だと実運用に使えるようになるのは当分先ですね。
今自宅にPCないので手軽にベンチがとれる環境を作れないんです。個人で借りてるサーバーに突っ込んでみようかと思っていたのですが、今回は見送ることにします。
ありがとうございました。


109 :login:Penguin:2010/02/22(月) 11:49:13 ID:/vv6ceYV
RAID1を構成するディスクを読んだら、それぞれ違う値を返した、
ということはあり得るのでしょうか?
このとき物理的なエラーは検知できなかったとします。

110 :109:2010/02/22(月) 11:54:40 ID:/vv6ceYV
>>70の質問をした者です。
結局同じ質問になっていたことに気付きました。
質問を変えます。
RAID1に'a'と書きこんだのに、続けて同じ場所を読んだら'b'となっていた。
このとき物理エラーは検出されなかった。ということはあり得るのでしょうか?

111 :login:Penguin:2010/02/22(月) 14:57:06 ID:mO3WnbsM
ハードもソフトも人間が作ったもんだから、
「ありえるか」って言えば、ありえるんじゃね?

ところで、mdadm --detail /dev/md0 の結果でさ、
Events って何なんだろうね。
manpage 見ても、よくわかんなかったよ。

Events : 0.40
Events : 0.70880
Events : 0.26
Events : 0.60

4 台とも RAID1 のサーバだけど、いろいろ違うもんだね。

112 :login:Penguin:2010/02/22(月) 18:04:22 ID:6N04FDxr
低熱高熱状態でのHDDに書き込んだデータの化けはありうるわけだし
だからRead After Writeを実装してるHDDもあるし
こんとき物理エラーは検出されん
つか出来ん

113 :109:2010/02/22(月) 18:30:32 ID:/vv6ceYV
>>111
質問が下手すぎました。
>>112
どんな強力なRAIDでも、物理エラーとして検出されないエラーを修復することは
できないのですね。そういうことを気に病むより、SMARTなどの対策を打ったほうが
いいと思うようになりました。

114 :login:Penguin:2010/02/27(土) 02:12:27 ID:qDAtQXVH
今HDDのヘッドが読み出すときのビット誤り率(BER)は10-9程度
最近はエラー訂正に頼る傾向があるから、リニアでは10-6程度と逆にエラー発生率は高くなってる
でも逆に符号訂正の技術が高くなっているから、実際に伝送路に乗る品質は10-15乗以上にもなる
この次元の値のエラー率になると、もはやメモリーやバスやCPU、強いてはRAIDカードのコントローラーに乗るノイズで発生するエラーの確率のほうが高い。
それでもハードディスクの誤りが怖いというのであれば、次世代の量子コンピューターの登場まで待つんですな。

115 :109:2010/02/27(土) 16:01:38 ID:+q4ml44K
>>114
ありがとうございます。勉強になりました。

116 :login:Penguin:2010/03/20(土) 18:21:41 ID:SpYbO4RY
WD20EARSでmd RAIDやってる人はいませんか?

RAIDパーティションを64セクタ目から作成して、mdのストライピングサイズを64KBで
作成したとします。

mdに加えたHDDのRAIDパーティションの先頭にはmdの情報が保存されていると思います。
mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。
実際に使える先頭セクタの場所が8の倍数でない場合は、WD20EARSをWinXPで使う場合と
同じようにパフォーマンスダウンするのではないかと思っています。

これってどう思いますか?
各HDDにおけるmdの情報が4096bytesの倍数であれば多分問題ないんだろうと思うんですけど。


117 :login:Penguin:2010/03/20(土) 18:24:30 ID:SpYbO4RY
5行目を訂正します。

誤:mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。
正:mkfsにとって実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。

言いたいことって、伝わりますか?
うまく言語化できない。


118 :login:Penguin:2010/03/20(土) 18:26:25 ID:aN8kdh7Y
ttp://lkml.indiana.edu/hypermail/linux/kernel/1003.1/03467.html
ttp://lwn.net/Articles/377895/

119 :login:Penguin:2010/03/20(土) 18:57:33 ID:SpYbO4RY
>>118
このリンクはLinuxにおける4096bytesセクタに対する考察なだけっぽい気がします。
うまく言いたい事を表現できない自分が悪いんですけどね。

たとえば1つのmdパーティションにmdの管理情報が4096bytes必要だとします。
それならば次のセクタから64KBでストライピングしても、別にセクタをまたがった
アクセスにならないので問題ないと思います。

もし管理情報が2048bytesだとしたら、セクタをちょうど二つに分けた形で
ストライピングされてしまうので、強烈なパフォーマンスダウンになると思います。

ここまで書いて、どう書けばいいのかわかりました。
RAIDパーティション当たりのmd管理情報って何KBなんでしょうか?

120 :login:Penguin:2010/03/20(土) 19:23:29 ID:TrISQUCw
一番の誤解はmdのスーパーブロックは末端に在るってことかな

121 :login:Penguin:2010/03/20(土) 19:31:49 ID:TrISQUCw
バージョン0.9/1.0の場合だこれ
1.1/1.2だと先頭だわ
詳細はmd(4)
mdadmは0.9がデフォルトだけども

122 :login:Penguin:2010/03/20(土) 20:28:44 ID:SpYbO4RY
>>120
で、すげえ!やったネ!って思ったけど
>>121
なんという改悪でしょう。
man見てみましたけど、私には分かりませんでした。

考えてみたら、mdの管理情報が問題ないとパスできたとしても
ext3の管理情報サイズまで考えないといけないですよね。
WD20EARS買うのをやめようかな〜。
安いから特攻しようかと思ったんですけど。

123 :login:Penguin:2010/03/21(日) 20:28:32 ID:SqWw8gw9
知っている人に質問。

3wareの7000とか9550のSATA RAIDボードに既存のデータが保存されたHDDをつなげるとき、UNITの構築しなくても /dev/sdc1 とかでマウントして利用できる?
Single DiskとしてUNIT構築を行おうとすると、既存のデータが破壊されますけどどうします?と聞いてくるんで。


124 :login:Penguin:2010/03/21(日) 20:43:39 ID:plED2x3n
>>123
3ware使ってないけど、大抵のRAIDカードは管理用の情報をHDDに書き込むから
単体HDDとして使う場合も中身は壊れるよ。

3ware使ってる人に聞きたいのならこっちのスレのほうがいいかも
RAIDカードあれこれ 39枚目
ttp://pc11.2ch.net/test/read.cgi/jisaku/1263703844/

125 :login:Penguin:2010/03/21(日) 20:57:25 ID:SqWw8gw9
>>124
ありがとう。了解した。

該当スレ誘導も感謝。

126 :login:Penguin:2010/03/22(月) 12:23:35 ID:E14pDNne
linuxのソフトウェアRAIDの話です。
mdadm.confを使わずにRAIDデバイスを起動した場合は、OSの停止前に明示的にmdadm -Sを
実行する必要がありますか?

127 :login:Penguin:2010/03/22(月) 18:10:59 ID:N0EEVYIK
>>126
終了動作でファイルシステムのメタデータ吐く、
そのあとmdのスーパーブロック書き出して同期を停めるでしょ。

128 :login:Penguin:2010/04/02(金) 08:14:21 ID:laU9d0eY
raid 1+0 と 6が使える環境で、おまいらはどっちを選択する?



129 :login:Penguin:2010/04/02(金) 09:19:25 ID:+pJGaIlA
おまえならどっちもいっしょ

130 :login:Penguin:2010/04/03(土) 23:13:51 ID:YO6iN+5f
自作板で聞こうかとも思ったのですが、こちらの方が経験者が多そうなので質問させてください。

会社でCentos 5.4、Raid1でファイルサーバー立てようと思うのですがお勧めのRAIDカード教えてもらえないでしょうか
ただし予算はHDも合わせて2万円以内です。
先日ソフマップで、1.5TBのHDが8千円くらい、1TBが7千円くらいで売ってたので
HD2基で14000円〜16000円くらい
そうするとRAIDカードの予算は4000円から6000円くらいしかありません
玄人志向のSAPARAID-PCIやSATARAIDが2000円前後なので、それにしようかとも思ったのですがCentosで使えるのかなあと

実はこれまで職場ではIOのNAS使ってたのですが、頻繁に壊れるので何度かLinuxでデータをサルベージしてました
RAID対応のNASに買い替えようとも思ったのですが、企業向けはコストかかるのでどうせならファイルサーバーに1本化しようかなと

これまでCentosをのせていたPCは、玄人志向のATA133RAID-PCIのカードを取り付けRAID1で使用していましたが
160GBしかHD乗せて無かったので業務で使うには容量が足りず、データの受け渡し用にだけ使っていました。

構成はサーバー用にDELLの5〜6年くらい前のPC (CPU PENTIUM4 2.4GHZ、メモリ768MB PCIバス)
クライアントPCのOSはWindows XP、7、2000、Mac OSX 、Mac OS9など20台ほど(使用する人間は10人程ですが)

本当なら業務で使用するのだから、もっと高価なシステムを組むべきなのは重々分かっているのですが
何せ零細企業な上、私の裁量で稟議が降りるのが以前は10万だったのが、2万に減ってしまって(涙
それとも、この程度のクライアント数ならソフトRAIDにすべきでしょうか
ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです)

私の知識不足と長文申し訳ないですが誰か答えてくださるか誘導してくださると助かります。
よろしくお願いいたします。

131 :login:Penguin:2010/04/04(日) 00:14:11 ID:N/Mg7OeJ
金が無いなら知恵を死ぬ気で付けるしかない。
(最低このスレ全部読むくらいはやるんだろ?)

ってことはさておき、md使ったソフトウェアraidで良い。
カードもRAIDなんちゃらなんて付いてなくてATAカードで十分。
玄人志向だと以下から適当にどうぞ。
http://www.kuroutoshikou.com/products/select/interfacefset.html



132 :login:Penguin:2010/04/04(日) 07:40:07 ID:5YeefPIg
「ちゃんとした」ハードウェアRAIDカードを買う予算(8〜10万程度)
がないならソフトウェアRAIDを選択すべきだろうね

> ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです)

実際に試してみりゃいいじゃん。
「これまでCentOSを載せていたPC」とやらがあるんだろ?

133 :130:2010/04/04(日) 08:28:25 ID:sEcjxQNn
>>131-132
ありがとうございます。
いろいろめんどくさい条件書いてすみませんでした。
ソフトウェアRAIDでいってみます。

134 :login:Penguin:2010/04/07(水) 14:09:14 ID:0r9wUKJP
ソフトウェアraidのほうが部品点数が少ない分、故障も少なく可用性が高くていいな。

135 :login:Penguin:2010/04/07(水) 18:03:44 ID:jIRW8AWX
前スレに出てたけど
HDDが一個故障したらOSごと落ちちゃうような
(RAIDの意味がない)トラブルが起こる可能性は
HW RAIDより高いけどなw

136 :login:Penguin:2010/04/07(水) 19:05:51 ID:N4cK5rbU
前スレのどこにそんな事例があったのかソースくらい欲しいものだな

137 :login:Penguin:2010/04/07(水) 19:11:34 ID:jIRW8AWX
>>431-441

138 :login:Penguin:2010/04/07(水) 19:26:00 ID:rX+zbI9D
そーだな。5000円のカードよりは10万円のカードの方がマシだな。

139 :login:Penguin:2010/04/08(木) 03:30:23 ID:Hw13iH1s
>>135
前スレのはIDEのドライバの出来に影響されるって話だね。
SATAでも、ポートを増やすのにクロシコのカードを何枚も使ってたら可用性が高いとは言え無いだろうねw

でも最近のHW RAIDカードはSAS用に傾いてるから、SATAのHDDとの互換性の問題が多いんだよね。
エンタープライズモデルのHDD以外のサポートを拒否してるarecaとかね。
俺はarecaも使っててHDD選びですごい苦労してるんで、
その点ソフトウエアRAIDだとHDDは何でも良いんで楽でいいよw

140 :login:Penguin:2010/04/08(木) 12:51:30 ID:fx0Q1ZmL
> 前スレのはIDEのドライバの出来に影響されるって話だね。

コントローラ次第、という話であって、ドライバの出来に限定した話ではないかと。
(ドライバも要素の一部ではあるが)

俺はSW RAIDの一番のメリットは可用性ではなく、
HW環境に依存しない、という点だと思ってる。
(経験上、停めずに使うという点ではむしろHW RAIDの方が有利)

HW RAIDの場合、万一コントローラが故障した場合、同じ機種を調達しないと
アレイの中身の読み書きができなくなってしまう。
(同じメーカーでも別機種だと大抵はアレイの完全互換を保証していない)
既に調達不能になっている場合はどーしようもない。
仮に予備が買ってあったとしても、一台故障したらもう「次」はない訳で。

SW RAIDなら、OSがLinuxである限り、HDDとして認識してくれりゃHWはなんでもOK。
取り敢えず適当なPCに取り付けてやれば、アレイの読み書きは可能になる。

非常時のことを考えると、この差は大きい。
ま〜結局は、運用コストの差、という話ではあるがw

141 :login:Penguin:2010/04/08(木) 19:15:49 ID:5/ctPl71
>>122
mdadmのmanページ、-eオプションのところにバージョン毎の違いが書いてある。
ストライピングに関する記憶は朧げだけど、メタデータはmdデバイスではなく、
コンポーネントデバイスに書き込まれるため、ストライピングの対象にならない。
はずなんだけど、自信がないな。
mdadmはdefault==0.90だけど、ディストロのパーティション管理では、
異なることがある。例えば、openSUSEはRAID1の場合は1.0だった。

142 :login:Penguin:2010/04/08(木) 20:27:51 ID:+Jfsgp79
だから並盛を安くするんじゃなくて、大盛りをもう少し安くて
特盛りをもっと安くすればいいんだよ。

どうせ客層なんて男ばっかりなんだから。

143 :login:Penguin:2010/04/08(木) 20:28:43 ID:+Jfsgp79
ごめんとしか言いようがない。

144 :login:Penguin:2010/04/08(木) 20:38:47 ID:P5Oyw2sf
男がみんな大食いだと思ったら間違いだ。

145 :login:Penguin:2010/04/12(月) 23:05:43 ID:AKilMbBg
>>142
よかったな
ttp://getnews.jp/archives/55557

146 :login:Penguin:2010/04/15(木) 20:38:03 ID:3rydDv6Y
>>130
亀レスで何だが、使用者が10人程度なら
可用性よりバックアップを優先すべきだと思うが

バックアップはしてるの?
サルベージしているなら怪しいと思ってるんだが。。。

147 :login:Penguin:2010/07/20(火) 11:37:42 ID:q/Lsg0js
raid1壊れますたorz

syslog↓になんかずらずら出てるんですが、意味わかりませんorz
http://loda.jp/vip2ch/?mode=edit&edit=432

半年ぐらいしか使ってないディスクなんですが物理的にイカレてしまったのでしょか?
Jul 20 10:35:11 orz kernel: [ 6174.320131] ata3.00: model number mismatch(略) あたりマトモでない気がしますが…
ディスクから異音とかはないです

よろしければアドバイスお願いします

148 :login:Penguin:2010/07/21(水) 20:36:37 ID:2+4uaJQ3
>>147
エラー出てるね
> ata3: SError: { 10B8B Dispar BadCRC LinkSeq TrStaTrns UnrecFIS }

下記サイトによれば、SATAケーブルor電源が怪しい

ttps://ata.wiki.kernel.org/index.php/Libata_error_messages#SATA_SError_expansion
>These bits are set by the SATA host interface in response to error conditions on the SATA link.
>Unless a drive hotplug or unplug operation occurred, it is generally not normal to see
>any of these bits set. If they are, it usually points strongly toward a hardware problem
>(often a bad SATA cable or a bad or inadequate power supply).

個人的には熱暴走とかもありうると思うけど


149 :login:Penguin:2010/07/21(水) 22:35:51 ID:AJuBZV4Q
>>147
こりゃ完全にケーブルだ。
もしSATAケーブルがノッチ無しなら、ケーブルの両端を洗濯バサミで一晩挟んどけ。
結構効く。

150 :login:Penguin:2010/07/21(水) 22:37:31 ID:At+yPwQO
こんなどうしようもない対策がなるほど効いてしまうだろうなぁと思える
SATAコネクタ仕様を考えた奴はケーブルで首吊って詩ねばいいのに

151 :login:Penguin:2010/07/22(木) 10:30:29 ID:ruiGCZGt
SATAケーブルで吊るなんて出来ないだろ…と, 思ってたら,
隣の国で, 携帯のケーブルで吊った還流スターが居るの思い出して
涙が出ちゃったじゃないかー!そんなこと言うなよ〜

後付けの抜け防止金具とゆーものが無かったっけ?

152 :login:Penguin:2010/07/22(木) 10:34:04 ID:jxrupwtP
>>149
「ラッチ」のことか?

153 :login:Penguin:2010/07/23(金) 15:40:37 ID:aflCmZfG
>>150
こんなんだしなあ
USBの方はケーブルにも認証試験を行うようになったのにな

http://pc.watch.impress.co.jp/docs/column/interface/20100722_382306.html
>この話は別に今に始まったわけではなく、Gen2の頃からこうした問題は出ていたが、SATA-IO自身はこれに関して特に動く予定は無いというか、
>たとえばコンプライアンステストを通った製品にロゴを付加するといったキャンペーンは(過去に販売したケーブルは使えない、と言っているのと同義語なので)
>むしろ相互運用性を損なう事になりかねないとしており、
>引き続きケーブルに関しては、ごちゃごちゃのままの環境が続くことになりそうである。

154 :login:Penguin:2010/07/23(金) 21:47:22 ID:czPuWn9X
>>148-153

みなさんアドバイスありがとうございます

SATAケーブルが怪しい件了解です

機械のフタ開けて
SATAケーブルのコネクタを確認してみることにします
今日はもうマンドクサwなので明日ぐらいにでも

ガシッとはめて直ったらいいなと期待しています
では〜

155 :login:Penguin:2010/07/23(金) 22:42:05 ID:MvgvZIr6
>>154
ガンバレ
syslogにハードディスクデバイス関連のタイムアウトが頻発したらケーブルを疑う癖をつけるんだ。
SATAケーブルとの約束だぞ。

156 :login:Penguin:2010/07/27(火) 20:40:58 ID:+DF9ERUV
お手数かけますが、教えてください。

Debianです。
現在、SATA HDD8台、ソフトRAID6で運用中,。
HDDはオンボ4ポート、PCI SATAカード4ポートです。

SATAカードをPCI-eのSAS6iRに交換して、8ポートともSATAカードから接続したいと思います。
最終的には、SAS6iRに8台接続してデータはそのままで元の状態に戻したいのです。
どういう手順で行えばいいのでしょうか?



157 :login:Penguin:2010/07/27(火) 20:49:11 ID:zh7Of8ZU
Debianもudevなんだからそのまま新カードに挿して
Grub入ってるのBIOSで一番にしとけばいんじゃねの?

158 :login:Penguin:2010/07/27(火) 23:29:08 ID:PZTE8ajp
>>156
ディスクが接続されてるコントローラを意識しなくてもokだと思うが。

俺の場合、

1.C3-800MHzのPCにPromise SATA300TX4にSATA HDD×3を接続し、RAID5アレイ構築
2.パリティ計算の余りの遅さに耐えかねて(CPUファンもぶっ壊れたし)GA-D510UDを導入
3.GA-D510UDのオンボードSATA(NM10統合ので2ポート, JMicronので2ポート)にHDDを4台接続
4.もう1台ディスクを足してオンライン領域拡張
5.オンボードSATAはホットスワップが効かないことが判明したのでPCIスロットにSATA300TX4を挿してHDDを繋ぎ替え

というステップを経て現在に至るが、繋ぎ替えてもすんなりアレイを認識してたぞ。

159 :login:Penguin:2010/07/27(火) 23:35:52 ID:CDEVG/fS
>>156
RAIDボードのBIOSからExpoprt JBODとかか?
PromiseだとJBOD利用でも必ずBIOSからUnitを作成しないとデバイスが認識しなかった。

160 :login:Penguin:2010/07/28(水) 00:58:03 ID:C+9PDLMA
Promiseは平然と「1台構成でもアレイ組まなきゃ見えませんから^^」とか言い出す基地害板だからな

161 :login:Penguin:2010/07/28(水) 09:01:33 ID:E6Ms9Bcd
HardRAIDカードって壊れたときの対処ってどーなんすか?

HDD2個でRAID1使ってた場合
復旧不可能?

162 :login:Penguin:2010/07/28(水) 11:42:36 ID:fYI1FyG/
何がどう壊れたかによって話が変わる
漠然と言われても

163 :login:Penguin:2010/07/28(水) 12:29:45 ID:esiaNd7h
>>160
HighPoint RocketRAID 2300とかは「1台でもアレイ組め」に加えて、
POSTの際に繋がってるディスクのデータを(アレイのメンバじゃなくても問答無用で)壊すけどな!

164 :login:Penguin:2010/07/28(水) 14:26:58 ID:lqUxMOoj
>>163
それ嘘だ。
イニシャライズせずにレガシーのまま使えばアレイ組まなくても使える。

165 :163:2010/07/28(水) 14:43:25 ID:esiaNd7h
>>164
1台でもアレイ組めは俺の記憶違いか。すまん。


166 :login:Penguin:2010/07/28(水) 17:14:44 ID:fXbebyC4
>>165
いやいや、結構はまりやすいよ。RAIDボードでのSingle DiskとJBODの設定は。
前者はハードディスクを消去するボードもあるし、後者もJBODでもUNITを作成しないとハードディスクを認識しない等。
俺もいろんなメーカーのRAIDボードメンテナンスしていたが今でもごちゃごちゃ。
一番楽なのはLinux SoftwareRAIDだな。

167 :156:2010/07/29(木) 19:45:06 ID:MQlBotXc
みなさんの言うとおり、SAS6iRを挿しそのままHDDをつなぎ替えて起動してみましたところ初めからHBAとなり、何もせずに移行できました。
ありがとうございました。


168 :156:2010/07/29(木) 22:21:04 ID:MQlBotXc
ベンチ計測してみた。
SAS6iR HDD8台(WD10EADS) ソフトウエアRAID6
hdparmでread測定したら、251MB/sだった。
たぶん遅い部類なんだろうな。

169 :login:Penguin:2010/07/29(木) 22:31:18 ID:hc5F77Bz
>>168
多分バス速度で頭打ち。

170 :login:Penguin:2010/09/04(土) 01:19:05 ID:XZAw0nxj
ttp://hellokitty68.main.jp/wiki/Linux_Software_RAID5

ここを参考にしてraid1からraid5へ移行する実験をしてるのですが、
echo raid5 > /sys/block/md0/md/level
の段でこけます。
-bash: echo: write error: デバイスもしくはリソースがビジー状態です
となります。
viしてもE667 : Fsync failedでやっぱり変更できません。
原因や対策をご存知の形はいらっしゃいませんか?
OSはCentOS5.5、Fedora13の両方で試しましたが同じような状況です。
環境はVM上です。

171 :login:Penguin:2010/09/04(土) 07:17:14 ID:w4DAMBkG
http://itpro.nikkeibp.co.jp/article/Keyword/20091106/340168/

そもそもそんなことが出来るのを今知った

172 :login:Penguin:2010/09/04(土) 11:47:48 ID:gxReY0uS
Fedora12の5→6はecho raiid6 で行ったがなぁ
addした後で
# mdadm --grow /dev/mdXn --raid-level 5 --raid-devices=3 --backup-file=どっか
で行かんかな

173 :login:Penguin:2010/09/04(土) 16:30:06 ID:RWU7tg0Q
>>170
情報が少なくてよくわかんない
とりあえず、以下のコマンドの実行結果を貼ってくれれば何かわかるかも

# cat /proc/partitions
# cat /proc/mdstat
# mdadm --detail /dev/md0


174 :login:Penguin:2010/09/04(土) 18:28:47 ID:PnMMuH/V
>>170
ちゃんとrootユーザで実行したか?
sudoで実行しても蹴られるぞ。

$ sudo -s

でrootになってもう一度実行してみて。

175 :login:Penguin:2010/09/04(土) 18:41:14 ID:XZAw0nxj
>>170です
参考にしていたサイトがSUSEを使ってやったようなので、
ためしにSUSE11.3で同じようにやったら問題なく出来ました。

実際にCentOSで500GBのRAID1を組んでるファイルサーバーを
将来的にRAID5で運用したいと思い実験をしています。
ですのでCentOSで出来るようになるのが目標です。

>>172
もうしわけないです。
--backup-fileオプションの使い方が良くわかりませんでした。
勉強します。

>>173
次のレスに貼り付けます。

176 :login:Penguin:2010/09/04(土) 18:45:24 ID:XZAw0nxj
# cat /proc/partitions
major minor #blocks name

8 0 8388608 sda
8 1 104391 sda1
8 2 522112 sda2
8 3 7759395 sda3
8 16 4194304 sdb
8 17 4192933 sdb1
8 32 4194304 sdc
8 33 4192933 sdc1
8 48 4194304 sdd
8 49 4192933 sdd1
9 0 4192832 md0


# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[2](S) sdc1[1] sdb1[0]
4192832 blocks [2/2] [UU]

unused devices: <none>

177 :login:Penguin:2010/09/04(土) 18:47:23 ID:XZAw0nxj
# mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Fri Sep 3 23:42:20 2010
Raid Level : raid1
Array Size : 4192832 (4.00 GiB 4.29 GB)
Used Dev Size : 4192832 (4.00 GiB 4.29 GB)
Raid Devices : 2
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Fri Sep 3 23:58:31 2010
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1

UUID : 5e7be737:36419030:20c51d1d:ba7d4872
Events : 0.2

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1

2 8 49 - spare /dev/sdd1

178 :login:Penguin:2010/09/04(土) 18:52:43 ID:XZAw0nxj
>>174
もちろんrootです。
今再確認してやってみましたがやはりrootでもダメでした。


# fuser /sys/block/md0/md/level

ってやっても結果が返ってこないから
プロセスが使ってるとかではないように思います。
それともfuserの使い方間違えてるのかなぁ・・・



179 :login:Penguin:2010/09/04(土) 20:45:43 ID:PnMMuH/V
>>178
ブロックデバイスの3重RAID1に変換してから、3デバイスのRAID5に変換してみて。

180 :login:Penguin:2010/09/04(土) 22:58:56 ID:XMPA/Vxp
>>171には、カーネル2.6.30以降とか書いてあるのだが
CentOSは2.6.18とかだろ?
Fedora13で不可(>>170)というのはわからんけどね。

正確にどのバージョンから可能になるのか、俺は知らないが。

181 :login:Penguin:2010/09/05(日) 00:04:30 ID:HUBnDTBu
>>179
# mdstat --grow /dev/md0 -n 3
をやるってことですよね?

その後、
--glow -l 5とかやってもダメでした。
例のファイルへのechoも相変わらず蹴られます。

182 :login:Penguin:2010/09/05(日) 13:59:40 ID:ca0DYFqh
>>180
年末〜来年明け頃リリースされるであろう
EHEL6(Kernel2.6.32)ベースのCent6待ちと勝手に予測

183 :login:Penguin:2010/09/05(日) 23:51:45 ID:0TzuHuxG
>>181
残念ながら、>>180の指摘のとおりCentOS5のカーネルが古くてダメっぽい

CentOS5の環境にRHEL6のカーネル(2.6.32)だけを(無理やり)入れて、
2.6.32で起動すればRAID1->RAID5に変更できた。

RHEL6のカーネルは↓のSRPMからCentOS5上でビルドしたけど超面倒だった
ttp://ftp.ne.jp/Linux/distributions/redhat/ftp.redhat.com/rhel/beta/6/source/SRPMS/kernel-2.6.32-19.el6.src.rpm

データのバックアップを取ってRAIDアレイを作り直した方が安全&確実


184 :login:Penguin:2010/09/06(月) 18:34:36 ID:tFSr8hS+
Fedora13(今は2.6.34)で出来ないのがホント不可解だよね
metadata 0.90が悪いのかと思ったけど手元ではそんなこと無いし

185 :login:Penguin:2010/09/06(月) 21:02:06 ID:mrESGec/
fedora13のインストーラーのカーネル(2.6.33.3-85.fc13.x86_64)でも
普通にRAID1→RAID5に変更できたよ
>>170のfedora13で出来ないってのは何かの間違いだと思う


186 :login:Penguin:2010/09/08(水) 11:21:02 ID:4n0gc/4A
>>170です

>>182
いや、そうならそうで早く出て欲しいですね。。。

>>183
ビルドしたってことはrpm -ivh ではないんですよね?
カーネルの構築はLinuxを弄り始めた頃に挫折して、
それ以来一度もやってなくて苦手意識ありありです。
もしよければさわりだけでも教えていただけますか?
ググったところ、ここが参考になりそうとは思ったのですが。
ttp://www.atmarkit.co.jp/flinux/rensai/linuxtips/a113rebuild.html

>>184>>185
うーん、もしかしたら僕の作業に間違いがあったかも知れません。
もう一度やってみます。


SUSEインストール→Raid5に変更→CentOSインストールしなおし
で出来たにはできたけど、これはちょっと非現実的ですよね。
目標は現在のOSのままやりたいので。
その点では>>183さんのように
Raid変更のためだけにカーネルだけ変えて起動するっていうのが
いいような気がしました。

187 :login:Penguin:2010/09/09(木) 00:31:31 ID:uO+QGL4T
>>186
knoppixみたいなLiveCDは?
一応手順も貼っとくけど、自己責任でヨロ

0. kernel-2.6.32-19.el6.src.rpmをダウンロード
(/root/kernel-2.6.32-19.el6.src.rpm)

1. ディレクトリ準備
# cd /usr/src/redhat
# mkdir BUILD RPMS SOURCES SPECS

2.SOURCESディレクトリでSRPMを展開(何故か、rpm -iで入れようとしたらCRCエラーと言われたので)
# cd /usr/src/redhat/SOURCES/
# rpm2cpio /root/kernel-2.6.32-19.el6.src.rpm | cpio -id

3. config-genericを編集
# vi config-generic
→以下の2行を追加
CONFIG_SYSFS_DEPRECATED=y
CONFIG_SYSFS_DEPRECATED_V2=y

4. kernel.specをSPECSディレクトリに移動&編集
# mv kernel.spec ../SPECS/
# cd ../SPECS/
# vi kernel.spec
→2箇所変更
 コメントアウトされている「%define buildid〜」のコメント解除し、適当に変更(例:%define buildid .centest)
 「%define signmodules 1」を「%define signmodules 0」に変更

つづく

188 :login:Penguin:2010/09/09(木) 00:38:48 ID:uO+QGL4T
>>187のつづき
5. パッケージビルド(--targetは適宜変更)
# rpmbuild -bb --target=i686 --without kdump --without perf --without perftool --without kabichk --without fips --without debuginfo --without dracut --without vdso_install kernel.spec
→エラーが無ければ/usr/src/redhat/RPMS/i686/にカーネルパッケージが出来る

6. カーネルパッケージを強制インストール
# cd /usr/src/redhat/RPMS/i686/
# rpm -ivh --nodeps kernel-2.6.32-19.centest.i686.rpm
 ちなみに、"--nodeps"無しの場合のエラー
kernel-firmware >= 2.6.32-19.centest は kernel-2.6.32-19.centest.i686 に必要とされています
grubby >= 7.0.4-1 は kernel-2.6.32-19.centest.i686 に必要とされています
mkinitrd >= 6.0.61-1 は kernel-2.6.32-19.centest.i686 に必要とされています
udev < 145-11 は kernel-2.6.32-19.centest.i686 と競合します。

7, 初期RAMディスク再作成
テストした環境では、この時点で作成されている初期RAMディスクが異常で起動できない
(mkinitrdの依存無視してるから当たり前?)
展開してみると、sd_modが入っていなかった
sd_mod及び依存ドライバを含めて初期RAMディスク作り直し

# mkinitrd -f --builtin=ehci-hcd --builtin=ohci-hcd --builtin=uhci-hcd --with=sd_mod --with=scsi_tgt --with=crc-t10dif /boot/initrd-2.6.32-19.centest.i686.img 2.6.32-19.centest.i686
(↑4で設定したbuildidの合わせてファイル名とカーネルは適宜変更)

VMware Workstation 7の仮想マシンは上記でOK。
ハードウェア構成で必要なドライバは変わるので、事前に2.6.18のカーネルが起動した状態で
ロードされているドライバを確認しておき、必要に応じて初期RAMディスクに含めること。

8. 再起動→2.6.32で起動OK


189 :login:Penguin:2010/09/11(土) 13:37:57 ID:ylGEDvFt
>>187
本当に丁寧に教えていただいてありがとうございます。
本当に面倒な作業なんですね。
今夜にでも試してみようと思います。


fedora13のLiveCDを使って/sys/block/md0/md/level
の書き換えが出来ました。
正確には/sys/block/md127/md/levelです。
LiveCDで起動したらmd127にされてしまいました。
そのままecho raid5やって、
CentOSで再起動。
再起動後にもlevelファイルの中身はraid5だったので、
growしてみたところうまくいきました。
で、md127のままなのが気に入らなかったので
#mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1
#mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1
#mdadm --misc --stop /dev/md127
#mdadm -C /dev/md0 -l 5 -n 3 /dev/sdb1 /dev/sdc1 /dev/sdd1

と、これでmd0になりました、データも失っていません。
これ以外の方法が思いつかなかったんですが、
もっとスマートな方法があったら教授願いたいです。
mdadmまだ使いこなせてません。

カーネルが古くてもmdadmのバージョンが条件を満たしていれば
できるみたいですね。

みなさん、親身になって答えてくださりありがとうございました。

190 :login:Penguin:2010/09/11(土) 13:46:22 ID:D+LL5OKu
--super-minor=0 --update=super-minor

191 :login:Penguin:2010/09/14(火) 21:32:42 ID:Oy6zCGq+
-l1したら/bootにする場合でRAIDを理解しないローダー使うときは--metadata=0.90指定しろよ、って言われたわ
>>116-122

192 :login:Penguin:2010/09/17(金) 23:06:24 ID:QPHXo1u7
チラ裏メモ

Fedora12 x86_64(mdadm 3.0.3-2)だと7台構成のRAID6→8台構成にreshapeしようとすると

mdadm: Need to backup 120K of critical section..
mdadm: /dev/md1: failed to save critical region

でエラー
Fedora13 x86_64(mdadm 3.1.2-10)にupgradeしたら

mdadm: Need to backup 120K of critical section..
(黙ってreshape開始)

で成功

mdadm 3.0.3-2のままでもRAID5の6台→7台の変更と7台のRAID5→7台のRAID6はできたので
3.0.3-2には半端に不具合が残ってる気がする

193 :login:Penguin:2010/09/20(月) 08:16:15 ID:YPDhyYqG
WD20EARSでRAID6組もうと思うんだけど、AFTってなんか関係してくるん?

194 :login:Penguin:2010/09/21(火) 01:48:27 ID:MEa3sArJ
>>193
http://hibari.2ch.net/test/read.cgi/jisaku/1279640392/475

kernel が対応していれば問題なしかと

195 :login:Penguin:2010/09/21(火) 19:49:57 ID:sGME08sR
>>193
ハードウェアRAIDカードの場合、一部のカードで不具合報告あるから要確認
http://hibari.2ch.net/test/read.cgi/jisaku/1275144136/108


196 :login:Penguin:2010/09/23(木) 10:27:21 ID:aw/haffN
>>193-194
回答ありがと。

SAS6/iRでソフトRAID6なんだが報告なさげだから人柱なのかな?

197 :login:Penguin:2010/09/24(金) 20:46:05 ID:a9oJcDud
>>195
あ、なつかしい。俺がまとめた奴だw
引用ありがと。

198 :login:Penguin:2010/10/01(金) 15:40:17 ID:lKU+sDuG
CentOS 5.4でHDD3台をRAID5でひとまとめにして使っていました。
最近になって容量が足りなくなってきたので、
同じ容量のHDDを1台追加し、領域拡張しょうとしているのですがうまくいきません。

http://liliumrubellum.blog10.fc2.com/blog-entry-181.html

ここの手順通りに進めたのですが、最後にファイルシステムを拡張するところで

# resize2fs -p /dev/md0
resize2fs 1.39 (29-May-2006)
resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0
Couldn't find valid filesystem superblock.

このようなエラーメッセージが表示されます。
マウントしているのがいけないのかと思い、umountを実行しましたが、
resize2fsのエラーメッセージは変化ありませんでした。

どうしたらうまく拡張できるのでしょうか?

ちなみに、マウント先は/homeで、アンマウント方法はumountコマンドだけでなく、
/etc/fstabを書き換え、起動時からこのデバイスをマウントしないようにすることも試しましたが、
結果は変わりませんでした。

199 :login:Penguin:2010/10/01(金) 17:10:57 ID:iIUT3HXi
Centの5.4辺りのkernelとmdadmのバージョンで
Online RAID Level Migrationってできるんだっけ?

200 :198:2010/10/02(土) 09:00:00 ID:l0eD4IK+
参考にしたサイトには書かれてないみたいですが、
lvextend -l 89425 RAID5_01/home
で論理ボリュームを拡張したあと
e2fsck -f /dev/RAID5_01/home
を実行すれば、追加HDD分の容量が増えました。
マウントしていない状態で行ったので、アンマウント必須かはわかりません。
次やるときはマウントせずに試してみます。

あと、/etc/mdadm.confに
num-devices=(数字)
という記述がなかったので、今回は何も書き換えなかったのですが、
特に問題なく動いているみたいです。
ディストリによってはこのファイルの書き換えは必要ないのでしょうか。

とにかく、そんなわけで自己解決しました。お騒がせしました。

201 :198:2010/10/02(土) 10:24:36 ID:l0eD4IK+
誤: 次やるときはマウントせずに試してみます。
正: 次やるときはマウントしたまま試してみます。

でしたorz

202 :login:Penguin:2010/10/02(土) 10:30:33 ID:QA6hlIsa
>>200
リンク先のページを開こうとするとブラウザが固まるんで判らんのだが、要するに

自分とこのシステム構成(RAID + LVM + ext3)を把握しないまま、
RAID + ext3のシステムについて書いたブログエントリをそっくりそのまま真似して
「うまくいかない!」

……というオチ?

203 :198:2010/10/02(土) 16:57:53 ID:l0eD4IK+
>>202
だいたいそんな感じです。
さすがに自分のところの構成くらい把握してるつもりですが、
どこ見てもこのやり方で書いてあったんで、
ほとんどの構成で通用するやり方だと思い込んでいました。

さらにエラーメッセージが

resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0

なので、これを読んで「LVM使ってるからやり方が違うんだ」
という発想にたどり着けず、途方にくれてました。

204 :login:Penguin:2010/11/03(水) 14:54:37 ID:EB+4MiCj
最近のマザーボードはRAIDカード搭載の物が多いですけど
Linuxで使うならソフトウェアRAIDの方が無難ですか?

205 :login:Penguin:2010/11/03(水) 15:02:33 ID:+mHxq1R3
>>204
いえす

206 :login:Penguin:2010/11/03(水) 15:58:28 ID:aR2r0zLp
>>204
×最近のマザーボードはRAIDカード搭載の物が多いですけど
○最近のマザーボードはRAID機能搭載の物が多いですけど

ソフトウエアRAIDだとハードウエア(マザーとかボードとか)変えてもコマンド打てば復活する
移し変え時の別のハードウエアへの接続位置(順)は適当でいい
1,2,3,4→2.4.1.3としてもちゃんと復活してくれる

ハードウエアRAIDだとハードウエアを変えるとデータがあるのに見えない
場合によっては消える


207 :login:Penguin:2010/11/03(水) 16:29:41 ID:EB+4MiCj
>>205,206
ありがとうございます
ソフトウェアRAIDにしておきます

208 :login:Penguin:2010/11/03(水) 16:34:52 ID:3a2ffMIU
>>206
「最近のマザーボード」とやらに載ってるようなのは
「ハードウェアRAID」ですらない。

>>206の書きようだとハードウェアRAIDには
何のメリットもないように見えるなw
たぶんハードウェアRAIDを使ったことがないんだろうが。

209 :login:Penguin:2010/11/03(水) 21:15:46 ID:KClY6dlN
マザボのRAID機能をどうこう言ってる相手に、ハードウェアRAIDのメリットも糞もないわw
メリットがあるとして、それを得るには幾ら投資すりゃいいのさ
個人レベルはもちろん、業務レベルでも一部を除けば、ソフトウェアRAIDで充分だよ

210 :login:Penguin:2010/11/03(水) 23:07:53 ID:uttDJDAa
費用対効果で考えればいい
同じ効果を安くできるならそれでいいって考え方でいいじゃん
人それぞれだけど

211 :login:Penguin:2010/11/03(水) 23:19:18 ID:uttDJDAa
ちなみにオレはソフトウエアRAID派
馬鹿なんで、USBメモリ起動で8台 RAID6で運用しています

USBメモリのイメージを別でとってあるんでUSBメモリが壊れても無問題


212 :login:Penguin:2010/11/04(木) 00:42:42 ID:A0zlTMZq
>>209
>>208の指摘は
(1)>>206は疑似HW RAIDとHW RAIDをゴチャマゼにしている
(2)HW RAIDにはSW RAIDとは違うメリットがある
という別々の二点なのだが?

213 :login:Penguin:2010/11/04(木) 00:45:21 ID:A0zlTMZq
(2)に関しては
>>206の書き方では初心者に誤解を与える
という指摘だな

214 :login:Penguin:2010/11/04(木) 03:20:39 ID:BL47owsD
>>212
擬似HW RAID用ドライバ開発されてなかったっけ?
ちょっとだけ負荷軽くなる奴

215 :login:Penguin:2010/11/04(木) 14:46:16 ID:1Zlxj7jT
SW RAIDの欠点はRebuildやResync時にI/Oバス帯域を食いまくるところか。

>>214
擬似HW RAIDは dmraidドライバでIntel/nVidiaチップセット向けRAID対応だったかも。

216 :login:Penguin:2010/11/05(金) 21:53:06 ID:ZjVbxW85
いろんな用途と複合的に使うにはHW RAIDが有利


217 :login:Penguin:2010/11/05(金) 22:48:44 ID:hdBmVs+M
SCSIのRAIDは信用できるが
IDE/ATA/SATAのRAIDはなんか信用できない
SATAならむしろOSの機能のソフトRAIDを選びたい

218 :login:Penguin:2010/11/05(金) 23:13:14 ID:9wgeowow
「なんか」とか

219 :login:Penguin:2010/11/05(金) 23:15:05 ID:QtPoCyoP
スカ爺の言うことだし

220 :login:Penguin:2010/11/06(土) 00:35:09 ID:Qew0bHFo
チッ、うっせーな…反省してま〜す

221 :login:Penguin:2010/11/06(土) 05:06:40 ID:6aJUodpE
>>211
フラッシュメモリをRAID5/6で使うと、あっという間に寿命が来るぞ。
バックアップ取ってあるなら、RAID0で使った方が寿命長いんじゃないか?

222 :login:Penguin:2010/11/06(土) 21:20:03 ID:/PdZ4pGk
フラッシュメモリは起動用でHDDは8台でRAID6ですよ
コレダメならESXやESXiのUSBメモリ起動もダメってことじゃ?

223 :login:Penguin:2010/11/08(月) 22:40:45 ID:/LP5nvaW
>>222
swapは?

224 :login:Penguin:2010/11/10(水) 20:17:26 ID:fV4mstBN
メモリ2Gしかないけど、作らない。


225 :login:Penguin:2010/11/12(金) 21:32:47 ID:10OTEzMQ
こんばんは。

Xenserver5.6(Centosがベース)上で、Windows2008R2をファイルサーバ
として動かしてます。

そして、ホスト側にてディスク2TB×4本でRAID10を組んでます。
ですが、ゲスト側に割り当てれるHDDイメージが1つあたり最大2TBまでのため、
しかたなく、2TBイメージ×2つを割りあえてて、ファイルサーバを動かしてます。

そのため、2008R2サーバ上ではディスクが2つ見える状態ですが、
使いやすくするために以下いずれかの方法で4TB×1にしたいのです。

 1.スパンボリューム
 2.RAID0

のいずれかでまとめるならば、1、2でパフォーマンスは異なったりするのでしょうか?
(スパンボリュームのほうは試しましたが、データがあるのであまり変更したくないです)

もし、知ってる方がいらっしゃいましたら教えていただけないでしょうか。

226 :login:Penguin:2010/11/13(土) 07:07:21 ID:bwqwb+4h
>>225
XenServerのことは知らんが、ネタは物理ドライブじゃなくて
ディスクアレイに置いてあるイメージファイルなんだろ?

同一アレイに置いてあるイメージファイルをRAIDをしても高速化するとは思えんから、
普通にスパンボリュームでいいんじゃね?

227 :login:Penguin:2010/11/13(土) 10:49:54 ID:RbGidMq7
>>226
試してみました。書き忘れましたがベースのRAID10はソフトウェア(mdadm)です

<条件>
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
OS : Windows Server 2008 R2 Datacenter Edition (Full installation) [6.1 Build 7600] (x64)

★JBOD
Sequential Read : 121.461 MB/s
Sequential Write : 95.109 MB/s
Random Read 512KB : 20.740 MB/s
Random Write 512KB : 34.521 MB/s
Random Read 4KB (QD=1) : 0.516 MB/s [ 126.0 IOPS]
Random Write 4KB (QD=1) : 0.881 MB/s [ 215.1 IOPS]
Random Read 4KB (QD=32) : 1.068 MB/s [ 260.6 IOPS]
Random Write 4KB (QD=32) : 1.073 MB/s [ 262.0 IOPS]

Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5)
Date : 2010/11/12 22:56:08

228 :login:Penguin:2010/11/13(土) 10:50:35 ID:RbGidMq7
>>226
★RAID0
Sequential Read : 66.657 MB/s
Sequential Write : 82.209 MB/s
Random Read 512KB : 20.065 MB/s
Random Write 512KB : 42.841 MB/s
Random Read 4KB (QD=1) : 0.563 MB/s [ 137.4 IOPS]
Random Write 4KB (QD=1) : 2.608 MB/s [ 636.8 IOPS]
Random Read 4KB (QD=32) : 1.232 MB/s [ 300.8 IOPS]
Random Write 4KB (QD=32) : 2.544 MB/s [ 621.2 IOPS]

Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5)
Date : 2010/11/12 23:19:09

★単体
Sequential Read : 225.816 MB/s
Sequential Write : 106.714 MB/s
Random Read 512KB : 30.901 MB/s
Random Write 512KB : 59.968 MB/s
Random Read 4KB (QD=1) : 0.694 MB/s [ 169.5 IOPS]
Random Write 4KB (QD=1) : 1.636 MB/s [ 399.5 IOPS]
Random Read 4KB (QD=32) : 1.336 MB/s [ 326.3 IOPS]
Random Write 4KB (QD=32) : 1.730 MB/s [ 422.4 IOPS]

Test : 1000 MB [D: 0.0% (0.2/1859.2 GB)] (x5)
Date : 2010/11/12 23:28:41

229 :login:Penguin:2010/11/13(土) 10:51:44 ID:RbGidMq7
>>226
結果、何もしないのが一番よいことがわかりました。
RAID0だとすごく遅くなり、JBODだと単体の半分ぐらいです。
(予想外の結果でした)

単体のドライブ2台を同時にベンチするとJBODぐらいのスピードに
なったので、恐らく書き込みなど分散→さらにRAID10にて分散など
無駄な感じとなって、落ちまくってるんだと思います。

#なんどやっても、同じでしたorz

230 :login:Penguin:2010/11/14(日) 00:17:04 ID:UO38LBbx
別にストレージ用のサーバ立ててiSCSIでマウントする
とかが当世風じゃね?
いろいろと融通が利くし

231 :login:Penguin:2010/11/14(日) 01:58:03 ID:IF1j6YbV
>>230
iSCSIでのディスク利用は考えてるのですが、ネットワーク周りを
強化してないので、とりあえずはローカルディスクで外部NASに
バックアップするような構成です。

iSCSI使うなら、ライブマイグレーションを使うことが目的になりそう
ですので、ホスト側を冗長しないとメリットなさそうですし、ディスク側
や経路上のNW機器も冗長しないと怖いです。
(ゲスト8台動いてますが、その最中にディスクが切り離されると
思うとゾッとします)

iSCSIを試す分には全然大丈夫なのですが、個人運用で本格利用
するにはコストがかかりそうなので今のところ見送ってます。

#ホスト側が落ちたら同じなんですけどね。でも、冗長化してないiSCSI
 利用よりかはトラブルが発生しにくいかなと思ってます。

#職場ではesxiを入れたブレードサーバとかで構築してますが。
 (もちろんディスクは外部で)

232 :login:Penguin:2010/11/15(月) 19:22:57 ID:gNCbtYKe
質問いいですか
win7とubuntuあたりでRAID構成を共有したいのですが、できますかね

233 :login:Penguin:2010/11/16(火) 11:08:25 ID:HeKRLUlf
>>232
一台でマルチブートって事?
ならオンボのRAIDドライバはどちらでも使える。

234 :login:Penguin:2010/11/16(火) 21:29:52 ID:JnnqGF7a
test


235 :login:Penguin:2010/11/16(火) 21:33:44 ID:VWoXCYbw
DELL SAS6/iR RAIDカード
で、
WD20EARS-00MVWB0
で、
ソフトRAID6いけるかな?

236 :login:Penguin:2010/11/16(火) 22:39:33 ID:Szhcfl18
8台くらいで構成したmdのraid5or6or10のベンチマークするとどの程度パフォーマンスが出るもんです?
そのうち自分でも試すつもりだけど参考用のデータとかあったりします?

237 :login:Penguin:2010/11/17(水) 21:34:48 ID:j19cjkTS
エスパー
RAIDするメディアにもよる

238 :login:Penguin:2010/11/20(土) 19:44:31 ID:cFLVa63Z
速度はあんまり出ないよ
シーゲートの7200回転1.5TB x 6 のRAID6
hdparm -ft /dev/md1
/dev/md1:
Timing buffered disk reads: 418 MB in 3.00 seconds = 139.15 MB/sec

239 :login:Penguin:2010/11/21(日) 00:09:27 ID:1IPGonEa
骨董品の幕の6L(250GB)*8本のRAID6で

/dev/md1:
Timing buffered disk reads: 874 MB in 3.00 seconds = 291.07 MB/sec

250〜300弱の間でふらふらする


240 :login:Penguin:2010/11/21(日) 11:17:38 ID:zCTXq4aL
情報サンクス。
今4台のRAID5でkvmのホストやらせてるがゲスト7つ起動するとdisk i/oで詰まってる感じがするので台数増やしたら改善できないかなと思ったのだけれど。
cpu負荷との兼ね合いもあるけどチャレンジしてみようかと思います。

これでkvm自体がボトルネックだったら泣けるなあ。

241 :login:Penguin:2010/11/21(日) 22:40:45 ID:jxLFhocQ
>>240
ゲスト毎に違うHDD用意するのが幸せになれるんじゃないの?
って、7台+システム1台はさすがに厳しいな

242 :login:Penguin:2010/11/28(日) 19:06:34 ID:gL5KRMCh
>>116
激しく遅レスだけど、WD20EARSでmd RAIDやるならポイント2つ押さえておけば大丈夫。

http://green-rabbit.sakura.ne.jp/blog/2010/11/27/2191/

- RAIDのデータ開始位置をセクタの区切りに合わせる
- LVMのデータ開始位置をRAIDのチャンクサイズに合わせる

ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
(パーティションはRAIDディスクに対してLVMで管理)

243 :login:Penguin:2010/11/28(日) 22:00:44 ID:RmwuvbbY
6台のraid6をmdadmで構築していました。
1台FailになったのでHDDを交換して復旧させようとしたら
次々とHDDがFailになり復旧できなくなりました。

これってもうダメなのでしょうか?
dmesg見るとHDD自体は認識しているようなのですが。


244 :login:Penguin:2010/11/28(日) 22:25:22 ID:5Q0sCNVi
それってコントローラーかマザーボード/CPUが死んでるんじゃ…

245 :login:Penguin:2010/11/28(日) 22:27:33 ID:OW3cc9+0
同ロットのHDDで揃えてたんだろ。良い教訓。

246 :login:Penguin:2010/11/28(日) 22:31:24 ID:Tsm3YN7+
>>242
linux初心者にわかりやすくコマンドください
WD20EARS8台でRAID6にしたいのです

247 :login:Penguin:2010/11/28(日) 22:51:00 ID:RmwuvbbY
すみません。ちょっとパニくってましたw

mdadm --assemble --force /dev/md0
したら、とりあえず4台で再構築が始まったみたいです。

>>245
全部同じではないけれど半分くらいは同じだったかも。


248 :login:Penguin:2010/11/28(日) 22:54:14 ID:ZKkrEg8g
>>246
リンク先のエントリを読んで解らんヤツにれいどろくなど宝の持ち腐れである!

アレが解らん人間にディスクがお釈迦ってデグったアレイを復旧できるとは思えんなw

249 :login:Penguin:2010/11/28(日) 23:25:31 ID:Tsm3YN7+
キモは2つか

250 :login:Penguin:2010/11/28(日) 23:34:15 ID:hDElDxYb
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。

どうやるの?

251 :login:Penguin:2010/11/28(日) 23:57:43 ID:ZKkrEg8g
>>250
パーティションを指定する代わりにデバイス全体を指定すればいいだけ。

252 :login:Penguin:2010/11/29(月) 00:16:37 ID:5KK7FVso
パーティションタイプでfd(Linux RAID Auto Detect) を使う必要があるのかと思い、
1ディスク1パーティションの時でもパーティションを切っていたよ。。。。

253 :login:Penguin:2010/11/29(月) 00:36:55 ID:C+YWZRYM
>>252
/dev/sda1とかパーティションを切ったのに

mdadm --create -n 4 -l 5 /dev/sd[abcd]

でパーティションテーブルを吹っ飛ばす、というのはお約束なドジの一つだよねorz


254 :login:Penguin:2010/11/29(月) 05:05:30 ID:hkKkYSLf
でも、微妙な容量差を揃えられるように
1領域でもパーティションにした方が良いんじゃないかね。

255 :login:Penguin:2010/11/29(月) 20:05:55 ID:BBunKmhs
>>254 確かに。そのあたりは、下記でも触れられていますね。
https://raid.wiki.kernel.org/index.php/Partition_Types

個人的には、交換用に新しく買ったディスクのサイズがちょっと小さかったら、
そのとき対処すれば良いんじゃないかなー、と思ってます。

mdadm --grow --size= でサイズ変更するだけなので。

あ、RAID1以外だと時間かかりそうだし障害時にやるのはあれだから、
--create するときにあらかじめ --size しておけば良いんじゃないのかなー。

256 :login:Penguin:2010/11/29(月) 20:37:16 ID:NGnnNc2T
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
6台でRAID6とかでも関係ない?

257 :login:Penguin:2010/11/29(月) 20:57:34 ID:BBunKmhs
>>256
関係ないよ。

>>255でも書いたけど、RAID6ならRAID構築するときにサイズ指定しておくと良いよ。
(サイズは HDD の容量から 100MB程度引いておく)

% mdadm --create --size=サイズ(ディスク1台当たりに使用するサイズ[kb],64の倍数)

そうじゃないとHDDこけて交換しようと思ったときに、
同一モデルHDDでも容量が少なかった場合に困る。

258 :login:Penguin:2010/11/29(月) 20:59:28 ID:rjjhbUoR
容量ちょっとだけ大きいの買ってくるだけでいいやん

259 :login:Penguin:2010/11/29(月) 21:03:21 ID:BBunKmhs
>>258
でも、2TB使ってそういう状況になったら、2.5TB とか 3.0TBとかになって、GB単価違いすぎて泣ける気が

260 :login:Penguin:2010/11/30(火) 09:57:13 ID:366LkoAx
結局後から面倒事が出てきて対処対処
パテ切ってるのと変わらんなw

261 :login:Penguin:2010/11/30(火) 22:54:26 ID:xrENs+QS
WD20EARSを8台買ってきた。
組む時間がないから放置することになるが、
正月休みぐらいに対処しようかと。
ソフトウエアRAID6に挑戦予定。

262 :login:Penguin:2010/11/30(火) 23:52:09 ID:leruRje6
>>260
パーティションきるのに比べたら、RAID構築時にオプション1個つけるだけのほうが楽だとおもうのだけれども。

切りたいのなら切れば良いと思うけど、物理セクタサイズ4096のHDDが何台かある場合、
ただ手間なだけな気がする。

263 :login:Penguin:2010/12/05(日) 13:14:20 ID:S0mL6ghv
LinuxのソフトウェアRAIDって、起動ディスクにはRAID0か1しか使えない?
ディスク丸ごとRAID(RAID5)を組もうと思ったけど、
その場合は起動ディスクは別に用意しないとダメでしょうか。

264 :login:Penguin:2010/12/05(日) 13:39:00 ID:VXlrPkOO
>>263
RAIDじゃなくて、ブートローダーの話だな
ttp://grub.enbug.org/LVMandRAID
>Version 1.97 and older only support RAID-0, RAID-1, and RAID-5. Version 1.98 adds support for RAID-4, RAID-6, and RAID-10.

265 :263:2010/12/05(日) 14:24:33 ID:S0mL6ghv
早速ありがとうございます。

grubが対応してればOkなんですね。
Cent5.5は0.97の模様。。。
近々出ると言うCentOS6を選択肢に入れたとしても、RHEL6が0.97。
ttp://distrowatch.com/table.php?distribution=redhat

ディスク丸ごとは諦めて、パーティション毎のRAIDにしようかと思います。


266 :263:2010/12/05(日) 14:35:29 ID:S0mL6ghv
すみません、読み間違えてました。1.97以前でもRAID5まではOkですね。


267 :login:Penguin:2010/12/05(日) 14:48:47 ID:jj4aKBuD
おーい、そりゃsince version 1.95の話だぞ
0.9xのGRUB Legacyと1.9xのGRUB 2を一緒にしちゃいかん

268 :263:2010/12/05(日) 15:04:53 ID:S0mL6ghv
度々すみません。ありがとうございます。

もっときちんと調べてから書き込まないと、ダメですね。。。。


269 :login:Penguin:2010/12/05(日) 23:43:26 ID:JVWK3etV
Fedora13/14だとgrubとは別にgrub2ってパッケージあるね

270 :login:Penguin:2010/12/21(火) 23:25:16 ID:/W3bFROY
アフォな質問だけど誰か教えて。
遊び用で富士通のRX100 S6ってのが手に入った。
BIOS に RAID の項目あるし、ブート時に LSI MegaRaid とか表示される
から SATA のハードウェアRAID だと思って、BIOS でミラーリングにして
CentOS 入れてからディスクをぶっこ抜いてみたら死んだw
調べるとどうやらフェイクRAIDってやつらしい。
dmesg 見ると dmraid で動いてるみたいだけど、フェイクRAIDって
片肺では動かないもの?

遊び用じゃない 3com のハードウェアRAIDだと障害発生時には
ホットスワップでディスク交換すればリビルドが自動で走るんだけど、
その感覚では使えない?

271 :login:Penguin:2010/12/21(火) 23:54:25 ID:dF/NfV63
こんなレベルのがハードウェアRAIDがどうこうソフトウェアRAIDがどうこう語れるのか・・・
いい時代だなぁ

272 :login:Penguin:2010/12/22(水) 00:04:06 ID:qSGG/Y5L
3com?3ware?

273 :login:Penguin:2010/12/22(水) 02:57:06 ID:7dCZswWv
>>270
RX100 56がホットスワップに対応してるかどうかをなぜ真っ先に調べんのだ。
>フェイクRAIDって 片肺では動かないもの?
片肺で動かなければRAIDの意味がないではないか。それとホットスワップ対応は別問題。

>>271
ディスクが安くなったからねー。


274 :login:Penguin:2010/12/23(木) 09:37:49 ID:KkUvrI/e
>>273
下らん質問にレスありがとう。
WEBにはRX100 S6のホットスワップの情報はないんだけど
ひとつ前のRX100 S5や他の3400チップ積んだ製品では
ホットスワップできてるみたいなんで、S6でもいけるかと思って。

275 :login:Penguin:2010/12/26(日) 01:51:39 ID:QJg0e+k3
>>257
新品2TB8台でRAID6しようとしたんだが、一番容量が小さいHDDってどうやって知るのかな?
サイズ指定(1664000000KBまで下げても)しても
largest drive (/dev/sdb) exceeds size (1664000000K) by more than 1%
と出ます
hdparm -I /dev/sd*
で調べても
同じセクタ数、同じdeviceサイズ(MB)なんでよくわからないんですが?


276 :275:2010/12/26(日) 11:11:24 ID:xJ7Ntxe/
自己解決
-zの値を大きくすればいいのね

WD 2TB
mdadm: /dev/sdb is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdc is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdd is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sde is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdf is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdg is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdh is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdi is smaller than given size. 1953513344K < 2000000000K + metadata

当たり前かもしれんが8台とも同じだった


277 :login:Penguin:2010/12/26(日) 14:55:25 ID:xJ7Ntxe/
マウントまでいったんで、ベンチとってみた

ソフトウエアRAID6
WD20EARS-00MVWB0 *8
md0
READ 平均 388.27MB/s
WRITE 平均 159.583MB/s

まぁまぁだね

278 :login:Penguin:2010/12/27(月) 22:30:26 ID:2q1P0bSa
同じドライブを4台でmdadmのRAID5だが
Timing buffered disk reads: 996 MB in 3.00 seconds = 331.61 MB/sec

8台もある割にそんなでもないような…?

279 :login:Penguin:2010/12/28(火) 03:28:15 ID:HcJKc7c2
アホな質問ですが
mdraidで不良マーク→再起動→自動removeされちゃったデバイスを
--addして新たに書き直すんじゃ無くて
不良じゃなかった事にしてしれっとアレイメンバに戻す手ってありますか
Failったのは論理エラーでデバイス内データもHDDそのものの物理故障も無いって仮定で

280 :login:Penguin:2010/12/28(火) 05:35:16 ID:ddFMmW8s
mdadm --manage --re-add --force /dev/mdなんちゃら /dev/sdはずしたデバイス でどうでしょうか


281 :login:Penguin:2010/12/31(金) 01:43:34 ID:6jMIk7Lq
とりあえず2Tx4でRAID6を作ってみたので一応メモ。

まず、>>211-222のようなUSBメモリ起動を考えていた。
が、>>254-262のように全領域をRAIDにしようとしても、
結局ははRAID領域としないほうがよい微小な容量が残る。
ならば、それを/bootやswapとしてしまえばよい。
そのためには結局パーティションを切る必要があるが
それによって起動に必要な他のデバイスを省略できる。
また、>>263-268の疑問は、「/をRAIDにする」という意味ならば大丈夫。
起動時のカーネルは、/boot内にあるものを読みこみ
なおかつその時の/はinitrdから作ったRAMディスクだから。

というわけで、慣れないこともあって(AFT対応もあって)手間取ったし
トラぶってやり直しなんかもしたけど
なんとかCent5が起動はするようになった。

282 :login:Penguin:2011/01/06(木) 10:37:11 ID:LqVz0e3h
毎月第1日曜の00:57に実行されるmdadmのcheckarrayって
ものすごく負荷が掛かるんだけど、そもそもこれって必要なの?

283 :login:Penguin:2011/01/06(木) 10:40:13 ID:90P8MSkY
自分が最高に神に祝福されていると信じているなら不要

284 :login:Penguin:2011/01/06(木) 10:50:14 ID:LqVz0e3h
ietdで常時読み書きしているので負荷が上がるとエラーになるんだよね。
いい方法ないかしら。

285 :login:Penguin:2011/01/06(木) 18:58:21 ID:8qh0aVCJ
神に祈る

286 :login:Penguin:2011/01/06(木) 19:49:54 ID:GZ4wMjWn
>>284
checkarrayスクリプトの中でioniceを使ってIOスケジュールのクラスを'idle'にしてる
それでもエラーになるってことは、IO性能の限界。
キャッシュをたくさん積んだRAIDカードと早いDISK or SSDに置き換えた方がいい

287 :login:Penguin:2011/01/06(木) 20:01:12 ID:90P8MSkY
>checkarrayスクリプトの中でioniceを使って
???

288 :login:Penguin:2011/01/16(日) 20:13:56 ID:9TjvYxG+
すごく初歩的な質問かもしれませんが教えてください。
インテルマザーボードオンボードのICHのRaidに2台のSATAのHDDで組んだRaid0と、
コレガのCG-HDC2EU3100なんかの外付けRaidケースにe-sataで2台入れて組んだRaid0では
速度はどのくらい違いが出てしまうものなのでしょうか?
使用するHDDは同じ7200rpmのHDDです。

289 :login:Penguin:2011/01/16(日) 21:02:50 ID:5wcN0kGW
知らんけど、体感的な違いはゼロに近いと思う。

290 :login:Penguin:2011/01/16(日) 23:05:02 ID:9TjvYxG+
ありがとうございます。
つまり外付けでも内蔵と同じRaid0としての速度は出ると考えていいのですね!?

291 :login:Penguin:2011/01/16(日) 23:15:56 ID:UjUVBlql
2chに念押しとかw

292 :login:Penguin:2011/01/16(日) 23:21:07 ID:5wcN0kGW
>>290
1台より速いんじゃないかなという感じの速度アップはできる。
ベンチマークソフト使えば、数値で目に見えた違いを出してくれる。
だけど、2台でRAID0やって、理論的には2倍になるというのは幻想。

そういう意味で、「RAID0としての速度が出る」と言ってるのなら
その考え方は間違ってる。

293 :login:Penguin:2011/01/17(月) 10:30:12 ID:awRc0mEw
バスが律速しないとして2倍にならない例って何?

294 :login:Penguin:2011/01/18(火) 17:49:41 ID:AMRrBiFO
mdraidでミラーリングしているんですが、
いずれか1台が故障しても読み書きは継続できますよね?
ファイルシステムのエラーでハングアップになったもんで。

295 :login:Penguin:2011/01/18(火) 17:51:59 ID:270hrEVr
>>294
そうだよ。だからスレ違い。

296 :login:Penguin:2011/01/18(火) 20:00:47 ID:cWlOgZar
スレ違いではないけどな

297 :login:Penguin:2011/01/21(金) 23:23:46 ID:AKhU4TB8
いったいどれがsdaでどれがsdbなんだか

298 :login:Penguin:2011/01/22(土) 02:34:45 ID:zK0YGrGX
匂いを嗅いでみて、甘い匂いのするのがsda。
ちょっと舐めてみて酸っぱいのがsdbだよ。

299 :login:Penguin:2011/01/23(日) 19:01:57 ID:h1RbTWKL
両方酸っぱくて甘い匂いがしたらどうすんだw

シリアル控えてあるかバラして分かってるなら、
Redhatのディスクユーティリティー使えばひと目で分かるよ。
ls /dev/disk/by-id -l と cat /proc/mdstat でも
シリアルとの対応は分かる。dmraid だと知らん。

300 :login:Penguin:2011/01/23(日) 23:53:48 ID:hECcvXVM
300げっと

ちょっと前、電源死んでHDDが見えたり見えなくなったりATA2モードになったり止まったり
したんだがソフトウェアRAID1組んでたから普通に使えて「あーなんかカッコンカンッコン言ってるな〜」
って感じだった。ソフトウェアRAIDって何気にすげーなって思ったぜ。

301 :login:Penguin:2011/01/24(月) 13:56:32 ID:1YcBp3Oq
>>300
しかし、同じロットは同時に逝きやすいという法則は越えられない。
こないだ、2発同時にあぼんしたw いまは日立とWDを混ぜている。

302 :login:Penguin:2011/01/29(土) 01:19:33 ID:oOHVlAzH
>>297
同じ疑問抱えてます。

アレイ内のHDDが壊れたとして、物理的に壊れたHDDがどれなのか特定すんのはどうしてるんだろう。

ケーブル外して取り外すときにオペレーションミスして
生きてるHDDを取り外さないための仕掛け&工夫実践例キボン。


303 :login:Penguin:2011/01/29(土) 02:30:47 ID:7snxt3L1
基本的にはシリアルNoから判別するしかないんじゃない?
オレは、hdparm -i /dev/sd* でシリアルNo確かめて、あとは>>299

304 :login:Penguin:2011/02/07(月) 01:19:12 ID:/w2VBTzF
CentOS 5.5でRAID6のオンライン領域拡張したいんだけど、カーネル2.6.21以上でないとダメとか見つけたんだ。
カーネルだけ入れ替えるしかないのかな?

305 :login:Penguin:2011/02/07(月) 02:47:43 ID:lo2w1dHg
俺も同じくCentOS5でRAID6をgrowしようとした。

最新カーネルを自力で作って起動するかテスト
・・・というのをVM上で一応やってみて大丈夫そうだとは思ったが
俺の場合はオンラインである必要は無かったので
結局、FedoraのliveCDを使ってgrowした。

ちなみに、(当然ながら)マザー次第だとは思うけど
俺の場合はnodmraidをつけなくて
いくつかのディスクがraidから除外されていたり
リムーバルと認識されて/dev/md127になったりと
結構トラぶった。

306 :login:Penguin:2011/02/07(月) 04:04:23 ID:/w2VBTzF
あれ?俺がいるw
自分もFedoraなら行けるんじゃねと思って、LiveCD使ったんだけどアレイからHDDが外れていた。
リビルドして領域拡張したけど、CentOS5.5に戻ってきたらアレイが元に戻っていた。
だからFedoraも意味がなかった。
>305 はCentOSに戻してもアレイはそのままだったのかな?

# そこまでやるならFedoraに移行しろよ。というツッコミはなしで。

307 :305:2011/02/07(月) 18:09:58 ID:lo2w1dHg
いや、ちゃんと拡張した状態で動いてるよ。
ただし、当然だけど完了するまで待ってそれからCentOSを起動したから。

308 :login:Penguin:2011/02/07(月) 19:40:45 ID:/w2VBTzF
自分もリビルドが終わるまで待ったんだけどな。

マザボ:GA-EP45-UD3R
OS用HDD:WD1001FALS 1発
データ用HDD:WD20EARS 5発(Dx2, Px2, Sx1)
でFedora LiveCDで拡張したんだけど。

今は卒論で忙しいので、今月下旬に再度試してみるわ。


309 :305:2011/02/07(月) 20:00:12 ID:lo2w1dHg
じゃあ、2-3日のうちに、俺が>>281>>305
どんなトラブルに見舞われたか
一通り書き殴ってみるよ。
これからやろうとする人の参考になるかもしれないし。

使ってるのはGT110bで、2台買って(1台をデスクトップ用にCPU等を交換増設)
もう一台との間でメモリとHDDをトレードしたもの。
これからDVDを外してEARSx6をHDC-503であわせて使ってる。

310 :login:Penguin:2011/02/08(火) 03:25:43 ID:39VFhAxA
Linux のソフトウェア RAID って、ホットスペアだけをローパワーで動かして、
スペアからアクティブになった時に自動的に回転数を戻す。
みたいな設定って出来ますか?

311 :login:Penguin:2011/02/08(火) 22:26:27 ID:VOG+hcst
>>310
「アレイがデグったら、待機状態にしといたスペアディスクを起こしてアレイに追加する」
みたいな処理をcronで定期的に回せばいいんじゃない?

312 :login:Penguin:2011/02/09(水) 00:21:30 ID:AadTX+NK
可変回転数のHDDなんかねーよ
普通にスピンダウンしとけ

313 :login:Penguin:2011/02/09(水) 00:28:53 ID:OE9NS2jv
>>312
http://ascii.jp/elem/000/000/078/78783/
あるのに…

314 :login:Penguin:2011/02/09(水) 00:55:07 ID:nTLzEdJ5
WDのやつは、可変ではない。
非常に短い時間(デフォルト7秒)のアイドルでスピンダウンするだけだったはず

315 :login:Penguin:2011/02/09(水) 01:05:02 ID:megP14EQ
>>312
手動でスピンダウン/アップとかめんどくさいじゃん?
だから RAID ソフト側でホットスペア中は低回転でまわしてくれれば嬉しいなと

316 :login:Penguin:2011/02/09(水) 10:01:23 ID:47tkCJ4E
回転数5400~7200ってロットによって違うとかそんなんじゃねww

317 :login:Penguin:2011/02/09(水) 10:28:45 ID:megP14EQ
1つのモデルでスペック上は普遍の回転数が、
個体差でそこまで振り幅あれば不良品でしょww

318 :login:Penguin:2011/02/09(水) 11:08:41 ID:AadTX+NK
>>313
やっぱり出たなマスコミに騙されるバカ

319 :login:Penguin:2011/02/13(日) 13:45:27 ID:SdB2eGXj
LinuxのソフトウェアRAIDをGUIで管理できるようなので使いやすいのはあるんでしょうか。
webminくらいしかそもそもモノが無いですかね?

320 :login:Penguin:2011/02/13(日) 14:47:55 ID:GH/CmMZb
>>319
使ったことないけどpalimpsest disk utility

321 :login:Penguin:2011/02/13(日) 15:38:06 ID:L1HNmD3l
webmin楽かもしれんけどweb管理がもっさりすぎてやめた


322 :login:Penguin:2011/02/18(金) 17:24:44 ID:yGretxv7
ぶっちゃけ、個人PCの安全対策にRAID1組みたいだけなら
CG-HDC4EU3500 とか買ったほうが楽っすよね。

323 :login:Penguin:2011/02/18(金) 17:50:39 ID:A1GNzXog
弄るのが面倒と考えるならそれでいいんじゃないの?
俺はいじるのが好きだから PC 組むことからやったけど・・・

324 :login:Penguin:2011/02/19(土) 15:18:20 ID:RMwt7Pff
>>322
最初の手順はラクだろうな…

けど、ドツボにはまった時のはまり具合もあるからな。
個人向けなら融通の利くmdadmでの管理がお勧めな気がするぜ。

例えば、2個でRAID1を組んでて、1個あぼ〜んしたときに、どうやってHDDを準備する?
仕事ならスペアディスクが準備してあったりするけど、個人でそれやってる人は少ないでしょ。

適当なHDDをLVMなりmdadmでつなげて元のアレイに加えたり、他の容量があまってる
storageから切り分で容量貰ってきたのを流用したり、と。そう言う面もあるからなぁ。

325 :login:Penguin:2011/02/20(日) 00:27:21.40 ID:yCXNWgeV
あるからなぁ

と言われても

326 :login:Penguin:2011/02/20(日) 01:46:06.77 ID:s4CzjA8f
ミラーの片割れがあぼーんしたらバックアップを取って二台とも廃棄処分だろ。んで、新規に二台買ってきてリストア。

327 :login:Penguin:2011/02/20(日) 14:44:10.36 ID:RGevxh5h
>>326
「可用性」はどこ行ったんだよw

328 :login:Penguin:2011/02/20(日) 15:06:22.78 ID:s4CzjA8f
>327
即死しなかったおかげで緊急メンテでバックアップを実行できて最新の最終のデータを失わずにすむだろ。
ディスクを二台とも廃棄するのは同じ環境で同じように酷使されたディスクなんて信頼性はもう無いと見た方が安心できる。
あと無停止システムにしたいなら二方向ミラーの一組だけでどうにかしろってのは無理だし。

329 :login:Penguin:2011/02/20(日) 22:40:50.93 ID:Mnk/k141
最近は別メーカーとか別製品のHDD二台組み合わせて
遺伝的アルゴリズム風に運用するのが流行りだしてね?

330 :login:Penguin:2011/02/20(日) 22:53:05.59 ID:uoxofCdd
三台でミラーリングして定期的に一台交換する、とか

331 :login:Penguin:2011/02/21(月) 01:31:02.60 ID:/mh8pAHw
LVM ってプールみたいなもん?

332 :login:Penguin:2011/02/22(火) 22:32:44.57 ID:d4GHXSIo
>>331
うんにゃ、AIXの論理ボリューム管理みたいなもん。

333 :login:Penguin:2011/02/24(木) 08:28:42.23 ID:UZbhA2qj
320GBのHDDでarray作って思った
320GBがいつまで新製品で買えるのかとw
せめて500GBにしときゃよかった。。。

334 :login:Penguin:2011/02/24(木) 08:57:55.75 ID:+LhVKrWL
mdadmだと、気にせず個々に大きいHDDに取り替えていけばいいんじゃね?
で、全部が320GB overになったらgrowしてみる、と。

335 :login:Penguin:2011/02/26(土) 01:13:09.50 ID:AjpK4IVQ
アレイの構築中の負荷で他に影響を与えないようにioniceやniceコマンドを
mdadmコマンド実行時に前段に追加して実行してもダメなんすね。

実際に仕事してるのは別プロセスのようなので、(md0_raid5とかmd0_resyncとか)
mdadm実行後に立ち上がったプロセスをreniceとioniceで後から優先度を変更するしか
アレイ構築やチェックの処理優先度を下げさせることできないんでしょうか?

336 :login:Penguin:2011/02/26(土) 01:29:23.11 ID:vu/EQK7u
man 4 md


337 :login:Penguin:2011/02/26(土) 12:05:23.19 ID:l2UEaSXl
manってアレイごとの
/sys/block/mdN/md/
が抜けてるよね

338 :login:Penguin:2011/02/26(土) 23:26:00.10 ID:YHKS4Qz2
あれぃ?

339 :login:Penguin:2011/03/03(木) 23:19:11.12 ID:aPgrBUX+
HDD3台で構成されてるRAID5の/devmd0に
ディスクを--addで追加してスペアディスクとして組み込んだ状態から
RAID60レベル変更にしたいのですが、

# mdadm --grow --level=6 --raid-disks=4 /dev/md0
mdadm: /dev/md0: Cannot reshape array without increasing size (yet).

# mdadm --grow --level=6 --raid-disks=4 --size=max /dev/md0
mdadm: can change at most one of size, raiddisks, bitmap, and layout

という感じでエラーになります。引数に何が足りないんでしょうか?
もしくはmdadm.confに予め何か設定しておく必要があったりしますか?


340 :login:Penguin:2011/03/04(金) 22:31:20.60 ID:dpTfiBPG
>>339
上のコマンド打った後以下コマンド実行で動かない?
# echo raid6 > /sys/block/md0/md/level

参考このへん: ttp://xblog.hellokitty68.main.jp/?eid=1016578


341 :login:Penguin:2011/03/06(日) 04:55:31.91 ID:RPfF2gcb
mdadmってどう呼んでる?
マダドム?マダッドム?
マダムとダッドの合体語?

342 :login:Penguin:2011/03/06(日) 11:09:04.36 ID:9frQ4hTx
エムディエイディエム

343 :login:Penguin:2011/03/06(日) 11:10:44.71 ID:Zh9h7jx2
自分では
エム ディー アドミン

人に伝えるときは
エム ディー エー ディー エム
あくまでも個人的な意見。

344 :399:2011/03/06(日) 19:51:57.84 ID:JhgND8E+
>>340
行けました!
RAIDレベル変更の拡張の場合はmdadm側のコマンドで変更後のレベル指定するんじゃなくて
/sys/block/mdX/md/level
の中の記載を書き換えることで実現するんすねー。

345 :login:Penguin:2011/03/07(月) 10:14:23.53 ID:OwxqRXoH
エムディーアダモステ

346 :login:Penguin:2011/03/18(金) 10:29:31.58 ID:aNs3epMu
質問。
mdadmでraid1を作っているんだが、sdbで不良セクタ発生。
再構築をしたいのだが、今は計画停電期間中。
停電が終わってから最長でも18時間で必ず次の停電が来てしまう。

dev.raid.*を設定しても18時間じゃ1.4TBのパーティションの同期完了が厳しい
(丸一日くらいかかった気がする)。
UPSは2台あるが3時間の停電はとても耐えられない。

計画停電が終わるまで再構成はムリかな?

347 :login:Penguin:2011/03/18(金) 10:42:54.87 ID:ekMBduVz
先月のだからもう解決済みかもなあ。

>>335
md の resync の下限と上限は

/proc/sys/dev/raid/speed_limit_min
/proc/sys/dev/raid/speed_limit_max

をそれぞれ sudo echo xxxxx > ファイル、で数値を直に書き換えられる。
まずは cat して現在値を確認のこと。max はデフォルト値 200000 kB/s。
再起動すると元に戻るのでご注意を。
(個々のデバイスだと /sys/blocks/md*/md/sync_* あたりらしいけど使ったことない)

ファイルのパス込みの正式名をどうしても覚えられないので、
設定が必要になるたびggりなおしてるw


>>341
エムディーアダム。
原義からするとアドムのほうが近いんだろうけど、語感が好きじゃないのでアダム。

348 :347:2011/03/18(金) 10:48:09.76 ID:ekMBduVz
>>346
347 に書いた方法で制限速度(limix_max)は上げられるけど、
小手先だし間に合わないんじゃないかなあ。
過負荷でアレイが壊れてかまわないなら、まずはレッツトライ。

349 :346:2011/03/18(金) 11:09:00.33 ID:aNs3epMu
>>348
レス有難う。
dev.raid.speed_limit_minやdev.raid.speed_limit_maxをageまくって丸一日なんだ。
アレイが壊れるのは困るから…方法がないなら放置かな。
不良セクタ箇所以外は生きている(はずだ)し。

350 :login:Penguin:2011/03/18(金) 11:46:35.90 ID:YwOrhI0Y
>>349
案1
ディスクをもう1組用意して、パーティションを何個か切る(sdc1-4, sdd1-4とか)。
それぞれのパーティションでアレイを組んで(sdc1+sdd1->md1,...)1組ごとに同期をとる。
できたmdをLVMでくっつけて、縮退したアレイのデータが収まる大きさまで育ったらデータをコピる。

案2
バックアップとったら電源落として、のんびりする。


351 :346:2011/03/18(金) 14:28:59.63 ID:aNs3epMu
>>350
ありがとう。案1は私の力じゃ作業に不安があるな。

今日の二回目の停電が中止になって30時間以上間が開いたから、
ソッコーで同期始めた。
>>348,350ありがとう。

352 :login:Penguin:2011/03/26(土) 00:36:56.81 ID:NFqGjfij
>>346
bitmap作ればできなくない?

353 :login:Penguin:2011/03/26(土) 11:31:47.15 ID:xd62/6A8
ディスクが1発死んだときに、新しいディスクに交換してリビルドする前にバックアップとるとすると、
バックアップ先のハードウェアって何にしてる?
容量の大きなRAID組んでると、バックアップ先もでかい容量が必要になると思うんだけど、USBの外付け
ハードディスク買ってきても、いいとこ3TBだし。


354 :login:Penguin:2011/03/27(日) 10:51:40.31 ID:C3vM+KLD
別PCにバックアップ用のアレイを組んでるよ


355 :login:Penguin:2011/03/28(月) 01:12:47.84 ID:9esJblgo
質問です。
HDD1台のみでスパニングモードのアレイを設定(マザボ付属のraid)して、
その後にアレイを解除した場合、データは消去されたのでしょうか?

2TBのHDDを誤ってスパニング設定し、解除してしまったところです。
ウィンドウズの「ディスク管理」では「ディスク1 ベーシック 1863.01GB オンライン 未割り当て」、
Nvidiaの「ストレージ設定表示」では「基本ディスク」と表示されています。
マザボはGF8100 M2+SEです。

よろしくお願いします。

356 :login:Penguin:2011/03/28(月) 16:43:40.09 ID:g1P3BYn9
同じ設定で組めば OK

357 :355:2011/03/29(火) 09:18:30.95 ID:G7JKKN1D
>>356
ありがとうございます。
本日試してみます。

358 :355:2011/03/31(木) 10:30:36.15 ID:rUfaoVMQ
355です。結果報告です。
アレイ同じ構成に戻してもウィンドウズ上からは認識されませんでした。
そこでtestdiskを使い、HDDは復旧しました。

359 :login:Penguin:2011/04/10(日) 00:06:51.69 ID:NuOE1clz
質問させていただきます。
CentOSでRAID5を組んでいるのですが、共有ディレクトリにアクセスしようとすると、異様に時間がかかり、
Linuxマシン側に糞長いエラーログが出ます。
ata6.00: status: { DRDY }
とか出ているので、構成アレイの最後の一本にアクセスしようとして失敗しているっぽいです。
ただ、cat /proc/mdstatしても[5/5] [UUUUU]ですし、mdadm -D /dev/md0しても active syncです。
しかし、怪しい構成アレイはsmartctlもできなくなっていますし、RAIDから切り離すとアクセスが安定します。
これはHDD自体が死んでいるのでしょうか?

360 :login:Penguin:2011/04/10(日) 00:48:54.94 ID:sZ+yw5+B
>>359
その糞SATAケーブルを交感してから試してみやがれこの糞野郎
とエスパーしてみたり


361 :login:Penguin:2011/04/18(月) 14:03:20.39 ID:LohzKB9l
NEC Express5800/GT110b に HDD 4台で RAID 組もうとしているんですが、マザボの SATA に2系統あるようで、
 SATA0 (赤): sda
 SATA1 (青): sdc
 SATA2 (赤): sdb
 SATA3 (青): sdd
のようになります (赤・青はボード上のソケットの色)。
この場合、RAID1 を2セット組むとしたら sda-sdb, sdc-sdd で組むべき? sda-sdc, sdb-sdd で組むべき?
なお、/boot は作成する RAID1 (md0) に入れるつもりです。

362 :login:Penguin:2011/04/18(月) 14:42:10.50 ID:bX7LZUHN
なぜ自分で計測しないの?

363 :login:Penguin:2011/04/18(月) 15:51:50.84 ID:LohzKB9l
>>362
計測?
sda, sdb ... と順に組んでくのがいいのか、SATA の系統をまたいで組むのが良いのか、作法を聞きたいのですが。
ググってみたのですが、あまりこの辺について書いているものを見つけられませんでした。

364 :login:Penguin:2011/04/18(月) 16:13:58.59 ID:mCb2yyO9
奇数偶数でワンセットにしたい人もいるだろうし、
連番でワンセットにしたい人もいる。


やりたいよいにやればいい。

365 :login:Penguin:2011/04/18(月) 16:59:09.56 ID:Pmlfe7XY
チップセットのブロック図くらい読んでこいや

366 :login:Penguin:2011/04/18(月) 17:47:19.26 ID:Hd6IlzqC
俺なら同じ色同士でやる

367 :login:Penguin:2011/04/18(月) 18:03:37.68 ID:Pmlfe7XY
言っておくが赤を切ると爆発するぞ

368 :login:Penguin:2011/04/18(月) 18:09:14.12 ID:bX7LZUHN
作法というなら、単一障害点を減らすのがRAIDの基本だべ

369 :361:2011/04/18(月) 18:21:17.58 ID:LohzKB9l
sda-sdc, sdb-sdd でやってみることにしました。

370 :login:Penguin:2011/04/20(水) 16:15:57.39 ID:HQS7YCBa
>>360
回答ありがとうございます。
ケーブル交換では修正できなかったので、拡張PCIカードの不良を疑って交換したら見事に治りました。
ありがとうございます。

371 :login:Penguin:2011/04/30(土) 11:12:50.28 ID:ZWLOhJze
既存のHDDを使ってRAID5あたりを組もうと思っているんですが
もともと中にあったファイルを保持したままRAIDを組むっていうのは無理ですよね

372 :login:Penguin:2011/04/30(土) 14:46:46.73 ID:lxU/ZmU/
>>371
やり方は色々あるけどできるよ

373 :login:Penguin:2011/04/30(土) 19:57:43.37 ID:ZWLOhJze
>>372
マジですか
ぜひともやり方を教えていただけると…

374 :login:Penguin:2011/04/30(土) 20:00:40.12 ID:U5mQf/ym
>>373
HDDに結構な負荷かかるから古いHDDだと構築時に逝くかもしれないぜ?

375 :login:Penguin:2011/04/30(土) 20:27:08.48 ID:ZWLOhJze
古いと言っても1~2年なので多分大丈夫だと思います

376 :login:Penguin:2011/04/30(土) 21:49:53.47 ID:ajiH1WGa
>>373
エスパーじゃないから元の環境と(ボリューム数とかLVM使用の有無とか)
RAID5にしたい時のボリューム数がわからんので何も助言できない


377 :login:Penguin:2011/04/30(土) 22:03:22.26 ID:IxyBD6MT
>>371
LinuxのソフトウェアRAIDなら以下の手順で出来るよ。

1.新しいディスクを2台買ってきて取り付ける
2.新しいディスク2台で縮退状態のアレイを作る
3.アレイに既存のディスクの中身(ファイルシステム、論理ボリュームなど)をコピーする
4.既存のディスクをアレイに追加して、同期が終わるまでじっと待つ

注意事項は、新しいディスクが既存のディスクより大容量な場合、アレイを作る際に丸ごと使わないこと。

新しいディスクが3台以上あるなら普通に新しいディスクだけでアレイを作ってデータをコピーし、
最後に領域拡張するという手もある。

378 :login:Penguin:2011/04/30(土) 22:56:21.61 ID:ZWLOhJze
>>376
環境はとりあえず今からRAIDができるOSを入れようと思っています
なのでなんでもいいです

ボリューム数は5
LVMは使えば複数HDDを一つに見せることが可能という認識でいいでしょうか
であればぜひ使いたいです

>>377
やっぱりいくつか買い足さないと駄目ですかね?
出来れば買い足さず今あるHDDで済ませたいのですが…

379 :377:2011/04/30(土) 23:14:28.57 ID:IxyBD6MT
>>378
え、ひょっとして手持ちのディスクをデータをそのままにRAID5のアレイにまとめようとか考えてる?

380 :login:Penguin:2011/04/30(土) 23:18:38.64 ID:3faszs44
そうとしか読み取れなかったが

381 :377:2011/04/30(土) 23:34:22.61 ID:IxyBD6MT
>>380
いや、手持ちのディスク1台のデータを保ったままRAID5アレイに移行するってのはアリだけど、
よもや5台全部のデータをそのままRAID5に移行したいなんて物理的に無理なことを考えてるとは思わなくて。

382 :login:Penguin:2011/04/30(土) 23:43:04.11 ID:ajiH1WGa
空きディスク1発あればRAID1縮退作って1発分移動して
RAID1→RAID5変換してファイル移動して空いたディスクをRAID5にaddしてgrowしてを繰り返せば理論上できなくもないけど
変換だけで実時間3・4日くらい使うぞ


383 :login:Penguin:2011/05/01(日) 00:07:10.63 ID:bc06QFlz
やっぱり無理ですよね…
素人で申し訳ないです

384 :login:Penguin:2011/05/01(日) 01:36:51.51 ID:Gb8UNBEf
あまったRAIDカードと容量バラバラのHDD8台でRAID5組んで遊びで運用してるけど、一向に不具合こない
RAIDは同じ型番のHDDでって思ってたけどそこまで関係ないものなのかな

385 :質問:2011/05/08(日) 16:46:59.11 ID:iKVL8NzG
CentOS5.4でのソフトウェアRAID5を勉強中ですが、ディスクの交換のところでうまくいきません。
下記手順で進めていきましたが、ディスク交換→mdの再構築まではうまくいくのですが、
再起動をかけるとRAID5の構成デバイスがまた元に戻ってしまいます。
再起動後でもhdd7がRAID5のアクティブデバイスであるためには何か必要なのでしょうか?
いろいろ調べてみたのですが、どのサイトにもそのようなことが書かれておらず困っています。


RAIDデイバス作成
# mdadm -C -a yes -l raid5 -n3 -x1 /dev/md0 /dev/hda2 /dev/hdd1 /dev/hdd5 /dev/hdd6

確認
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd5[2] hdd6[3](S) hdd1[1] hda2[0]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

フォーマットとマウントして、利用できることを確認
# mkfs -t ext3 /dev/md0
# mount /dev/md0 /test1

fstabに登録
# vi /etc/fstab
/dev/md0 /test1 ext3 defaults 1 2

再起動しても利用できることを確認
# shutdown -r now

(本文が長いとでるのでこの後続きます)


386 :385:2011/05/08(日) 16:48:44.75 ID:iKVL8NzG
(続きです)

検証のため2台のデバイスを削除
# mdadm --manage /dev/md0 -f /dev/hda2
# mdadm --manage /dev/md0 -f /dev/hdd1
# mdadm --manage /dev/md0 -r /dev/hda2
# mdadm --manage /dev/md0 -r /dev/hdd1

# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd6[0] hdd5[2]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]

予備で用意していた/dev/hdd7があることを確認
# fdisk -l/dev/hdd
/dev/hdd1 1 123 987966 fd Linux raid 自動検出
/dev/hdd2 124 3042 23446867+ 5 拡張領域
/dev/hdd3 3043 9122 48837600 83 Linux
/dev/hdd4 9123 11555 19543072+ 83 Linux
/dev/hdd5 124 246 987966 fd Linux raid 自動検出
/dev/hdd6 247 369 987966 fd Linux raid 自動検出
/dev/hdd7 370 492 987966 fd Linux raid 自動検出

387 :385:2011/05/08(日) 16:49:04.87 ID:iKVL8NzG
(つづきです)
/dev/hdd7を追加
# mdadm --manage /dev/md0 -a /dev/hdd7

しばらくして確認
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd7[1] hdd6[0] hdd5[2]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

再起動しても問題ないか確認
# shutdown -r now

↓なぜかhdd7が消えている
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd6[0] hdd5[2]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]

388 :login:Penguin:2011/05/08(日) 18:32:50.44 ID:dbrlUN8D
リビルド

389 :login:Penguin:2011/05/09(月) 01:28:01.10 ID:S+FHQdJ2
>>387
/dev/hdd7 が拡張領域の最後のパーティションであるところが臭いな。
それでスーパーブロックの自動認識がコケてるんじゃないのかな。
実験で使わない /dev/hdd8 を作ってみればどうだろう。
パーティションタイプは fd 以外で。

390 :login:Penguin:2011/05/09(月) 05:38:07.68 ID:Mo4D+3QG
起動後にdmesgとかは見た?

391 :login:Penguin:2011/05/09(月) 17:20:30.78 ID:NP2vgjMG
>>385 を見ると
最初の段階では hda1/2/5 の3台でボリューム作ってて
hdd6がスペアだよね?
で、>>386では hda1/2 を抜いたように見えるんだが…
3台構成中の2台抜いちゃったらボリュームの再構成はできないのでは。

書いてないけど、1台抜く→リビルド終了→もう1台抜く
てな段取りでやったのかな?

392 :login:Penguin:2011/05/09(月) 18:43:18.57 ID:MY5ZQwLA
RAID5
hda2、hdd1、hdd5、hdd6 (スペア)

この状態で hda2、hdd1 を外したら、RAID5 は消滅してるよね?
それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと?

393 :login:Penguin:2011/05/09(月) 22:06:58.52 ID:8NVZ92rG
>>385
とりあえずmdadm.confをチェックしたらいいんじゃないかと思うが。

394 :login:Penguin:2011/05/09(月) 23:41:17.38 ID:ljI9s1dP
arrayぶっ壊した祭りキタ━━━━(°Д°)━━━━?

395 :login:Penguin:2011/05/11(水) 20:56:17.03 ID:zBKnKrbv
S-ATAのRAIDカードで、
RAID組まずにS-ATAのHDD2台増設として使用できますか?
この玄人志向カードです。
http://www.kuroutoshikou.com/modules/display/?iid=86


また、複数毎挿しは可能でしょうか?

396 :395:2011/05/11(水) 20:58:32.96 ID:zBKnKrbv


OSはWindows7
M/BはG31M7-TE、G31MX-Kを考えています。

397 :login:Penguin:2011/05/11(水) 23:25:01.38 ID:GMmHnJqe
帰れ

398 :login:Penguin:2011/05/12(木) 08:32:00.30 ID:IfSMMkdB
http://kuroutoshikou.com/modules/kurobbs/?tid=1839
SiliconImage社から配布されているファームウェアで、
bから始まるものを当てると、RAID機能が無効になり、ただのSATAカードと認識されます。
逆にrから始まる物を当てれば、再びRAID機能が有効になり、RAIDボードとして認識します。

ちなみに、私が使ったのはb4384.binというファームでした。



399 :login:Penguin:2011/05/12(木) 09:27:14.34 ID:IfSMMkdB
http://www.siliconimage.com/support/searchresults.aspx?pid=29&cat=15
BIOS-003512-xxx-4384
にrがある。

400 :login:Penguin:2011/05/12(木) 21:00:26.48 ID:tVRwKmAN
リビルド 言っただろ
案の定、リビルド終わってないんじゃないかと言う意見たくさん出てるな

401 :login:Penguin:2011/05/13(金) 22:54:16.70 ID:BHN+ryP5
>>395
SiI3512 - PCI to 2 Port SATA150
http://www.siliconimage.com/products/product.aspx?pid=29
これって3TB対応してるのかな?

402 :385:2011/05/14(土) 11:47:25.61 ID:eKhgKtI/
みなさん、貴重なご意見ありがとうございます。
ひとつずつ検証して結果をレスさせていただきます。
なにぶん、1週間たつと頭が真っ白になっていますので・・・


その前に、386の訂正です

デバイスをいきなり2台削除したのではなく、
# mdadm --manage /dev/md0 -f /dev/hda2
でスペアのhdd6がアクティブ(同期される)ことを/proc/mdstatで確認

# mdadm --manage /dev/md0 -f /dev/hdd1

# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd5[2] hdd6[0] hdd1[3](F) hda2[4](F)
1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]
を確認 (3台構成のうち2台が生きている状態)

その後で、
# mdadm --manage /dev/md0 -r /dev/hda2
# mdadm --manage /dev/md0 -r /dev/hdd1

403 :login:Penguin:2011/05/14(土) 12:12:03.65 ID:ASYKen8E
>>402だけ見て適当な意見
raid5で2台をFにしていいの?

404 :385:2011/05/14(土) 12:15:03.42 ID:eKhgKtI/
>>402は >>391 >>392さんからの意見をみての訂正です。

>書いてないけど、1台抜く→リビルド終了→もう1台抜く
>てな段取りでやったのかな?

>それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと?
ご指摘通りです。

質問をしておいて肝心な部分を省略してしまいました。大変失礼しました。

405 :login:Penguin:2011/05/14(土) 12:22:25.52 ID:aKnDiMTq
mdadm.confが見当たらないが?

406 :385:2011/05/14(土) 12:42:23.63 ID:eKhgKtI/
>>403
今回の検証の目的として、
@1台がこけたときに、スペアが自動的にアクティブとなって同期するか?
Aさらに1台がこけて3台のうち2台構成であっても、RAID5として機能するか?
Bあらかじめ用意していたディスクをRAID5に追加しても機能するか?
なんですが、
@の検証のためにまずはhda2をFにしました
つづいてAの検証のためにhdd1もFにしました
そのため表示上は2台がF状態ですが、>>402の手順では3台のうち常に2台は
アクティブ状態なのでRAID5としては大丈夫だと思っていますが・・

407 :login:Penguin:2011/05/14(土) 12:47:18.94 ID:GMaEcG2w
物理的に抜かないといけないんじゃなかったか?

408 :385:2011/05/14(土) 12:51:45.16 ID:eKhgKtI/
>>405
今回は特にmdadm.confは使用していません。
理由として、
mdadmコマンドでは、mdadm.confが無くてもRAIDの構成ができるということと、
もしディスク構成が変わったときにmdadm.confの情報が古いため、再起動があったときに問題が生じる可能性がある
と思ったからです。

ただし今回の問題においては、ディスク構成が変わったときにmdadm.confにも構成情報を記述したら、
再起動時にmdadm.confを参照してうまくいくのでは?と思ってやってみたのですがうまくいきませんでした。
今回もう一度チャレンジしてみる予定です。

409 :385:2011/05/14(土) 12:59:59.86 ID:eKhgKtI/
>>407
肝心の交換する物理的なディスクがないんです・・
そこで、論理パーティション(fd用)を作成してこれを交換用ディスクと仮定して検証しています。

ん・・
今思ったのですが、RAID5構成が2/3になった場合、本来は
RAID5障害 → shutdown → ディスク交換 → 起動 → パーティション作成 → RAID5再構築と思いますが、
自分のやり方だと、
RAID5障害 → RAID5再構築 となって、一番肝心の再起動をすっとばしています
RAID障害と再構築の間でshutdownが必要なのかも? ちょっと後で検証してみます。


410 :login:Penguin:2011/05/14(土) 15:09:30.64 ID:MxTWk7g0
/dev/hdd? ってことはPATAだよね。
SATAでやった方がいいんじゃね?
要再起動ではRAIDの価値半減では。

411 :login:Penguin:2011/05/14(土) 15:50:35.85 ID:MxTWk7g0
ん?
よく見たら
一台の物理HDDをパーティション切ってRAIDにしてるんだw
リビルドとか何それHDDいじめ? w

単なる実験だとしても
RAMディスク上に小さいディスクイメージを必要数作って
VM上のLinuxにマウントしてやるとかの方が
実用的な実験になるんでないか?

412 :385:2011/05/14(土) 20:03:03.74 ID:eKhgKtI/
>>411
15年前のPC(メモリ192MB)には残酷です すでにGUIインスト・起動もできなくなるほどの老体ですので・・

413 :385:2011/05/14(土) 20:13:54.14 ID:eKhgKtI/
>>390
基本となるログ確認を忘れていました。
dmesgだとタイムスタンプが表示されないので、syslog経由で/var/log/dmesgに記録するようにしました

が、すみません
387のようにhdd7をmd0に参加させてアクティブにして、3/3構成になっていることを確認後、
shutdownし、その後のdmesgを確認しようとしたのですが、
なぜか起動する時点で、
RAID5に必要なデバイスが2個しかないので/dev/md0の作成ができない、
だからfsckできない
/dev/md0開けない、スーバーブロックの〜〜がおかしい
とかエラーになって起動に失敗するようになりました。

朝はちゃんとできていたんですけど・・やったといえば空の/etc/mdadm.confを削除したぐらい?
/etc/mdadm.confはいる子なんですかね。


414 :login:Penguin:2011/05/14(土) 20:42:06.54 ID:x6YKLIxD
>>413
手でmdadm.confを書いて再起動してみ。

415 :login:Penguin:2011/05/14(土) 20:54:54.56 ID:VCCnnm+r
mdadm.conf
名前からして mdadm の設定ファイル

そりゃ無くしちゃ駄目だろうw

416 :385:2011/05/14(土) 21:01:22.65 ID:eKhgKtI/
今回の件に関してリビルドという書き込みがあるのですが、
>>402 にもあるように、
@/dev/hda2をFにすると、予備の/dev/hdd6がアクティブとなりデータが復元される
 それを/proc/mdstatで完了したことを確認し、さらに/dev/hdd1をFにする
 このときはすでに予備のディスクが無いので/proc/mdstatでは、3/2表示
A/dev/hdd7をmd0に参加させて、/dev/hdd7にデータが復元される
 /proc/mdstatで確認すると3/3の状態に戻っている
この@、Aのときに起こっていることがRAID5でのリビルド(再構築)ではないのですか?

417 :login:Penguin:2011/05/14(土) 23:23:21.58 ID:Wn3DLmQA
?なこと
RAID5 4台構成+スペア1
RAID5 4台構成のうち2台外す

RAID5は2台外したら機能しないよ
2台外した後に1台スペア追加したからって再構築もできないよ

スペア有る状態で構築してある2台外す→データあぼーん

やるなら、
スペア有る状態で構築してある1台外す→スペアを使って再構築→もう1台外す→データ生きてる
って感じじゃないのか?


418 :login:Penguin:2011/05/15(日) 02:02:46.54 ID:KURhrqN1
>>412
ttp://nttxstore.jp/_II_HP13476513 でも買ったら?
送料無料12800円でdual core
メモリも2GB載ってる

419 :login:Penguin:2011/05/20(金) 22:03:27.94 ID:Hx10u45z
スレ違いも甚だしいのだけど、
 ttp://nttxstore.jp/_II_HP13476513
の「メーカ HP(旧コンパック)」の(旧コンパック)表記は未だに必要なのだろうか、と疑問に思ったw



420 :login:Penguin:2011/05/21(土) 02:16:43.53 ID:MIbSZT6Q
(1) OS (例えば CentOS 5.5) インストール時に RAID5 で Array 作成
(2) 作った Array にとりあえず色々ファイル書き込む
(3) OS の入ったディスクをわざと消して、OS (例えば CentOS 5.6) を再インストール
Linux のソフトウェア RAID は、こんな風に OS が入れ替わっても Array の入ってた
ディスクの設定とかを弄らなければ普通に認識してくれるもんなんでしょうか?

421 :login:Penguin:2011/05/21(土) 02:19:02.64 ID:jo2LkPkL
>>420
何がRAIDをコントロールしているかを考えれ・・・・・・。

422 :login:Penguin:2011/05/21(土) 10:46:47.58 ID:/ULFXKmI
RAIDで使ったHDDの一片をUSBに持っていったり
一片を別なPCに付けてiSCSIで接続しても元に戻るよ


423 :login:Penguin:2011/05/21(土) 11:05:29.19 ID:MIbSZT6Q
戻らねぇよカスw

424 :login:Penguin:2011/05/21(土) 11:15:10.45 ID:/ULFXKmI
やってみるといいよカス

425 :login:Penguin:2011/05/21(土) 20:16:06.77 ID:H1P/c5OE
>>420
使用したOS内蔵のソフトウェアRAIDに互換性があれば再認識させる事はできる。
USBだろうがiSCSIだろうがRAID構成に使用できるデバイスとして見えるなら元のアレイを取り戻す事はできる。
その気になればRAIDを構成するディスクすべてをそれぞれ別のマシンのiSCSIターゲットから提供してもらって構築する事もできる。

もちろんCentOSでできるかどうかは自分で調べてくれ。

426 :login:Penguin:2011/05/21(土) 21:06:15.97 ID:/nyg0oy0
横から失礼

LinuxのSoftwareRAIDって結構柔軟なんですね。
構成に必要な設定はそれぞれのHDDに含まれてて、ディスクが揃えば構成は元に戻る。

って事なんかな?

それともmdadm.confが残ってること(また自力でなんとか書き起こせた場合)が前提?

427 :login:Penguin:2011/05/21(土) 22:53:08.25 ID:cuk2hA/s
>>422
ソフトウエアRAIDだと戻りそうだが、ハードウエアRAIDだと戻らないだろうね

428 :login:Penguin:2011/05/21(土) 23:10:09.49 ID:cuk2hA/s
>>426
以前オレがやったこと。
その1
マザー4ポートとRAIDカード4ポートにHDDを接続してソフトウエアRAIDで構築

RAIDカード8ポートのものに交換

何も考えずHDD8台接続

起動したらそのまま使えた

その2
OSドライブにUSBメモリを使い debian 5.0 lennyでソフトウエアRAID組んで運用

OSドライブを交換するため、USBメモリを外すと同時にソフトウエアRAIDを組んでたドライブを全部外す

HDDに交換 debian 6.0 squeeze クリーンインスコ

ソフトウエアRAID組んでたドライブを取り付ける

再構築

マウントしたら、データ残ってて普通に使えた


429 :login:Penguin:2011/05/22(日) 01:24:19.56 ID:mz99SHzs
ふむふむ


てことは、Linuxから認識が出来て、
パーティションをいじらない限りは
普通に使えそうですね。



430 :login:Penguin:2011/05/22(日) 17:17:48.63 ID:UuMWPsxa
>>426 >>429
パーティションなりディスクボリュームなりの最後にスーパーブロックがあって、
そこにマジック書き込んであって認識される。
RAIDのどのタイプか、何番目のディスクか、動作状態は健全かデグレートか等々。
したがってRAIDから外したディスクを再利用するつもりなら --zero-superblock
しとかないと、既存のRAIDの一部とみなされて後々変なトラブルが出る。

>>427
ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。

431 :login:Penguin:2011/05/22(日) 17:24:17.90 ID:UuMWPsxa
追記。
「変なトラブル」の大半は、RAIDボリュームの一部なのに他と合わないので
RAID構成から外すとかRAIDの方も停止状態にした、というもの。

各ディスクには出来上がったRAIDボリュームのUUIDと動作状態の
チェックサムも記録されているので、偶然の一致は無い。

432 :login:Penguin:2011/05/22(日) 19:03:12.62 ID:2Faawrj0
>>430
> ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。

無責任に一般化するなよw

433 :login:Penguin:2011/05/22(日) 20:09:37.56 ID:GBnvxDPM
>>432
無知乙

434 :login:Penguin:2011/05/23(月) 00:19:26.19 ID:7v6SLhKz
>>433
無知とか何とかって話ではなく、
この話がそもそも >420 からの続きだってこと
理解してるのか?

つか一言でハードウェアRAIDったって
例えば3wareとRocketRAIDじゃ
全然違うだろうに
更に言えば機種後との互換性すら
メーカーごとに全然扱いが違うんだが

435 :login:Penguin:2011/05/23(月) 01:49:04.69 ID:8su/jpd5
>>433
メーカーAのカードでハードウエアRAID組んだドライブを
メーカーBのカードにつないでハードウエアRAIDにしても問題なく今までのデータ使えるんだ?w

436 :login:Penguin:2011/05/23(月) 01:57:47.85 ID:+Ld7qqz/
その「しるし」がハード固有だって事ぐらい分かるだろ?
それを挙げ足取りみたいにして喜んでさ、根暗だよね〜。

437 :login:Penguin:2011/05/23(月) 07:51:45.28 ID:WeXZ1aBl
>>434-435
ここまで頭のわるいやつらだったとは

438 :login:Penguin:2011/05/23(月) 10:38:53.40 ID:b7qa5pVu
>>420にはソフトウェアRAIDって書いてあるのに
延々とハードウェアRAID基準で語るとか
日本語が不自由な奴が多いのか


439 :login:Penguin:2011/05/23(月) 20:49:21.35 ID:T2qGWxDH
>>437
ソフトウエアRAIDの話をしているのにハードウエアRAIDの話に持っていく
そして、ハードウエアRAID固有の問題を挙げると揚げ足取りとか言う
馬鹿なのかアホなのか



440 :login:Penguin:2011/05/23(月) 22:21:48.36 ID:BzlQ03Y+
次スレ案
【ハードも】RAID総合スレッド No.6【ソフトも】

441 :login:Penguin:2011/05/23(月) 22:25:37.02 ID:JXT2n+qb
ハードも可とすると、自作PC板の
http://hibari.2ch.net/test/read.cgi/jisaku/1303039530/
との住み分けも考える必要がありそうすね。


442 :login:Penguin:2011/05/23(月) 22:35:49.44 ID:BzlQ03Y+
次スレ案2
【ソフトでも】Linux de RAIDスレ No.6【ハードでも】

443 :login:Penguin:2011/05/23(月) 22:39:06.68 ID:LESgUC77
ハードウェアRAIDの最低ラインはMegaSASにしようぜ(w

444 :login:Penguin:2011/05/23(月) 23:16:44.85 ID:c0/6JENF
>>442
懐かしすぎて吹いた


445 :login:Penguin:2011/05/23(月) 23:19:26.81 ID:c0/6JENF
>>443
ハードウエアRAIDは使ってないからわかんないけど、
ハードウエアRAIDをLinux板でやる意味はあるの?
自作PC板かハードウェア板でやったほうが有意義では?

446 :login:Penguin:2011/05/24(火) 09:57:13.61 ID:uNp2NbCh
自作板にはすでにRAIDカードのスレがあるよ。

RAIDカードあれこれ 43枚目
ttp://hibari.2ch.net/test/read.cgi/jisaku/1303039530/

447 :login:Penguin:2011/05/24(火) 12:37:53.94 ID:rRC5sbA8
総合スレなんだから総合らしくやればいいだけのこと

448 :login:Penguin:2011/05/24(火) 21:39:57.63 ID:3OuK7Gis
ハードウエアRAIDでアレイ構築してるのにlinux板のRAIDスレで何聞くんだろ?


449 :login:Penguin:2011/05/25(水) 03:45:59.14 ID:3S9STLoJ
ドライバ関係とかツールのインストール関係とか
Linux依存の話はいろいろあると思うが

450 :login:Penguin:2011/05/25(水) 10:35:24.97 ID:61mBVb84
次スレ談議は950あたりでやればいいよ。

451 :430:2011/05/26(木) 13:11:33.96 ID:WzPNJ81w
>>434-436
異方式での互換?「藁人形論法」なんて幼稚な事しなさんな。

ソフトウェアRAID込みでRAID共通化の提言は確かインテル主導で
(アンド、mdadmの人も入ってる)だいぶ前からあるはずだけど、
はたしてまとまるのかねえ。

>>432
ではその事例を挙げるべし。教えてもらえると助かるよ。

>>445
dmraidがあるんだから、語ればいいと思う。

452 :login:Penguin:2011/05/26(木) 15:18:08.67 ID:Vlfbg01s
アホは放置の方向で

453 :login:Penguin:2011/05/26(木) 23:10:45.61 ID:2O6Wds09
なんだ、反論できないからアホ呼ばわりかw

454 :login:Penguin:2011/05/27(金) 21:26:08.03 ID:SK+T648j
mdraidのsuperblockを修正するツールのraidzapについてなんだけど。
これって、superblock1.0にも対応してる?
先日、謎の瞬断で四本のディスクで構成していたraid5アレイが崩壊してしまい修復を図っているところなんだけど、ツールだとno superblockとかなってしまう。
でも、mdadm --exmineだとちゃんと表示されるんだよな〜。
1.0系と0.9系のsuperblockでは書き込まれている場所が違うからなんじゃないかと思っているんだけど。
ソースみても読み込み位置を指定する部分がよくわからない。。。


455 :login:Penguin:2011/05/27(金) 23:34:46.71 ID:LfJimWf2
>>454
対応していない

0.9と1.xではsuperblockの構造体が違う
raidzapは0.9系の構造体使ってる

位置は末尾決め打ち


456 :login:Penguin:2011/05/28(土) 02:11:28.82 ID:DR8xEqFb
>>454
なるほど、ありがとう。

だが・・・困ったなぁ。。。
md.cに何かヒントないかな。


457 :login:Penguin:2011/05/28(土) 02:12:55.99 ID:DR8xEqFb
455へのレスだった・・・ごめんなす。

458 :login:Penguin:2011/05/28(土) 13:01:46.86 ID:17piUe8k
>>454
mdadm -A -l<level> dev dev...
とかやって無理やりassembleしてもだめだった?


459 :454:2011/05/28(土) 15:22:38.14 ID:DR8xEqFb
>>458
--forceとかつけてやってみたんだけど、ダメだった。。。
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : inactive sdb1[1](S) sdd1[5](S) sda1[4](S) sdc1[2](S)
7813690476 blocks super 1.2

全部、なぜかスペア扱いwwww


460 :454:2011/05/28(土) 15:34:46.55 ID:DR8xEqFb
ちょっと情報が少なかったので補足。
・もともと、sd[abcd]1でRAID5を構築していた。
・東京電力が謎の瞬断。
・ログを見ると、sdaとsddが外れていた。
・assembleかけてみたが、なぜかスペアで組み込まれてしまう。。。

ログを見ると、(ほとんど差は無いが)時間的にはsda、sddの順で外れていたので、
復旧の方向性としては、まずなんとかsddを組み込んで縮退状態での起動を
目指す…でいいよね?


461 :login:Penguin:2011/05/28(土) 17:00:28.23 ID:o/JG/Ps/
RAID組んでるならUPSぐらい……

# 今まで日本は恵まれていたんだよ。これからは海外並みにUPSが当たり前。

462 :login:Penguin:2011/05/28(土) 17:48:01.24 ID:17piUe8k
>>460
-A sd[bcd]1が無理なら--createする時に縮退で組めば
resyncが発生せずにメタデータ上書きだけでデータ本体はそのまま残る。
--createするときはチャンクサイズとかレイアウトとかも要設定。
まずは仮想マシンで手順とか確認。


463 :454:2011/05/28(土) 22:41:58.42 ID:DR8xEqFb
>>461
まぁ、それを言われちゃうと申し訳ないとしか言えないが…
計画停電もあったし、アキバで中古のUPS買おうとは思ってたんだけどなぁ。

>>462
createは最後にやってみようと思う。
おそらく、そこは失敗すると二度と戻れない手順ですよね。
もう少し、Faultyフラグを書き換える方法をいろいろ調べてみます。
ちなみにcreateする場合、自分の場合だと構成デバイスはsddだけにして、missing にsd[abc]入れる感じ?

464 :login:Penguin:2011/05/28(土) 23:42:14.88 ID:17piUe8k
>>463
各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる
Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing)

createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる
なので元々dev.No = sda.0/sdb.1/sdc.2/sdd.3
となっていてsddがDevice Role=3で新規アレイの3の位置に戻して-Cするなら
-C (中略) -l5 -n4 missing missing missing /dev/sdd
になる。dev.noは上のままと仮定して0抜きの1/2/3で縮退-Cでstartする場合のdevicesは
missing /dev/sdb /dev/sdc /dev/sdd
になる
失敗してもアレイのメタデータが飛ぶだけでLVM/PVに使っていてもそのメタデータが
破損する亊はないけどその状態で書くと多分死ぬ
各アレイの頭4096 sectorsずつくらいddでコピーして仮想マシンで試すとかいうのも手


465 :454:2011/05/29(日) 03:09:04.90 ID:HSES09fA
>>464
まじですごい!!!
createで復活したよ!!!
いくら、礼を言っても足りないくらいだ。
最初、lvmがinactiveになっていてactivateする必要はあったけど、見事に復活しました。
mount直後にext4の自動修正が走ったので、多少はデータに欠損があったのかもしれないが、いまのところ壊れたファイルは無さそうです。

466 :454:2011/05/29(日) 03:34:13.70 ID:HSES09fA
これは素晴らしいノウハウなので、復旧した流れををちょっと書き記します。
ちょっとログが流れてしまったので、一部記憶を頼りに書いています。

> 各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる
> Device Role : Active device 0
> Array State : AAAA ('A' == active, '.' == missing)
# mdadm -E /dev/sd[abcd]1 | grep Role
Device Role : Active device 0
Device Role : Active device 1
Device Role : Active device 2
Device Role : Active device 3

# mdadm -E /dev/sd[abcd]1 | grep State
Array State : AAA. ('A' == active, '.' == missing)
Array State : AAA. ('A' == active, '.' == missing)
Array State : AAA. ('A' == active, '.' == missing)
Array State : .AA. ('A' == active, '.' == missing)

> createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる
# mdadm --detail /dev/md1
(中略)
Layout : left-symmetric
Chunk Size : 512K
(中略)
Number Major Minor RaidDevice State
4 8 1 0 failure
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 failure
5 ? ? ? spare /dev/sda1
6 ? ? ? spare /dev/sdd1


467 :login:Penguin:2011/05/29(日) 03:37:10.10 ID:HSES09fA
# mdadm -C /dev/md1 -c512 -l5 --layout=left-symmetric -n4 missing /dev/sdb1 /dev/sdc1 /dev/sdd1
以下、復活後の確認
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid5 sdd1[3] sdc1[2] sdb1[1]
ちょっと怖いが、sdaも瞬断で外れただけで、壊れていないと判断してスペアに組み込んだ。
# mdadm --detail /dev/md1
Version : 1.2
Creation Time : Sun May 29 02:46:23 2011
Raid Level : raid5
Array Size : 5860267008 (5588.79 GiB 6000.91 GB)
Used Dev Size : 1953422336 (1862.93 GiB 2000.30 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun May 29 03:29:10 2011
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 6% complete
Name : sa22c:1 (local to host sa22c)
UUID : edb063f2:f934a5bb:1bf36d16:54d746ca
Events : 7
Number Major Minor RaidDevice State
4 8 1 0 spare rebuilding /dev/sda1
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 active sync /dev/sdd1

468 :454:2011/05/29(日) 03:47:51.48 ID:HSES09fA
それにしてもHDDは、まだ買ってから3〜4ヶ月のWD20EARSなのに外れなのかなぁ。。。
5本買って、1週間で1本ぶっ飛んで交換してもらったというのに。
とりあえず、sdaとsddの2本は心配なので早急に換装を検討します。

もう、WDは買わない。

あらためて、464には本当にお世話になりました。
有難うございました!

469 :login:Penguin:2011/05/31(火) 14:33:41.81 ID:XlrTIdtB
WD20EARS 5本を常用してる私が来ましたよ。
454さんのような復旧時にはresync必須だけど、その逆で。

create/assemble 時に state:clean にして sync を省くオプション。
--assume-clean

xfs@64bit がスタック問題で固まってた頃に多用しました。

470 :login:Penguin:2011/05/31(火) 17:32:00.62 ID:t1HBdX4P
こうやって問題が解決したときに結果を報告してくれる人ってのはすばらしいと思う

お疲れ様&情報ありがとう。

471 :login:Penguin:2011/05/31(火) 20:30:44.98 ID:IpyDmIcQ
https://raid.wiki.kernel.org/index.php/Initial_Array_Creation
そういやどっかのPerl MongerがRAID5構築時に無責任に--assume-clean勧めてたっけ

472 :login:Penguin:2011/06/01(水) 20:11:08.58 ID:68ZL2HmJ
無責任艦長

473 :login:Penguin:2011/06/01(水) 22:36:50.36 ID:pRX2jIbT
タイラー!!!

474 :login:Penguin:2011/07/02(土) 09:21:27.65 ID:Gf0bFLPz
RAID10のリビルドはRAID6と比べて早いのではと想像しているのですが、
この考えは正しいでしょうか?

全部同一の2TBディスクを使ってのLinuxソフトウェアRAIDですが、
・6本でRAID6
を、
・8本でRAID10
に変更した場合、容量がざっくりレベルで同じになってリビルドが早くなるなら
変更したいと考えています。
現状のRAID6だと故障からリビルド完了までに丸2日近くかかっています。
構成は、Pen4マザーにPCI-SATAカード4枚刺しにしてディスクを分散して
います。この構成を変えずにリビルド時間を短縮するのが目的です。
アドバイスお願いします。

475 :474:2011/07/02(土) 09:24:02.18 ID:Gf0bFLPz
補足ですが、データは全て別マシンにフルバックアップがあります。
変更といいつつアレイががっさり再構築になることは理解しています。

476 :login:Penguin:2011/07/09(土) 11:02:10.07 ID:Zeh7W9MH
>>474
その「リビルド」とやらを、一体システムの何が律速してるのか調べろよ。

ちょっと考えるだけでも

・パリティ計算を行うCPU
・SATAコントローラがぶら下がるPCIバスの帯域幅
・SATAコントローラ自体の性能
・SATAの帯域幅
・ハードディスクの速度

あたりが律速する要因だろう、と見当はつくだろ。
CPUが律速してないのにRAIDの構成いじってもあまり意味は無いぞ。

あと、Linuxのmdアレイはリビルドだけでマシンパワーを使い切らないようにリミッターが
かかってるから、その辺もありうるな。

477 :login:Penguin:2011/07/09(土) 11:17:58.17 ID:6cpMxatu
>>474
他にもボトルネックになっている可能性はあるけど、PCIバスが確実にボトルネックになるので
構成変えずに頑張っても大して効果はない。
ちなみにうちの2TBx5(RAID5)でのリビルドは、半日はかからなかったはず。


478 :login:Penguin:2011/07/10(日) 06:14:38.03 ID:pX9rtczw
ちょっと質問です
>RAID5はRAIDボリュームクラッシュ時に手の打ちようがない
>RAID10の方がまだマシだからRAID10にしておいた方が良い
と言う話を聞いた事があるんだけど、RAIDボリュームクラッシュ時からの
回復率ってRAID5(RAID6,RAID-Z等含む)とRAID10で変わるのかな?

479 :login:Penguin:2011/07/11(月) 23:29:52.79 ID:OOaET+Az
>>478
簡単に計算してみる。
RAID5は10台中2台以上破損で回復できない。
RAID10は10台中6台以上破損で回復できない。

480 :login:Penguin:2011/07/11(月) 23:36:04.41 ID:48uiNmM9
>>479
A-A'
B-B'
C-C'
D-D'
E-E'

A-A'が同時に壊れる可能性もあるわけだ。
そう考えると簡単な計算すら難しくなりそう。
ちなみに、俺には計算出来ない。数学は高一で放棄したから

481 :login:Penguin:2011/07/12(火) 00:40:57.00 ID:2zy6hBSr
RAID6+スペア2台で任意の4台までOKですよ(リビルト中に壊れない限り)
スペア2台は一台目死亡時点でで気づく様な仕組みにしておけよ、と思ってしまうけど

482 :login:Penguin:2011/07/12(火) 01:02:43.08 ID:LDQ+b/Dh
>>481
つauto rebuild

483 :login:Penguin:2011/07/12(火) 01:23:02.33 ID:bzOh2LuE
HDD4 RAID6 / Hot Spare 6

そうそう壊れないだろw

484 :login:Penguin:2011/07/12(火) 01:35:42.33 ID:KnVTEP27
アレイのI/Fが2つ以上に分かれていて
そのうち1つのI/F死ぬとコロっといくかもな

485 :login:Penguin:2011/07/12(火) 03:30:30.00 ID:bzOh2LuE
それはどのRAIDでも言えること

486 :login:Penguin:2011/07/16(土) 23:21:39.73 ID:RQME3r/e
初心者です。質問させて下さい。
HDD2台でRaid0を組んだ場合のバックアップの取り方なんですが、どのようにされていますか?
Raid対応のバックアップソフトが市販されてますが、やはりバックアップ用のHDDも2台必要なのでしょうか。
できれば費用を節約して1台に集約したいのですが。



487 :login:Penguin:2011/07/16(土) 23:42:33.24 ID:pf3M1bS/
・・・

488 :login:Penguin:2011/07/17(日) 00:09:54.21 ID:l0XJkxsN
>>486
1GB HDD×2のものを2GB×1にバックアップしたいって意味?


…じゃなさそうだな…

489 :login:Penguin:2011/07/17(日) 02:07:20.16 ID:O6oORdmv
>>488
いえ、その通りです。
2台のHDDにストライピングしたデータを1台のHDDでバックアップしたいのです。

490 :login:Penguin:2011/07/17(日) 02:21:53.74 ID:T2Qdi5fJ
そんなの、十分な容量のバックアップ先にコピーでも何でも好きにすりゃいいんじゃない?
その容量なら、その辺で売ってる安いUSBメモリでも間に合うぜ?

491 :login:Penguin:2011/07/17(日) 09:40:59.84 ID:8HtPnhxy
>>490
それは単位間違いじゃないか。
そもそも、1GBうんぬんは質問者の >>486 が言っているわけじゃなく、>>488 のコメントだし。

>>486
このスレだと、RAID"0" はバックアップいらないデータの置き場所っていう感じあるからなぁ。
1台で容量足りないならバックアップ先も RAID 組むしか無い。
そもそも RAID0 でバックアップもとりたいなら RAID10 組むことが多い気がする。





492 :login:Penguin:2011/07/17(日) 09:44:41.92 ID:8HtPnhxy
ところで、ubuntu 道場で NAS の話が出ていて、
ttp://ascii.jp/elem/000/000/619/619406/index-4.html
RAID 組んだら定期的に dd of=/dev/null if=/dev/sda とかでデータなめておいた方が
いいとかあるんだけど、結構常識だったりする?
はじめて聞いたんだけど。

493 :login:Penguin:2011/07/17(日) 11:07:52.82 ID:euYEF6jy
その理由を書いていないのでオカルト。
そもそもddでなくてもmdにアレイの整合性をチェックさせて
問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし

494 :login:Penguin:2011/07/17(日) 12:31:49.13 ID:O6oORdmv
>>491

>>486で質問した者です。
十分な容量のHDDさえ用意できれば1台でバックアップ取れるのでしょうか?つまり、
ストライピングでHDD2台に分散させたデータを通常の形のデータ(Raid0構成でないシステムでも読めるデータ)に戻してHDD1台に保存できるのでしょうか?


495 :login:Penguin:2011/07/17(日) 12:52:44.01 ID:C0QOi8+q
いや普通にバックアップとればいいんじゃないの?
何悩んでるかしらんが

496 :login:Penguin:2011/07/17(日) 17:24:13.10 ID:sAxoGETv
>>494
RAIDを実際に使ったことないの?

使えば分かるがRAIDってのは大雑把に言って
「複数のHDDを一つのHDDとして扱う技術」だ。
OSからはまとめて一つのHDDに見えてるんだから
扱いとしてはHDD 1対1のコピーと何も変わらんぞ。
むしろ構成してる物理HDD別々にバックアップをする方が大変。

497 :login:Penguin:2011/07/17(日) 17:50:22.73 ID:O6oORdmv
>>495
>>496
まだ実際にRaidで組んだことがないもので・・。アホな質問で申し訳ありませんでした。
普通にできるんですね。
どうもありがとうございました。

498 :login:Penguin:2011/07/19(火) 14:08:40.91 ID:YOk0NYds
RAIDに詳しい人が多いようなので質問します。
今、センチュリーのCRIB35EU3という外付ケースを利用してRAID5を組んでいるのですが
先日、バックアップをとろうと電源を入れ、アクセスしようとすると
フォーマットされていませんというメッセージが表示されるようになりました。
おそらく論理障害だと思いますが、簡単に直す方法などありますでしょうか?
※FINALDATAでは中身を見ることができました。ただいまバックアップをとっています。

499 :login:Penguin:2011/07/19(火) 14:28:35.01 ID:EEEP93x/
板名音読しろ

500 :login:Penguin:2011/07/19(火) 14:39:11.43 ID:9QgtZQ/U
OK牧場かYahoo痴恵袋行け

501 : 【東電 67.6 %】 忍法帖【Lv=31,xxxPT】 :2011/08/01(月) 19:05:41.74 ID:ddnJTrg6
Ubuntu初心者板でも匙投げられたのでどうかご教授お願いします

【初心者スレ】Ubuntu Linux 67
http://hibari.2ch.net/test/read.cgi/linux/1311389692/351

> 恐れ入ります
> 私のマシンは少し構成が入り組んでいるのですが、Ubuntuをどのような手順で入れればいいでしょうか
> 特に4ポートのRAIDボードが邪魔をして、この間もWindowsXPとのデュアルブートを試みたのですが
> ブートドライブにインストールされないで、他のRAID1を破壊するだけの結果におわりました
> ご指導よろしくお願いします
>
> マザーボード:P7P55D-E
> メモリ:2Gbyte×2
>
> 現在オンボードはIDEモードでSATA→eSATA変換ブラケットで2台HDDが外付けになっている
> ただし、それらはブートドライブには使わない
>
> PCI及びPCI-exスロットの並び
> 1:HighPoint Rocket RAID 3120(それにHDD2台でRAID1)→ブートドライブ
> 2:玄人志向 GF210-LE512HD(nVidiaグラフィックボード)
> 3:玄人志向GbE-PCIe(LANボード)
> 4:カノープスMTV1200FX(使用禁止にする予定)
> 5:空き(SATA→eSATA変換ブラケット×2にて2台ハードウェアRAIDを装着中)
> 6:CMI8738-4CHPCI(サウンドボード)
> 7:HighPoint Rocket RAID 2300(それにHDD4台でRAID1×2セット)→データドライブメインとバックアップ
>
> 音も鳴るのにどうしてこうなった…orz
>
厳密には3120がハードウェアRAIDボードで2300はソフトウェアRAIDボードなのにUbuntu板ではそう思っていないようです


502 :login:Penguin:2011/08/01(月) 19:18:25.37 ID:MoOsZ/eN
そう思っていないとは、どう思っているのかがその文からは全然わからん


503 :login:Penguin:2011/08/01(月) 20:22:31.58 ID:LMFTrc05
ブートに使うドライブだけ付けて OS をインストールして、
インストールが終わったら順番に付けろ。
そもそも OS インストールを助けるスレじゃねぇぞ。と。

504 :login:Penguin:2011/08/02(火) 23:14:34.99 ID:10Xubh93
>>501
> Ubuntu板ではそう思っていないようです
すでに手放して久しいんだが、RocketRAID(めんどくさいから以下RR)2300はHighPointのドライバ入れないと
「Marvell製コントローラを搭載したnon-RAIDなSATAアダプタ」として認識されるんじゃなかったかな?
今でもそうだったら、Ubuntuスレが正しい。

RR3120のアレイにインストールできないのはよく知らん。
HighPointのサイト見たら「Ubuntu 8.10以降ならカーネルにRR3120のドライバ入ってます」とかゆってるけど。

505 :login:Penguin:2011/08/09(火) 10:03:24.01 ID:hTCbJlvG
RAID童貞です。Windowsなんですけどここでいいですか?
いいとして質問します。もし他に適当なスレがあれば誘導してください。

現在データは全て外付けHDDに入れて、もう1台の外付けHDDにバックアップソフトで
定期的にミラーリングしています。
それだとちょっと面倒なのでRAID1でミラーリングしたいです。
ちなみにこれを使う予定です。
http://buffalo.jp/product/hdd/external/hd-wlu3_r1/

本文が長すぎると2chに怒られたので分割します。

506 :login:Penguin:2011/08/09(火) 10:04:52.77 ID:hTCbJlvG
続き

質問1
RAID1を構成した2台のHDDは、PCからは1台のHDDとして見えるとのことですが、
他のPCに繋いでも同じように動作するのでしょうか。

質問2
RAID1を構成した2台のどちらか一方または両方を、後でRAIDではなく普通の
外付けHDDとして読み書き削除したり、それを再度RAID化したりできるのでしょうか。

質問3
一方のHDDが壊れてももう一方が生きていればそのまま問題なく使えるのはいいのですが、
壊れたことはどうやって知るのでしょうか。

質問4
RAID1の2台のHDDをTrueCryptで暗号化した場合、ヘッダは2台共通でしょうか、別々でしょうか。
また、壊れた場合の復旧も含めて、暗号化しない場合と全てにおいてまったく同じように使えるのでしょうか。
それとも何か制限があるのでしょうか。


以上初歩的な質問で申し訳ありませんがよろしくお願いいたします。

507 :login:Penguin:2011/08/09(火) 10:21:30.30 ID:8OkAJdZz
Linux板で
>Windowsなんですけどここでいいですか?
とか、ネタなら笑いどころがわからないし、本気なら人生やり直しが必要

508 :login:Penguin:2011/08/09(火) 10:24:12.41 ID:NGWTHhbE
>>506
回答1-4
HDD買って自分で全て試してから質問しろ
まあがんばれ

509 :login:Penguin:2011/08/09(火) 10:25:09.82 ID:dChPzCWQ
(1)YES
(2)NO (参考:ttp://www.touki.info/howto/howtoReadRAID1.html)
(3)外付けならBEEPが鳴ったり、付属ツールで知ります (HW RAID I/F の場合は、それら機能はカード側に有り)
(4)仮想ドライブの実態はファイルです(これで意味が分からなければ TrueCrypt は使わないほうが良いかな?)

510 :login:Penguin:2011/08/09(火) 11:03:22.91 ID:NGWTHhbE
>>509
ブロックデバイスそのものをTruecryptで暗号化できるぞ。その上でext3,4なりxfsなりでフォーマット可能

511 :506:2011/08/09(火) 19:01:28.28 ID:hTCbJlvG
>>509
何か問題が生じたときに面倒そうですね。
やっぱり私にはRAIDは敷居が高そうなので、今まで通り、暗号化したHDD2台を
手動でちまちまミラーリングすることにします。
ありがとうございました。

512 :login:Penguin:2011/08/09(火) 22:51:15.48 ID:ZNuJPM5g
手動バックアップできるならそのほうがいいよ。
操作ミスで消してしまってもバックアップから戻せるし。
RAIDだと両方同時に消えちゃうんだぜ。

513 :login:Penguin:2011/08/09(火) 23:11:11.55 ID:qheaWxpd
highpoint RR2740で起こっている症状なんですが、おしえてください。
RAID5
windows7 ultimate64 2TBX4 アレイ3個で運用していたのですが
増設して3TBX4のアレイを追加したのですが
再起動するとアレイが消滅してlegacy の表示になっていました。
2740のwindowsドライバをアップデートしたらアレイが消滅することはなくなったのですが
bios画面では相変わらずlegacyの単独ドライブが2個表示される異常な状態
でも、windows 上ではアレイが認識されて使用出来ます。
3TBはまだ完全に対応しきってない、ということなのでしょうか?

514 :login:Penguin:2011/08/10(水) 00:09:19.62 ID:zijbgalB
板違いだつってんだろクソが

515 :login:Penguin:2011/08/10(水) 10:38:40.00 ID:3blPM5vJ
>>513
1.ハードディスクを窓から投げ捨てる
2.RR2740を電子レンジで30秒ほどチンする
3.Linuxに入れ替えてからこのスレを再訪する

これで君を悩ます諸問題は解決だ。おめでとう。

516 :login:Penguin:2011/08/10(水) 15:24:41.67 ID:LTIBIK6s
ZFSで運用した場合、トランザクション管理されるため、
RAID 5書き込みホールの問題は起こらないという認識で間違いないですか?

517 :login:Penguin:2011/08/10(水) 19:17:02.70 ID:N8zlOHLY
Native ZFS for Linux
ってもう使ってる人多いのかな?

518 :login:Penguin:2011/08/10(水) 20:20:33.31 ID:xLNWbyKZ
>>513 ですがぼーっとしてた ごめん。

519 :login:Penguin:2011/08/18(木) 20:06:21.02 ID:C6hWIJ/5
>>509
質問2はRAIDカードによるよね?

520 :login:Penguin:2011/08/19(金) 00:14:26.66 ID:/dF3zyqQ
RAIDカードによらずともマウントする際に色々パラメータ弄ってやればマウントはどれも可能なはず


521 :login:Penguin:2011/09/02(金) 13:50:56.07 ID:DvSMkTFj
mdraidは最初は対応してなかったraid6に対応したみたいに、raidZ対応したりしないのかな
それだとext4であと5年は戦えるきがするんだ
resize2fs(resize4fs?)が16Tの壁乗り越えてくれればだけど

522 :login:Penguin:2011/09/05(月) 03:13:11.48 ID:Gem/5tJp
mdadmで構成したHDD4台のRAID5アレイでhdd側に障害が発生。
一時的に構成しているHDDが通電していない状態になったようなのですが、
瞬断と思い電源コネクタを付け直してサーバの再起動をしました。

すると/proc/mdstat上で構成しているHDD4台全てが
[S]が付いて全台スペアディスクになってしまっているようです。
おそらくこれが原因でmdadm.confに記入していても自動で起動できず inactive の状態からアレイを起動できません。
強制的にアレイの起動をかけても、 no superblock assembly のエラーを吐いてしまう状態です。

スペアディスクの属性をクリアできればよいような気がするのですが、ここからの復旧方法についてアドバイスいただけないでしょうか。



523 :522:2011/09/05(月) 03:35:07.39 ID:Gem/5tJp
詳細1

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : inactive sdh1[4](S) sdg1[2](S) sde1[1](S) sdb1[0](S)
7814049792 blocks super 1.2

md127 : active raid5 sdd1[3] sdc1[0] sdf1[1]
5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

unused devices: <none>


524 :522:2011/09/05(月) 03:36:18.11 ID:Gem/5tJp
詳細2
# mdadm --examine /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : 8c8ddf45:f164c9ed:a130b98c:2d811627

Update Time : Sun Sep 4 23:10:41 2011
Checksum : fdf9230e - correct
Events : 83

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing)


525 :522:2011/09/05(月) 03:37:04.14 ID:Gem/5tJp
詳細3
# mdadm --examine /dev/sde1
/dev/sde1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : 5198bcfd:a5d03642:14c34e0b:06a622d4

Update Time : Sun Sep 4 23:14:18 2011
Checksum : 35e6562b - correct
Events : 1234

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 1
Array State : .AAA ('A' == active, '.' == missing)


526 :522:2011/09/05(月) 03:37:48.24 ID:Gem/5tJp
詳細4
# mdadm --examine /dev/sdg1
/dev/sdg1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : 256bfd77:421f8083:95a02e33:19164d06

Update Time : Sun Sep 4 23:14:18 2011
Checksum : 4b7ac530 - correct
Events : 1234

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 2
Array State : .AAA ('A' == active, '.' == missing)


527 :login:Penguin:2011/09/05(月) 03:38:29.46 ID:Gem/5tJp
詳細5
# mdadm --examine /dev/sdh1
/dev/sdh1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : e81fc343:3e114959:003c90b1:e8d210c6

Update Time : Sun Sep 4 23:14:18 2011
Checksum : 2b2ec42c - correct
Events : 1234

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 3
Array State : .AAA ('A' == active, '.' == missing)


528 :522:2011/09/05(月) 03:41:43.66 ID:Gem/5tJp
おそらくは/dev/sdb1のみが
Array State : AAAA ('A' == active, '.' == missing)
と成っていてHDD4台ともActiveと認識しているのに対し
残り3台は
Array State : .AAA ('A' == active, '.' == missing)
となっているあたりが原因のような気がしています。

529 :login:Penguin:2011/09/06(火) 03:20:24.29 ID:pUNE1oun
ナルホド('A'

530 :login:Penguin:2011/09/06(火) 08:21:56.98 ID:znO8rUOJ
>>528
Update Timeから、/dev/sdb1が真っ先にアクセス不能になったのは分かるけど、
spareになるのは想像つかん

superblockのフォーマット↓
ttps://raid.wiki.kernel.org/index.php/RAID_superblock_formats
dev_rolesが0xFFFFになってるのがスペア

異常なDiskと正常(?)なDiskのsuperblockを見比べて見ると何か分かるかも
# dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
# dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc


531 :522:2011/09/06(火) 22:35:23.61 ID:Bbl4LkEB
>>530
アドバイスありがとうございます。実行してみました。

# dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000000 00000000 45df8d8c edc964f1
0010b0 8cb930a1 2716812d 00000000 00000000
0010c0 4e6386e1 00000000 00000053 00000000
0010d0 00000000 00000000 fdf9230e 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 00010000 fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe

# dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
#

/dev/sdb1 側にのみ a92b4efc が存在しているようです。

532 :login:Penguin:2011/09/07(水) 00:39:07.00 ID:0NsdsTrQ
>>531
sde1のsuperblock飛んでる?
だとするとmdadm --examineで表示されるのが変なんだけど

同様に↓は?
# dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
# dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc


533 :522:2011/09/07(水) 00:50:40.62 ID:6aXKWA2G
>>532
大変失礼しました。 # も含めてコピペしてコメント扱いになっているだけでした。残り3台分の実行結果です。

# dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000001 00000000 fdbc9851 4236d0a5
0010b0 0b4ec314 d422a606 00000000 00000000
0010c0 4e6387ba 00000000 000004d2 00000000
0010d0 00000000 00000000 35e6562b 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 0001fffe fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe


534 :522:2011/09/07(水) 00:51:21.93 ID:6aXKWA2G
# dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000002 00000000 77fd6b25 83801f42
0010b0 332ea095 064d1619 00000000 00000000
0010c0 4e6387ba 00000000 000004d2 00000000
0010d0 00000000 00000000 4b7ac530 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 0001fffe fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe


535 :522:2011/09/07(水) 00:52:03.35 ID:6aXKWA2G
# dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000004 00000000 43c31fe8 5949113e
0010b0 b1903c00 c610d2e8 00000000 00000000
0010c0 4e6387ba 00000000 000004d2 00000000
0010d0 00000000 00000000 2b2ec42c 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 0001fffe fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe


536 :login:Penguin:2011/09/08(木) 00:02:44.15 ID:O6bwqAQc
superblock上ではスペアになっているDISKは無い
/proc/mdstatで"(S)"になってるのは起動時のチェックで
エラーがあったからだと思う
起動時のログに何かエラー出てない?

あと、↓は実行出来る?
# mdadm --detail /dev/md126

sdb1外して再起動すれば復活するような気がするんだけど

537 :522:2011/09/08(木) 01:10:05.32 ID:X3JJWFjL
>>536
度々ありがとうございます。 /var/log/dmesg 上のログ全ては出し切れないので怪しそうな部分の抜粋です。

↓/dev/md127に関するログは当然あるが、 /dev/md126に関するログが何も出ていない(エラー系のものも含めて)

[ 6.544320] sd 1:0:5:0: [sdg] Attached SCSI disk
[ 6.593606] md: bind<sdf1>
[ 6.597609] md: bind<sdc1>
[ 6.606304] md: bind<sdb1>
[ 6.612664] md: bind<sde1>
[ 6.619733] md: bind<sdd1>
[ 6.622390] bio: create slab <bio-1> at 1
[ 6.622417] md/raid:md127: device sdd1 operational as raid disk 2
[ 6.622420] md/raid:md127: device sdc1 operational as raid disk 0
[ 6.622423] md/raid:md127: device sdf1 operational as raid disk 1
[ 6.622951] md/raid:md127: allocated 3230kB
[ 6.623015] md/raid:md127: raid level 5 active with 3 out of 3 devices, algorithm 2
[ 6.623019] RAID conf printout:
[ 6.623021] --- level:5 rd:3 wd:3
[ 6.623024] disk 0, o:1, dev:sdc1
[ 6.623026] disk 1, o:1, dev:sdf1
[ 6.623028] disk 2, o:1, dev:sdd1
[ 6.623064] md127: detected capacity change from 0 to 6001180803072
[ 6.639598] EXT4-fs (sda1): mounted filesystem with ordered data mode. Opts: (null)
[ 6.651689] md: bind<sdg1>
[ 6.662636] md127: p1
[ 6.674039] md: bind<sdh1>
[ 6.963670] ses 1:0:7:0: Attached Enclosure device
[ 38.039547] Adding 1325356k swap on /dev/sda5. Priority:-1 extents:1 across:1325356k


538 :522:2011/09/08(木) 01:17:27.06 ID:X3JJWFjL
気になるログその2 ATA14のHDDでエラー。こいつが今件の初発の原因??

[ 5.680895] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[6:5] is gone.
[ 5.685621] ata14.00: ATA-8: WDC WD20EARS-00MVWB0, 51.0AB51, max UDMA/133
[ 5.685624] ata14.00: 3907029168 sectors, multi 0: LBA48 NCQ (depth 31/32)
[ 5.689622] ata14.00: configured for UDMA/133
[ 5.689676] scsi 1:0:5:0: Direct-Access ATA WDC WD20EARS-00M 51.0 PQ: 0 ANSI: 5
[ 5.693872] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[7:5] is gone.

[ 39.559395] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00
[ 39.559400] ata14: status=0x01 { Error }
[ 39.559403] ata14: error=0x04 { DriveStatusError }
[ 39.564298] ata14: translated ATA stat/err 0x51/04 to SCSI SK/ASC/ASCQ 0xb/00/00
[ 39.564303] ata14: status=0x51 { DriveReady SeekComplete Error }
[ 39.564307] ata14: error=0x04 { DriveStatusError }
[ 39.564735] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00
[ 39.564739] ata14: status=0x01 { Error }
[ 39.564742] ata14: error=0x04 { DriveStatusError }

あと、以前も試して同じ結果でしたが
# mdadm --detail /dev/md126
mdadm: md device /dev/md126 does not appear to be active.
でした。

正常に動作しているmd127は、/dev/md/以下に別名のアレイ名称のシンボリックリンクが作成されていますが
md126については、シンボリックリンクは作成されていませんが、 /dev/md126 自体は生成されている状態になっています。


539 :522:2011/09/10(土) 13:46:51.44 ID:NMszAiJM
復旧を継続して試みていますが、 sdb1 のHDDを取り外して起動しなおしても状況は変わりませんでした。
# mdadm -D /dev/md126
/dev/md126:
Version : 1.2
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent

Update Time : Sun Sep 4 23:14:18 2011
State : active, degraded, Not Started
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512K

Name : ubuntu:0 (local to host ubuntu)
UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Events : 1234

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 65 1 active sync /dev/sde1
2 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1

540 :522:2011/09/10(土) 13:50:59.81 ID:NMszAiJM
sdb1のHDDを

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 65 1 active sync /dev/sde1
2 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1

のremovedの位置に認識させられればアレイを起動できる状態になりそうなのですが、
一旦sdb1のsuperblockを飛ばすなり、パーティションを作成しなおしてからでないとスペアとして組み込めないのですかね・・・?

541 :login:Penguin:2011/09/10(土) 16:18:48.11 ID:efd1VIH5
>>540
取り外したDISKがremovedになってるのは当然

これの↓実行結果は?
# cat /sys/block/md126/md/array_state

あと、/proc/mdstatでまだ"(S)"付いてる?

542 :522:2011/09/10(土) 16:27:16.54 ID:NMszAiJM
なんとか sdb1 をスペアに組み込むところまではたどり着きました。
再起動を何回か実施しているので、 md126 が md127 に入り繰りになってます。

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid5 sdd1[3] sdf1[1] sdc1[0]
5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

md127 : inactive sdg1[2] sdh1[4] sde1[1] sdb1[5](S)
7814049792 blocks super 1.2




543 :522:2011/09/10(土) 16:28:11.25 ID:NMszAiJM
# mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Sun Sep 4 23:14:18 2011
State : active, degraded, Not Started
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1

Layout : left-symmetric
Chunk Size : 512K

Name : ubuntu:0 (local to host ubuntu)
UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Events : 1234

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 65 1 active sync /dev/sde1
2 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1

5 8 17 - spare /dev/sdb1

544 :522:2011/09/10(土) 16:30:05.08 ID:NMszAiJM
>>541
# cat /sys/block/md127/md/array_state
inactive

mdstatの各HDについていた (S) は無くなりました。

ただ、この状態からでもアレイの起動はできずの状態です。
# mdadm -R /dev/md127
mdadm: failed to run array /dev/md127: Input/output error

545 :login:Penguin:2011/09/10(土) 17:25:26.05 ID:efd1VIH5
>>544
sdbって新品?
元々使ってた奴なら、アレイに追加する前に単体で読み書きテストした?

とりあえず、強制的にactive
# echo active > /sys/block/md127/md/array_state

ttp://lxr.linux.no/#linux+v3.0.4/drivers/md/md.c#L3354


546 :522:2011/09/11(日) 11:24:57.03 ID:AqZU9mQD
>>545
sdbは使い回しています。 まだメーカーのHDDチェックツールでのHDD単体全体のスキャンチェックは完了していませんが、読み込みは問題ないようです。
# hdparm -Tt /dev/sdb

/dev/sdb:
Timing cached reads: 2108 MB in 2.00 seconds = 1054.63 MB/sec
Timing buffered disk reads: 366 MB in 3.00 seconds = 121.99 MB/sec

復旧できなくなる要員になるようなことは極力避けようと思い、sdbへの書き込みチェックはまだ実施していません。

547 :522:2011/09/11(日) 11:27:14.34 ID:AqZU9mQD
強制activeを試みましたが原因不明の入出力エラーの状態で、ここにアレイを起動できない原因があるのかもしれません。
# ls -l /sys/block/md127/md/array_state
-rw-r--r-- 1 root root 4096 2011-09-11 11:15 /sys/block/md127/md/array_state

# cat /sys/block/md127/md/array_state
inactive

# echo active > /sys/block/md127/md/array_state
bash: echo: 書き込みエラー: 入力/出力エラーです

# ls -l /sys/block/md127/md/
合計 0
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 array_size
-rw-r--r-- 1 root root 4096 2011-09-11 11:18 array_state
drwxr-xr-x 2 root root 0 2011-09-11 11:00 bitmap
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 chunk_size
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 component_size
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdb1
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sde1
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdg1
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdh1
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 layout
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 level
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 max_read_errors
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 metadata_version
--w------- 1 root root 4096 2011-09-11 11:00 new_dev
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 raid_disks
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 reshape_position
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 resync_start
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 safe_mode_delay

548 :login:Penguin:2011/09/11(日) 23:05:24.48 ID:lb+4D791
>>547
んじゃ、↓で。"active"と違って縮退状態のままアレイ開始
# echo clean > /sys/block/md127/md/array_state

ここまで動かないと、ハードウェア側を疑いたくなるんだけど


549 :login:Penguin:2011/09/12(月) 13:01:15.87 ID:Bts/njAy
たった4台のraid5でなにを大騒ぎしてんだろ……
ステータスのクリーンは筋が悪い。

b1が腐ってるんだろ?

新台入れるか(パチンコみたいだなw)
普通に
mdadm -S /dev/md127
mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1
これが通ったら、
mdadm --zero-superblock /dev/sdb1 ←ここがポイントのはず
mdadm -A /dev/md(新しい数字) -a /dev/sdb1
でよかないか?

書き換えるのが怖いなら/dev/sdbをコピーとってからやればよい。

550 :login:Penguin:2011/09/12(月) 13:08:18.91 ID:Bts/njAy
蛇足。
mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1
この記法ってあってたかどうか自信ない。

素直に
mdadm -A /dev/md(新しい数字) -a /dev/sde1 /dev/sdg1 /dev/sdh1
にすべきか。

551 :login:Penguin:2011/09/12(月) 21:29:15.15 ID:5pzJNgRd
>>550
# mdadm -A /dev/md(新しい数字) -a /dev/sd[egh]1
では?
http://www.ioss.jp/sohodiy/mdadm8-1_5.html
だと、
# mdadm -A /dev/md(新しい数字) -a /dev/sd['egh']1
だけど。

552 :550:2011/09/15(木) 08:13:23.76 ID:sKBE5Whs
ああ、思い出した。 >>551 の前者で正しい。
-C の場合は認識順が意図した順番と違っちゃうけど、 -A なら問題ない。

553 :login:Penguin:2011/09/16(金) 23:15:29.48 ID:BraekazM
ARC-1880ix-24の"Advanced Configurations"に関するドキュメントってどっかに無いですかね。




554 :login:Penguin:2011/10/02(日) 17:50:56.90 ID:kYnPDMiF
mdadmによるRAID6でchunkサイズの違いによるパフォーマンスを計測したのでチラ裏を。
 ML110G6
 WD25EZRX-00MMMB0を4台(OSは別HDD)
 CentOS 5.7(x86_64)
 mdadm-2.6.9-3.el5
 各HDD上で2GB領域を作成しmd0を構成
 ext3フォーマット

WRITE:# dd if=/dev/zero of=/storage/1GB.img bs=1M count=1024
READ :# hdparm -t /dev/md0

計測結果は次レスで。
(ほかにもいろいろテストしたかったけど疲れたのでw)

555 :login:Penguin:2011/10/02(日) 17:54:55.86 ID:kYnPDMiF
■chunk 4k
READ :Timing buffered disk reads: 332 MB in 3.01 seconds = 110.46 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 2.25816 seconds, 475 MB/s

■chunk 64K (default)
READ :Timing buffered disk reads: 488 MB in 3.00 seconds = 162.43 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 2.77056 seconds, 388 MB/s

■chunk 128K
READ :Timing buffered disk reads: 548 MB in 3.00 seconds = 182.54 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 1.72971 seconds, 621 MB/s

556 :login:Penguin:2011/10/02(日) 17:58:51.36 ID:kYnPDMiF
■chunk 256K
READ :Timing buffered disk reads: 546 MB in 3.00 seconds = 181.93 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 1.92294 seconds, 558 MB/s

■chunk 512K
READ :Timing buffered disk reads: 522 MB in 3.01 seconds = 173.50 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 2.23327 seconds, 481 MB/s

■chunk 1024K
READ :Timing buffered disk reads: 542 MB in 3.02 seconds = 179.54 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 4.35082 seconds, 247 MB/s

557 :login:Penguin:2011/10/02(日) 18:04:10.65 ID:XKBCXxnC
RAIDなし単体でのベンチマークと見比べたかったな。

558 :login:Penguin:2011/10/02(日) 18:22:22.99 ID:kYnPDMiF
/dev/sdb1 として 2GB 領域を作成し ext3 フォーマット、コマンドは同じで。

READ :Timing buffered disk reads: 304 MB in 3.01 seconds = 100.83 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 3.07366 seconds, 349 MB/s

559 :login:Penguin:2011/10/04(火) 23:51:41.62 ID:2uRB3/YB
こないだ作ったraid5は、過去256kだったのをなんとなく
128kに変えたけど、それで無難だったのか。

560 :login:Penguin:2011/10/25(火) 11:37:42.73 ID:9XR7fcw7
>>492,493
> そもそもddでなくてもmdにアレイの整合性をチェックさせて
> 問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし
読んだ時なるほどれならリビルドの時の障害起きにくくなるなと思ったんだけどそもそもシステムにそういう機能があるからやらなくてok てこと?


561 :login:Penguin:2011/10/25(火) 16:54:38.88 ID:/PmSxWz5
機能があっても使われなきゃ意味が無い
RedHat系なら自分で仕込むまでもなくcron.weeklyにraid-checkが入れられる
Ubuntuには無いみたいだけどね

562 :login:Penguin:2011/10/25(火) 20:32:10.73 ID:RuQRT1PJ
>>561
てことはUbuntu(Debian も?)だとraid-check というのを自分で設定するか,dd で舐めるとかしなきゃ駄目ってことなのかな
raid-check 調べてみる

563 :login:Penguin:2011/11/25(金) 02:01:00.42 ID:DfspjuOn
HDD2台のraid0とHDD4台のraid5について質問です。
ベンチマークとか見るとHDD2台のraid0が200MB/s、HDD4台のraid5が150MB/sくらいになってるけど、
実際の体感速度はどうなんでしょう? 主に動画編集などで使います。


564 :login:Penguin:2011/11/25(金) 04:47:32.00 ID:x3Tq0gHW
体感速度は自分で確かめるしかないべ、マジで。

565 :login:Penguin:2011/11/25(金) 16:51:59.33 ID:FaCKtUuk
編集だから書き込み速度はあまり気にしなくてもいいのかもしれないけど、
それ読み込み速度でしょ。

巨大なストレージの確保で見たら RAID5 でいいんじゃないのかなと。

566 :login:Penguin:2011/11/27(日) 23:08:23.83 ID:CjNOkzQ7
1TBのHDD×4でRAID0組んでみた
seq READ 400MB/s WRITE 350MB/s
ってがんばってる方?

567 :login:Penguin:2011/11/28(月) 01:54:44.62 ID:zJmMr8wx
良い成績だと思うよ
ブロックサイズは64KBだっけ?の方が良い成績が残ったような気がする。

568 :login:Penguin:2011/11/28(月) 14:31:17.43 ID:SzpgZCSv
だれか助けてください。
CentOS5.7からScientificLinux6.1への乗り換えのさい、
CentOSで運用していたRAID5のアレイがScientificLinuxでmd127と認識されたのが気に入らず、

# mdadm /dev/md127 -f /dev/sd[bcd]1
# mdadm --misc --stop /dev/md127
# mdadm -C /dev/md0 -l 5 -n 3 /dev/sd[bcd]1

としたところ、データが飛びましたorz
どうにかしてサルベージすることはできませんか・・・・


569 :568:2011/11/28(月) 14:42:31.84 ID:SzpgZCSv
現在分かっていることは、CentOS5.7とScientificLinux6.1では
アレイを作る際のメタデータのバージョンが違うようです。
CentOSは0.9で、Scientificでは1.2です。

また、無指定でアレイを構築した際の、chunksizeも違うようです。
CentOSは64K、Scientificは512Kのようです。

もともと64Kだったchunksizeが512Kで構築しなおされてしまったようです。
なんとか助ける方法はありませんか

570 :568:2011/11/28(月) 14:50:52.12 ID:SzpgZCSv
連投すみません。
仮想環境で
# mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1
とすればデータは無傷だったということは確認しました。

また、一旦chunksize=512Kで構築されたアレイを解除して、
64Kで作り直してもデータは復旧しませんでした。

571 :568:2011/11/28(月) 15:01:22.13 ID:SzpgZCSv
はたまた連投すみません
512Kで再構築されてしまった場合でも、mkfsなど余計なことしなければ

# mdadm /dev/md0 -f /dev/sd[bcd]1
# mdadm --misc --stop /dev/md0
# mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1
で仮想環境では復旧しました。
一人で勝手に騒いですみません。
現実環境のリビルドが完了したら試してみようと思います。

おっちょこちょいな自分の失敗が誰かの役に立てばと思います。

572 :568:2011/11/28(月) 15:38:35.38 ID:SzpgZCSv
現実環境でやってみましたがダメでした。
メタデータのバージョンが同じでないとうまくいかないような感じです。
CentOSで64kで構築

Scientificで512kで構築

Scientificで64kで再構築

ダメ ←いまここ

です。
これからCentOSで64kで再構築してみます。
まずは仮想環境でやってみようと思います。

573 :568:2011/11/28(月) 16:23:08.43 ID:SzpgZCSv
バージョンによってメタデータの書き込まれる場所が違うことがわかりました
http://hellokitty68.main.jp/wiki/Mdadm#metadata
ここにあるように、0.9と1.2ではずいぶんと違うようです。
これは困りました。
さらに、これだけがわかっても自分にはどうしたらいいのかわかりません。

574 :login:Penguin:2011/11/28(月) 16:47:50.20 ID:zJmMr8wx
dd でディスク毎に吸い上げて処理したほうが早くないか?

575 :568:2011/11/28(月) 16:54:58.39 ID:SzpgZCSv
>>574
現在、本番環境でのddでの吸い上げ先がない状態ですが、
ddで吸い上げた後にどう処理すればいいのか教えていただけますか?

metadataがあると思われる部分をddでファイルに書き出して
hexdumpなんてしてみましたが、どうしたらいいのかさっぱりわかりませんでした。

576 :login:Penguin:2011/11/28(月) 18:43:29.50 ID:GpepBfXK
dd で吸い出してそこで作業したら失敗してもやり直しが効く
そのデータがどのくらい大事かに寄るね
失ってもいいのであれば実HDDで作業してもいいかも

577 :login:Penguin:2011/11/28(月) 19:55:43.30 ID:nPrmxBAd
>>575
losetupでloopデバイスを割り当てる

ddで吸い上げたイメージをdisk1.img, disk2.imgとすると
↓こんな感じでloopデバイスを割り当てられる(未使用のloopデバイスはlosetup -f で確認)
# losetup /dev/loop0 disk1.img
# losetup /dev/loop1 disk2.img

/dev/sd*の代わりに、このloopデバイスでRAID1を作ったり出来る
# mdadm --create /dev/md0 --raid-devices=2 --level=1 --verbose /dev/loop0 /dev/loop1
mdadm: size set to 131008K
mdadm: array /dev/md0 started.

578 :login:Penguin:2011/11/29(火) 10:25:15.02 ID:00jPXJK8
吸い上げたイメージ同士でデータとメタデータ領域が重なってるので、稀だけど壊れることないか。
真面目にするならメタデータ領域分は切り貼りして揃えてから再構築、かな?

579 :login:Penguin:2011/11/29(火) 12:25:33.10 ID:Yf0+yFDJ
RAID0組んでるHDDにOS再インストールするときって、そのままOSインストール作業する?
それとも、一度、Delete RAID Volumeで崩してからCreate RAID VolumeでまたRAID構築してからOSインストールしてる?

580 :login:Penguin:2011/11/29(火) 15:13:40.75 ID:iTSjKJPG
バージョンが同じならそのまま
違う場合は別の環境でテストしてOKならそのまま
違うなら別のPCを用意
かな

581 :568:2011/11/29(火) 15:46:31.33 ID:nWLFZrGz
>>577
わざわざ丁寧にありがとうございます。
その方法ももちろん考えたのですが、
いかんせん、退避場所がありません。
タイの洪水でHDDの価格が高騰しているため手軽に買えない状況です・・・

582 :568:2011/11/29(火) 15:54:45.87 ID:nWLFZrGz
さて、今日もシコシコと仮想環境で試行錯誤していましたら、
もしかしたら、完全復活はできなくても
一部の復活はできるかもしれない方法を見つけました。

簡単に言うとアレイをバージョン0.9のメタデータで構築しなおし、
思い切ってfsckをかける方法です。
仮想環境でやってみたところ、とりあえずデータの復活を確認しました。
後は本番環境ですが、>>581に書いたとおり、HDDが高くてすぐには実行できません。
アレイのサイズが1TBが3台のRAID5なので、余裕を持って2TBを
2本ほどRAID0で動かして作業をしたいところです。
それか、2TB1本にして縮退状態でやるかといった感じです。

ちなみにメタデータ、chunksizeを指定してアレイを構築する場合は以下のようになります

mdadm -C /dev/md0 -l 5 -n 3 --chunk=64K --metadata=0.9 /dev/sd[bcd]1

583 :login:Penguin:2011/11/30(水) 10:23:52.58 ID:/CGQEQQw
md127の何が気にくわないのか。
自分はそのまま使ってるぞ。
直すスキルがないってのは内緒・・・

584 :login:Penguin:2011/11/30(水) 13:28:21.02 ID:OuQeDi8o
>>583
ちゃんと流れを読めよw

585 :login:Penguin:2011/12/03(土) 20:43:01.66 ID:TtU/rjkx
127が気に入らないならアレイ止めてからこれだけでよかったのにずいぶん余計なことを

mdadm -A /dev/md0 /dev/sd[bcd]1

586 :login:Penguin:2011/12/05(月) 23:56:34.31 ID:6e/+yMbn
/boot を RAID1, swap を RAID0 にして、
あと全部 / で RAID1 にして普通にインストール成功 (ScientificLinux)
再起動してみるとBIOS直後から何も表示せず立ち上がらない。
どうしてかわかる人いる?

587 :login:Penguin:2011/12/06(火) 16:20:07.48 ID:D33FO92h
>>586
ドライバが足りなくて
> /boot を RAID1
のとこで転けてるんじゃ?

588 :login:Penguin:2011/12/06(火) 22:50:52.50 ID:ICuP3dI/
>>586
レイドパーティションを/bootにする場合は、メタデータを0.90にしないと
だめだよ。それかメタデータを1.2にして、grubを1.0以上にする。

589 :586:2011/12/08(木) 19:52:18.26 ID:Hmnoh3H0
>>587-588
ありがとう。インストーラのバグなのか
grub が default では /dev/md0 に入ってしまっていた。
オプションで grub を /dev/sda1 の MBR に書くと起動した。
片方が死んだときのために
RAID 構成ディスクの /dev/sdb1 にも grub を入れた。
これで大丈夫だといいんだが。

590 :login:Penguin:2011/12/09(金) 00:31:48.61 ID:u1j4XOSq
/bootなんか、わざわざRAIDに置かずに別途USBメモリに保存したほうが
トラブルも無く、運用も楽。
そりゃ、万一の時は多少手間が増えるが。

204 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50

read.cgi ver 05.04.00 2017/10/04 Walang Kapalit ★
FOX ★ DSO(Dynamic Shared Object)