2010年3月18日 星期四

ZFS-NAS測試數據 Part 3 - 異常狀況測試

ZFS-NAS測試數據 Part 3 - 異常狀況測試


測試日期20091027

    zpool狀態
    XD


    raidz1


    c2t3d0


    c2t4d0


    c2t5d0
    測試數據及結果
  1. zpool
    狀態
    項目 動作 使用程式或動作 大小
    (GB)
    時間
    (sec)
    速度
    (MB/sec)
    NAS CPU
    使用率(%)
    正常 iSCSI 寫入 PC => NAS FastCopy ? ? 16 30
    讀取 NAS => PC FastCopy ? ? 15 20
    iSCSI 寫入 PC => NAS iometer 256k
    4 of outstanding I/O
    ? ? 7.1 15
    讀取 NAS => PC iometer 256k
    4 of outstanding I/O
    ? ? 10 5
    iSCSI 讀取 NAS => PC HDTune ? ? 40 30
    scrub 讀取 raidz zpool scrub ? ? 110 ?
    1. XP使用的是Microsoft iSCSI Initiator
    2. iSCSI很慢,iometer的表現更慘,Hdtune讀取稍慢於CIFS
    3. scrub的速度似乎因為檢查不出異常,可以維持接近全速讀取,沒有寫入動作
  2. zpool
    狀態
    項目 動作 使用程式或動作 大小
    (GB)
    時間
    (sec)
    速度
    (MB/sec)
    NAS CPU
    使用率(%)
    degrade下
    250G x3
    拔c2t5d0
    登入
    ZFS-NAS
    寫入 raidz mkfile ? ? 90 ?
    讀取 raidz cp test /dev/null ? ? 110 ?
    cifs 寫入 PC => NAS fastcopy ? ? 55 80~90
    1. 寫入讀取似乎沒有什麼改變,CPU使用率似乎也沒有變。
  3. zpool
    狀態
    項目 動作 使用程式或動作 大小
    (GB)
    時間
    (sec)
    速度
    (MB/sec)
    NAS CPU
    使用率(%)
    degrae下
    resilver中
    c2t5d0接回去
    登入
    ZFS-NAS
    寫入 raidz mkfile 5 ? 74 30
    讀取 raidz cp test /dev/null 5 ? 52 30
    1. 不能用c2t5d0自己replace自己
    2. 會自動開始resilver(類似重建的動作)
    3. 因為之前有用mkfile的指令產生新檔案,resilver會因為錯誤太多自動停止
    4. c2t5d0會被標示為fail失效,zpool 不會對c2t5d0進行寫入動作,但是似乎會讀取
    5. 假如要讓重建繼續,必須要clear指令清除c2t5d0的fail狀態
    6. 這時zpool的狀太會是normal,但是實際上卻是c2t5d0的資料並不完整,另外兩顆掛一顆就會讓資料再見
    7. 所以這個normal狀態是不正確的,有問題。
    8. 我這樣測試有點問題,因為正常的狀況下不該把異常的硬碟再裝回去
  4. zpool
    狀態
    項目 動作 使用程式或動作 大小
    (GB)
    時間
    (sec)
    速度
    (MB/sec)
    NAS CPU
    使用率(%)
    degrae下
    scrub中
    登入
    ZFS-NAS
    讀取寫入 raidz zpool scrub ? ? 30~33 15
    寫入 raidz mkfile 10 ? 16 15
    讀取 raidz cp test /dev/null 5 ? 83~100 20
    cifs 寫入 PC => NAS FastCopy 55 90
    讀取 NAS => PC FastCopy 33 50
    寫入 PC => NAS iometer 7 25
    讀取 NAS => PC iometer 33 50
    1. 延續zpool不正常的normal狀態下,進行scrub指令
    2. scrub指令會發現異常的資料,c2t5d0回同時有讀取和寫入的動作
    3. 使用mkfile時,不確定背景的scrub有沒有自動暫停,因為zpool iostat -v 1的結果沒有紀錄下來,腦袋理也沒有印像
    4. cp指令的讀取結果則意外的快速
    5. CIFS測試寫入時,似乎scrub的讀取動作會暫停,zpool iostat -v 1沒紀錄但腦袋理還有印象
    6. CIFS測試讀取時,似乎scrub的動作一樣會暫停,zpool iostat -v 1沒紀錄但腦袋理還有印象
    7. iometer測試時的scrub動作則沒有印象
    8. scrub檢查資料時,因為全部硬碟的資料都要檢查,所以讀取的動作為主,寫入的的動作做只有在發現異常時會重新寫入正確的資料。

沒有留言: