Невозможно смонтировать устройство - поверьте, это тип XFS
У меня есть жесткий диск из корпуса Javelin S4 (похожий на Promise NS4600N), который был настроен как отдельный диск RAID0, который я пытался добавить на свой сервер Linux Ubuntu (14.x) универсальный "Linux 3.13.0-49-generic" Я полагаю, что тип FS - xfs, основанный на том, что я прочитал. У меня также есть диск из Promise NS4300N, который я смог добавить (ext3) без проблем, тот же формат RAID0 для одного диска.
Всякий раз, когда я пытаюсь смонтировать устройство XFS, я получаю сообщение об ошибке "Функция не реализована".
fdisk -l (только относительные элементы):
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000
[...]
Disk /dev/mapper/vg002-lv001: 1999.0 GB, 1998950760448 bytes
255 heads, 63 sectors/track, 243025 cylinders, total 3904200704 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000
Disk /dev/mapper/vg002-lv001 doesn't contain a valid partition table
Эта информация аналогична устройству ext3, которое монтируется нормально.
Когда я делаю любое из следующего:
sudo mount -t xfs /dev/vg002/lv001 /hdd/volume2
sudo mount -t xfs /dev/mapper/vg002-lv001
sudo mount /dev/vg002/lv001 /hdd/volume2
sudo mount /dev/mapper/vg002-lv001
I just get Function not implemented.
Я установил xfsprogs и xfsdump
Я пробовал варианты как на сервере Ubuntu, так и на рабочем столе Ubuntu
Я запустил xfs-repair, сначала как -n, а затем без ключа no action:
sudo xfs_repair -v /dev/mapper/vg002-lv001
Phase 1 - find and verify superblock...
- block cache size set to 758408 entries
Phase 2 - using internal log
- zero log...
zero_log: head block 195328 tail block 195328
- scan filesystem freespace and inode maps...
- found root inode chunk
Phase 3 - for each AG...
- scan and clear agi unlinked lists...
- process known inodes and perform inode discovery...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
- process newly discovered inodes...
Phase 4 - check for duplicate blocks...
- setting up duplicate extent list...
- check for inodes claiming duplicate blocks...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
Phase 5 - rebuild AG headers and trees...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
- reset superblock...
Phase 6 - check inode connectivity...
- resetting contents of realtime bitmap and summary inodes
- traversing filesystem ...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
- traversal finished ...
- moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
Note - quota info will be regenerated on next quota mount.
XFS_REPAIR Summary Wed Aug 19 09:45:12 2015
Phase Start End Duration
Phase 1: 08/19 09:44:51 08/19 09:44:52 1 second
Phase 2: 08/19 09:44:52 08/19 09:45:02 10 seconds
Phase 3: 08/19 09:45:02 08/19 09:45:10 8 seconds
Phase 4: 08/19 09:45:10 08/19 09:45:11 1 second
Phase 5: 08/19 09:45:11 08/19 09:45:11
Phase 6: 08/19 09:45:11 08/19 09:45:11
Phase 7: 08/19 09:45:11 08/19 09:45:11
Total run time: 20 seconds
Я сделал vgscan
Reading all physical volumes. This may take a while...
Found volume group "vg002" using metadata type lvm2
[...]
Я проверил, что xfs поддерживает в /procs/filesystems и что в нем нет nodev (нет /etc/filesystems)
Я полагаю, что размеры блоков жесткого диска 4096 и сделали getconf PAGE_SIZE с возвратом 4096
a dmesg | tail yields:
[ 1631.686429] XFS (dm-0): Corruption detected. Unmount and run xfs_repair
[ 1631.686433] XFS (dm-0): SB validate failed with error 38.
[31648.998141] XFS (dm-0): unknown mount option [csize].
[31665.514229] XFS (dm-0): unknown mount option [csize].
Я также выполнил эту команду на обоих жестких дисках с двух разных NAS:
sudo file -s /dev/sda
/dev/sda: LVM2 PV (Linux Logical Volume Manager), UUID: KNAIIR-rtHE-ucTO-cWT4-Zke0-7NVX-7WNpD0, size: 2000331800576
sudo file -s /dev/sdc
/dev/sdc: LVM2 PV (Linux Logical Volume Manager), UUID: ANxiVX-4s1T-dtNj-vCGA-xNGE-p39E-UP0bHc, size: 1999999991808
И еще больше данных на устройстве:
sudo lvdisplay
--- Logical volume ---
LV Path /dev/vg002/lv001
LV Name lv001
VG Name vg002
LV UUID cOl9oX-IoNh-azhW-cnxS-USa6-LpV6-sI0RKQ
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 0
LV Size 1.82 TiB
Current LE 476587
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:0
--- Logical volume ---
LV Path /dev/vg002/nsswap
LV Name nsswap
VG Name vg002
LV UUID qidCbH-TlD0-oXPB-cb36-tPZy-3anI-7gcC2Q
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 0
LV Size 512.00 MiB
Current LE 128
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:1
С помощью команды lvdisplay я заметил, что у нее есть сущность nswap, которой не было у другого устройства ext3. Не уверен, что это что-то значит (извините, немного нуб, или, по крайней мере, плохо разбираетесь в управлении инфраструктурой Linux).
У кого-нибудь есть мысли о том, что я еще не пробовал? Предложения? Данные в порядке, я просто хотел бы иметь возможность передавать данные с диска на диск, а не делать это по сети - NAS > рабочая станция> NAS - занимает много времени.
Спасибо