jenci
как и проводов питания в наших краях за 182 руб найден BitFenix Molex to 4 x SATA.

как и проводов питания в наших краях за 182 руб найден BitFenix Molex to 4 x SATA.

MikeMac Member Куратор темы 2386/3714 ответов 16 лет на iXBT, с февраля 2009 Чаще пишет в "Накопители" (54%) Россия, Москва Web-страница | jenci как и проводов питания в наших краях за 182 руб найден BitFenix Molex to 4 x SATA. ![]() |
jenci Member 316/572 ответов 17 лет на iXBT, с июня 2007 12 фото на iXBT.photo Чаще пишет в "Накопители" (51%) Украина, Ужгород Web-страница | MikeMac в наших краях за 182 руб найден BitFenix Molex to 4 x SATA. да, я первым делом пошел смотреть в ваш блог |
Piwis Junior Member 9/9 ответов 11 лет на iXBT, с ноября 2013 | RU_Taurus Переставил систему. Backup 1tb происходил при средней скорости 50Mb/s. Пересоздал zfs pool: nas4free: ~ # zpool statusdd дал результат 93-95 мб/с (не помню точно). Восстановил с бэкапа. Скорость также была 50мб/с. решил сделать dd и выложить сюда: nas4free: ~ # dd if=/dev/zero of=/mnt/data/Data/file.tst bs=1m count=5000Делал 3 раза, результаты каждый раз разные: 70......, 77...... bytes/sec При этом dd на ufs диске в этой системе: nas4free: ~ # dd if=/dev/zero of=/mnt/system/file.tst bs=1m count=5000iperf: nas4free: ~ # iperf -c 192.168.1.35 -P 1 -i 1 -p 5001 -f M -t 10 -w 64K c:\iperf>iperf -c 192.168.1.34 -P 1 -i 1 -p 5001 -f M -t 10 -w 64KСкорость копирования с сервера на клиента - 74мб/с (zfs) 58мб/с (ufs) на файле 2 гига. Скорость копирования с клиента на сервер (zfs) - 55мб/с на том же файле. Копирует половину быстро и замирает. Скорость копирования с клиента на сервер (ufs) - 43мб/с на том же файле. Стало, конечно, гораздо лучше, но не понятна суть происходящего. Почему, например, скорость dd понизилась? При таком высоком результате dd на ufs, копирование на него по сети медленнее, да и внутри сервака с zfs на ufs 55мб/с, а с ufs на zfs 65мб/с? Есть смысл ещё что-то крутить?) p.s.Спасибо за терпение!)) |
RU_Taurus Member Куратор темы 5681/11419 ответов 15 лет на iXBT, с марта 2009 22 фото на iXBT.photo Чаще пишет в "Накопители" (49%) Россия, Ульяновск | Piwis raidz1-0 ONLINE 0 0 0 gpt/WD-WMC1T1576554 ONLINE 0 0 0 gpt/WD-WCAZAF850805 ONLINE 0 0 0 Покажите zpool history. Мне крайне любопытно как вы делаете raidz из двух дисков. |
jenci Member 317/573 ответов 17 лет на iXBT, с июня 2007 12 фото на iXBT.photo Чаще пишет в "Накопители" (51%) Украина, Ужгород Web-страница | Piwis на файле 2 гига кэш переполнился, началась запись... можно проверить gstat-ом, но его вроде нет в сборке nas4free. из-за этого меньше скорость копирования на диск ufs. там кеш меньше по скольку нету свободной памяти для него. надо бы проверить при копировании загрузку проца, может он не справляется? тут говорили не давно про то что G2020 "хватает" для zfs. данные с http://www.cpubenchmark.net Intel Pentium G2020 @ 2.90GHz 2789 |
Xmm... Member 41/1664 ответов 21 год на iXBT, с сентября 2003 Чаще пишет в "Политика" (37%) | Сделал себе NAS на Nas4Free (конфигурацию, если надо, опишу подробно). Скорость трансфера файлов по гигабитной сети вроде более-менее приличная, а вот время доступа несколько удручает. При заходе в директорию аппарат "задумывается" на пару секунд, а если файлов много - может и до десятка секунд доходить. С чем это может быть связано? atime в свойствах датасета отключен. |
aLEXXOiD Member 49/115 ответов 15 лет на iXBT, с апреля 2009 Чаще пишет в "Накопители" (42%) | VaZoR P.S.S. Так поведаете, все таки свое решение ? |
RU_Taurus Member Куратор темы 5682/11420 ответов 15 лет на iXBT, с марта 2009 22 фото на iXBT.photo Чаще пишет в "Накопители" (49%) Россия, Ульяновск | Xmm... При заходе в директорию аппарат "задумывается" на пару секунд, а если файлов много - может и до десятка секунд доходить. С чем это может быть связано? Обсуждалось чуть ранее. Посмотрите здесь -> NAS своими руками (часть 7), #578 |
thedix Member 82/94 ответов 11 лет на iXBT, с августа 2013 Чаще пишет в "Накопители" (63%) Россия, Красноярск | В продолжение вчерашнего поста про RAIDZ2. Увеличил количество дисков с данными до 16 и провел замеры для RAIDZ1 и RAIDZ2. Конфигурация аналогична описанной выше. ### RAIDZ1 ### RAIDZ2где #disks - количество дисков total - теоретически доступный объём as9 и % - свободное место и процент потерь при ashift=9 as12 и % - свободное место и процент потерь при ashift=12 delta - потери места при переходе с ashift=9 на ashift=12 Как видно из первой таблицы, правило "power of two plus parity" хорошо работает для RAIDZ1. В случае RAIDZ2 не всё так очевидно, там минимальные потери идут при 4+2 и 16+2, при этом 8+2 даёт потери 6.25%. В разных конфигурациях потери могут составлять до нескольких сотен гигабайт. Отвечу на свой же вопрос: пулы на RAIDZ1 и RAIDZ2 на одинаковом количестве дисков с данными (на считая чётность) будут иметь одинаковый размер? В общем случае - нет. UPD1. Напомню, что данные цифры годятся только для примерной оценки потерь. Диски создавались в VirtualBox размером в 1Тб двоичными (на самом деле, чуть больше - 1026,83 Гб). Реальные диски имеют меньший размер. Чтобы посчитать реальные диски, надо умножить размер из таблицы на коэффициент 0.907. Полученный размер будет ближе к реальным цифрам, но с определенной погрешностью. Проценты умножать не надо. Например, RAIDZ2 8+2 при ashift=12 с дисками 2Тб даст свободного места: 7.50 * 2 * 0.907 = 13.605 Тб Теоретически доступное свободное место: 16 * 0.907 = 14.512 Тб Потери ZFS: (14.512 - 13.605) * 1024 = 928.768 Гб Исправлено: thedix, 04.12.2013 19:32 |
RU_Taurus Member Куратор темы 5683/11421 ответов 15 лет на iXBT, с марта 2009 22 фото на iXBT.photo Чаще пишет в "Накопители" (49%) Россия, Ульяновск | thedix Спасибо. Прекрасная работа. thedix В общем случае - нет. ИМХО самое неприятное в истории с ashift 12 это то, что по мере заполнения пула количество "потерянного" объёма будет расти пропорционально количеству записанных файлов (метаинформации). |
thedix Member 83/95 ответов 11 лет на iXBT, с августа 2013 Чаще пишет в "Накопители" (63%) Россия, Красноярск | RU_Taurus по мере заполнения пула количество "потерянного" объёма будет расти пропорционально количеству записанных файлов (метаинформации) Хм, вот это интересно бы проверить. Вроде 1/64 места резервируется по нужды ФС, в том числе под метаданные. |
Balda2000 Member 16/16 ответов 12 лет на iXBT, с февраля 2013 Беларусь | jenci кэш переполнился, началась запись... можно проверить gstat-ом, но его вроде нет в сборке nas4free. таки есть И ещё на нюанс наткнулся: при создании страйпа нужно ко всем дискам .nop делать (не только на первом), иначе на остальных будет ashift=9... |
RU_Taurus Member Куратор темы 5684/11423 ответов 15 лет на iXBT, с марта 2009 22 фото на iXBT.photo Чаще пишет в "Накопители" (49%) Россия, Ульяновск | thedix Хм, вот это интересно бы проверить. В коде zfs вообще много чего нужно посмотреть и проверить, т.к. "городских легенд" вокруг неё уже бессчётное множество. Есть кстати англоязычный документ "ZFS on-disk format" и его вольная интерпретация от Юрия Воинова. Добавление от 04.12.2013 11:08: Balda2000при создании страйпа нужно ко всем дискам .nop делать (не только на первом), иначе на остальных будет ashift=9... Ashift не дискам назначается, а vdev-ам. 2012-07-08.23:00:12 zpool create -m /mnt -O atime=off -O checksum=fletcher4 -O utf8only=on TANK raidz2 # zdb | grep ashift |
Sergei V. Sh Member 514/4573 ответов 20 лет на iXBT, с ноября 2004 2 фото на iXBT.photo Чаще пишет в "Цифр.звук" (36%) Россия, Екатеринбург | RU_Taurus Покажите zpool history. Мне крайне любопытно как вы делаете raidz из двух дисков. Я пробовал на nas4free - делается абсолютно непринужденно, никаких допключей и никаких сообщений при этом нету. в history будет просто |
Oleg Pyzhov Member 757/1053 ответов 15 лет на iXBT, с июня 2009 44 фото на iXBT.photo Чаще пишет в "Накопители" (50%) Россия, Санкт-Петербург | SilverStone CP11 — очень тонкий кабель SATA, который можно подключить даже к разъему, прикрытому картой расширения ![]() защелок не видно |
Balda2000 Member 17/17 ответов 12 лет на iXBT, с февраля 2013 Беларусь | RU_Taurus Balda2000 при создании страйпа нужно ко всем дискам .nop делать (не только на первом), иначе на остальных будет ashift=9... Ashift не дискам назначается, а vdev-ам. 2012-07-08.23:00:12 zpool create -m /mnt -O atime=off -O checksum=fletcher4 -O utf8only=on TANK raidz2 /dev/gpt/d3369.nop /dev/gpt/d5470 /dev/gpt/d3585 /dev/gpt/d5160 /dev/gpt/d5062 /dev/gpt/d6835 # zdb | grep ashift ashift: 12 ashift: 12 Это RAIDZ , а я говорю про STRIPE. Вот повторил в виртуалке: zpool create tank /dev/gpt/virt1.nop /dev/gpt/virt2 /dev/gpt/virt3 zdb | grep ashift ashift: 12 ashift: 9 ashift: 9 |
VDmitry Member 308/968 ответов 20 лет на iXBT, с декабря 2004 77 фото на iXBT.photo Чаще пишет в "Накопители" (30%) Россия, Северная Родина Демократии :) | Balda2000 Праавильно: у вас страйп из 3х vdev-ов и получается |
MikeMac Member Куратор темы 2387/3715 ответов 16 лет на iXBT, с февраля 2009 Чаще пишет в "Накопители" (54%) Россия, Москва Web-страница | When writing to a RAID-Z vdev, ZFS may choose to use less than the maximum number of data disks. For example, you may be using a 3+2 (5 disks) RAID-Z2 vdev, but ZFS may choose to write a block as 2+2 because it fits better. защелок не видно - превосходные кабели miniSAS-4SATA тоже обходятся без защёлок на SATA. И попадались мне говнокабели с защёлками - так что не есть решающий признак. |
RU_Taurus Member Куратор темы 5686/11428 ответов 15 лет на iXBT, с марта 2009 22 фото на iXBT.photo Чаще пишет в "Накопители" (49%) Россия, Ульяновск | MikeMac When writing to a RAID-Z vdev, ZFS may choose to use less than the maximum number of data disks. For example, you may be using a 3+2 (5 disks) RAID-Z2 vdev, but ZFS may choose to write a block as 2+2 because it fits better. Это всё подтверждает RU_Taurus "динамический размер сегмента". На самом деле он динамичен лишь в рамках кратности размеру stripe, а не от ashift до 128Кb, как уверяет автор. |
Power User Member 877/2191 ответов 23 года на iXBT, с апреля 2001 Чаще пишет в "НАС" (54%) | Balda2000 да я тоже пару страниц назад делал страйп из 8 дисков, тоже пришлось гнопить все диски - иначе только первый ашифт12 становился (забыл написать про это, но это в принципе и логично - ашифт же не к диску относится, а к vdev-у) MikeMac цитата (http://constantin.glez.de/blog/2010/06/closer-look-z…erformance#raidz): When writing to a RAID-Z vdev, ZFS may choose to use less than the maximum number of data disks. For example, you may be using a 3+2 (5 disks) RAID-Z2 vdev, but ZFS may choose to write a block as 2+2 because it fits better. вот, вот это я и читал и потерял ссылку..... где то (может тут... надо перечитать) еще писалось что даже на рейде-з-х может бытть выбрана запись миррором вместо контрольной суммы (если блоки очень маленькии или что-то в этом роде...) отсюда можно сделать вывод что даже если 128 не дели тся на колличество дисков то будет записано не дробные блоки, а просто будут записаны не на все диски в в-деве... |
Balda2000 Member 18/18 ответов 12 лет на iXBT, с февраля 2013 Беларусь | VDmitry Ну да... теперь я понял почему так получается... raidz - 1 vdev из 3-х разделов, а в stripe - каждый раздел как отдельный vdev входит... Для меня это было не очевидно... ещё недостаточно хорошо понимаю работу ZFS. |
MikeMac Member Куратор темы 2388/3716 ответов 16 лет на iXBT, с февраля 2009 Чаще пишет в "Накопители" (54%) Россия, Москва Web-страница | RU_Taurus Это всё подтверждает да, логика чуть проясняется. Если бы они старались записать каждую запись на все диски - потери были бы при очень большом числе дисков чудовищными. Есть кстати англоязычный документ "ZFS on-disk format" RAIDZ там встречается полтора раза, причём ashift ... This is currently '10' for a RAIDz configuration '9 'otherwise ИМХО самое неприятное в истории с ashift 12 это то, что по мере заполнения пула количество "потерянного" объёма будет расти пропорционально количеству записанных файлов (метаинформации).IMHO это два разных, суммирующихся, процесса - потери места на размазывание записи по нескольким дискам raidz и потери на мелких файлах и метаданных. Я порядком погуглил и, похоже. вторая проблема как-то описана. А вот первой отцы-основатели не заморачивались (тк дисков на 4K не было). А современные контрибуторы не рискуют лезть в самую глубину движка. |
jenci Member 318/574 ответов 17 лет на iXBT, с июня 2007 12 фото на iXBT.photo Чаще пишет в "Накопители" (51%) Украина, Ужгород Web-страница | thedix
спасибо вам! я хотел переделать на пул 4+1 на ashift: 9. хорошо что не сделал. интересно а чем же вызвано такое существенное падение потерь при дисках >12? |
RU_Taurus Member Куратор темы 5688/11430 ответов 15 лет на iXBT, с марта 2009 22 фото на iXBT.photo Чаще пишет в "Накопители" (49%) Россия, Ульяновск | MikeMac ashift ... This is currently '10' for a RAIDz configuration '9 'otherwise Сделайте скидку на возраст документа MikeMac потери места на размазывание записи по нескольким дискам raidz Этот процесс, на примере, представляю так. У нас есть гипотетический raidz 4+1. Размер full stripe = 128КБ, размер stripe на каждом диске = 32КБ (128 / 4 дата-диска). Допустим приложение пишет на диск блоками по 64КБ, тогда на каждый записанный блок данных zfs выделит 2 stripe с разных дисков и чётность запишет на третий. То есть весь "динамический размер сегмента" будет ограничен дискретным рядом 32, 64, 96 и 128КБ (плюс чётность на отдельный диск). Если же приложение захочет записать, пусть, 300КБ, то запишутся 2 full stripe и 2 stripe с потерей 52КБ в последнем. |
thedix Member 84/96 ответов 11 лет на iXBT, с августа 2013 Чаще пишет в "Накопители" (63%) Россия, Красноярск | jenci я хотел переделать на пул 4+1 на ashift: 9. хорошо что не сделал. Да, вам этого делать не надо. Владельцам 4+1 и 4+2 повезло больше всех. интересно а чем же вызвано такое существенное падение потерь при дисках >12? Сложно объяснить, никакой зависимости не прослеживается. Меня особенно удивил вариант 8+2 с ashift=12, перепроверял два раза. Добавление от 04.12.2013 14:27: RU_TaurusЭтот процесс, на примере, представляю так. Очень может быть. Логично, что оставшийся хвост будет уложен в блок, кратный степени двойки., т.к. упрощается распределение свободных блоков. Добавление от 04.12.2013 14:43: Кстати, есть предположение, что странные цифры для RAIDZ2 объясняются особенностью применяемого алгоритма.Напомню, что в RAIDZ1 применяется простой XOR, как в случае обычного RAID5. Очевидно, что блок чётности будет иметь такой же размер, как и блок данных на каждом диске. В случае 4+1 это будет 128К / 4 = 32К. Для RAIDZ2 используется некий расширенный вариант избыточного кодирования Рида-Соломона. Здесь присутствуют два блока чётности. Честно говоря, не разбирался в деталях, но очень может быть, что блоки чётности имеют другой размер. Это может объяснить такие пляски с цифрами. Исправлено: thedix, 04.12.2013 14:44 |
Power User Member 878/2192 ответов 23 года на iXBT, с апреля 2001 Чаще пишет в "НАС" (54%) | MikeMac Если бы они старались записать каждую запись на все диски - потери были бы при очень большом числе дисков чудовищными. это точно, учитывая все их рекомендации в стиле возьмем 24 зеркала, добавим охапку (штук 8) SSD на L2ARC и пучок (штуки 4) для ZIL'а, сдобрим все это 200ми гигабайтами РАМа и т.п.... зы. я же писал - файл делится на stripesize и записывается на столько vdev's сколько надо.... thedix Меня особенно удивил вариант 8+2 с ashift=12, перепроверял два раза. что там ? а то я как год назад себе сделал такой.... тогда безоговорочно считалось сдесь на форуме что ashift=12 самый кошерный.... счас выесняется что все таки потери в скорости не такие как пространстве (особенно учитывая, что у большинства упирается в гигабит, а почти 1 тера потерь на формате это 1 тера RU_Taurus Этот процесс, на примере, представляю так. я его вообще уже не представляю.... тут еще вмешивается такой фактор как компрессия (если датасет/пул настроен) - а там вообще муть мутная.... есть куча примеров где народ аналлизирует запись файлов с помощиью zdb -ddddddddddd (сколько там "d" и нахрена столько я не помню).... там можно посмотреть (на пустом пуле) - что куда и как записывается.... зы. с компрессией вообще не понятно? разбивается файл на блоки равные рекордсайзу, а потом они сжимаются ? ну так ясно, что всегда (если данные сжимаемые) будет меньше, и как тогда оно пишется - ведь оно сразу становится не кратно степени 2ки?.... или сжимается маленькими кусочками пока не наберется "целый" рекордсайз из уже сжатых ? или сжимается и проверяется влезет ли в предыдущий по размеру (64к) рекорд-сайз ? Исправлено: Power User, 04.12.2013 15:10 |
2001 | как в 98-й винде печатать на арабском и фарси? Прикладное ПО |
2002 | 2-х портовый хаб Сети |
2002 | Что случилось с БиЛайном? Моб. телефоны |
2002 | XP Prof & NT4 domain, трабл с Right Click OС и сист. ПО |
2002 | Проблема Интернет |
2002 | Paragon CD-ROM Emulator & DVD Оптич. носители |
2003 | Новые Торобреды-Б на 1.5v Разгон |
2004 | Идальго: Погоня в пустыне / Hidalgo (2004) Кино |
2005 | Sony CLIE PEG-NX70V Планшеты |
2005 | Реле или аналоговый коммутатор? #2 Эл. устройства |