Многие пользуются сторонними дефрагментаторами, полагая, что они более эффективны, чем встроенный. Но одно дело предполагать, а другое – знать наверняка. Я приглашаю вас принять участие в эксперименте по сравнению дефрагментаторов!
Производительность системы, установленной на HDD, увеличивается за счет оптимального размещения фрагментов файлов на диске. К сожалению, очень трудно оценить реальный выигрыш в быстродействии от использования того или иного дефрагментатора. Но есть один аспект работы системы, который можно измерить абсолютно точно – скорость загрузки системы!
Что будем сравнивать
В конце книги об ускорении загрузки я обещал сравнить дефрагментаторы, и вот время настало. Однако эксперимент невозможен без вашей помощи!
Тому есть несколько причин:
- интересно сравнить несколько сторонних программ со встроенной утилитой
- эксперимент нужно проводить на физической машине, а не на виртуальной
- для оптимального размещения данных программа должна поработать какое-то время в вашей системе
- любопытно увидеть работу дефрагментаторов на различных конфигурациях, а не только на стендовой
Последний пункт, казалось бы, противоречит смыслу сравнительных тестов, которые всегда проводятся на одной конфигурации. Но мы и не будем сравнивать все средства между собой.
Задача состоит в том, чтобы определить, как оптимизирует загрузку вашей системы выбранная вами программа по сравнению со встроенным дефрагментатором Windows.
Приняв участие в эксперименте, вы точно узнаете, что больше подходит вам. Наблюдателям останется лишь мотать на ус результаты читателей блога. Конечно, так мы сможем проверить только один аспект работы дефрагментаторов. Но даже это даст пищу для размышлений!
Как будем сравнивать
Я составил методику сравнения, которое проводится в два этапа. Сначала для сторонней программы, а потом для встроенной утилиты выполняется:
- Создание отчета WPT для анализа ReadyBoot.
- Измерение времени загрузки с помощью моего пакета CheckBootSpeed.
Я максимально автоматизировал все действия. Лабораторная работа рассчитана примерно на 30-40 минут вашего времени плюс 2-3 часа системного времени, в зависимости от вашего дефрагментатора и размера системного раздела. Можно тестировать в разные дни и даже гулять в парке, пока программы работают.
Скачайте методику в формате PDF (480 кб) и решите, интересно ли это вам.
Если у вас есть замечания или пожелания по методике, я буду рад в течение ближайших трех дней услышать ваши взвешенные мнения в комментариях.
Кто может принять участие в эксперименте
Участвовать может любой читатель блога, но, как и в любой игре, есть системные требования.
- На компьютере установлена Windows 7.
- Сторонний дефрагментатор установлен не менее двух недель назад, причем очень желательно наличие последней версии. Вы в любом случае узнаете, что лучше для вас, но старая версия даст хороший повод критикам дискредитировать ваши результаты.
- В течение последних двух недель не выполнялась ручная дефрагментация загрузочных файлов встроенной утилитой. Это гарантирует, что фрагменты оптимально размещены с точки зрения сторонней программы.
Два последних пункта нацелены на то, чтобы отсечь ситуации, в которых сторонней программе что-то может помешать эффективно выполнить свою работу.
В принципе, встроенный дефрагментатор Windows будет находиться в очень жестких рамках, поскольку у него будет только один шанс оптимизировать загрузку.
По сути, эксперимент сводится к запуску нескольких командных файлов, но требуется внимательность и определенный уровень технической подготовки. Я рассчитываю, что у вас все это есть.
Как принять участие
Достаточно подготовить все необходимые файлы и не позднее 10 января 2012 года отправить их с помощью формы для обратной связи.
Дата выбрана не случайно. Поскольку на носу Новый Год, я полагаю, что у вас есть более приятные хлопоты, чем возня с дефрагментаторами. Однако праздновать 10 дней подряд весьма непросто, и в какой-то день нужно отдохнуть от бесконечного употребления еды и напитков :) Возможно, именно в этот момент вам захочется провести эксперимент.
Ах да, чуть не забыл :) Среди участников эксперимента, прошедших путь до конца и явлющихся подписчиками блога, случайным образом будет разыграна подписка TechNet или MSDN!
Александр Щенников
ЁжЫГ, ну, например поставить процессор помощней и памяти побольше и винда будет работать только в памяти жесткий тормозить не будет (не только Линукс так теперь умеет работать).
Виталий
Опять же, процессор тут никаким боком не стоит. Вот память да, разгружает жёсткий, храня кеш файлов.
ЁжЫГ
Пример — 16-ти процессорный сервер, рэйд-массив с огромными скоростями, памяти 64 гектара, папки открываются не мгновенно (быстро, да, но не мгновенно) можно это считать тормозами? А если узнать, что внутри папок лежит несколько десятков тысяч файлов (так надо)?
Ел я этих ваших устриц, линуксы с юниксами не только юзал, но и юзаю в определенных задачах, они не быстрее, особенно если касаться только десктопных версий.
dsergey88
На Семерку я перешел весной 2010 года. Поначалу ее очень часто переустанавливал. Последний раз я переставлял ее 31 марта 2011 года.
Дефрагментацией я почти не пользуюсь т.е. я ей пользуюсь примерно 1 раз в 2 года. Мне стало интересно как дефрагментация влияет на производительность системы, по этому я решил принять участия в этом эксперименте. Тест буду проводить стандартным дефрагментатором.
kreator
1. Tune up — OK
2. Auslogics Boot Speed — после дефрагментации 7-ка (64, макимальная) считает, что диск по-прежнему фрагментирован.
Vadim Sterkin
ЁжЫГ, спасибо за комментарий насчет драйвера дефрагов, не использующих Win API.
В принципе, для конечного пользователя разницы нет. Намного более важны квадратики. И я очень рад, что Александр Щенников честно об этом заявил.
Опять же, я без иронии об этом пишу. Мы ставим программу, хотим увидеть результат.
Было так: □ □ □ □ □ □ □
Стало так: □□□□□□□
Вывод? Работает :)
dsergey88, непонятно, что вы собрались сравнивать, если вы не пользуетесь сторонним дефрагментатором…
Виталий
Так вроде же я это первым заявил?
На счёт квадратиков:
До http://s2.ipicture.ru/uploads/20111212/p68zIK6F.png
После http://s2.ipicture.ru/uploads/20111212/G8W5c5VO.png
Сразу видно, что программа что- то сделала. Серьёзно :)
Vadim Sterkin
Виталий, да, вы заявили первым, но немного отстраненно, как бы о других :)
Хорошая картинка, именно об этом я и говорил.
ЁжЫГ
Тут еще маленький нюанс. При визуализации процесса, можно посмотреть что внутри этого кубика, то есть папки/файлы/чтобытонибыло. Сразу видно — ага, красные кубики (фрагментированный файл) — наводим мыша, смотрим — фильмец на 30 гигов не смог дефрагментироватся — непорядок (ну вот так получилось, дефрагментатор тоже не волшебник), перемещаем на другой диск — Вуаля, все хорошо :)
А вообще, я на кубики смотрю когда о чем-то думаю, слежение за монотонным процессом не только умиротворяет, но и позволяет мозгу лучше работать (не шутка) ;)
Vadim Sterkin
/режим модератора включен
Оффтоп про Линукс и антивирусы выпилен, и прошу к нему не возвращаться.
Серхио, который был обо мне лучшего мнения, получил разъяснительное письмо.
/режим модератора выключен
victor
Присоединяюсь, в журнале производительности все параметры выше 7,0 а скорость обмена данными с HDD только 5,8. Есть смысл ставить твердотельные, но пока они дороги.
Vadim я не думаю, что Префетчинг меняет расположение на кластерах. На мой взгляд он записывает в свою базу логический или физический адрес файла — ОС при поиске расположения файла обращается в эту базу в первую очередь, а уже потом в системный раздел диска. За счет того что база в Префетчинге намного меньше, чем база всего диска, а также за счет индекса достигается более быстрый поиск расположения файла и соответственно более быстрый запуск. По поводу обновлений я с Вами полностью согласен, особенно, если они затрагивают ядро, но какую часть занимают обновления по сравнению с объемом всей ОС?!…
За подсказку про тезисы — спасибо. Я бы их сформулировал иначе:
Основная часть системных файлов не нуждается в оптимизации, поскольку изначально устанавливается на чистый диск и в силу этого байты файлов расположены по порядку следования кластеров.
Верно, зачем оптимизировать уже оптимизированные файлы.
Возможно он переместит куда-то в другое место всю цепочку кластеров, но принцип непрерывности должен сохраняться, иначе теряется смысл, а в каком месте эта цепочка будет находиться — это уже как в нем заложено. Хороший дефрагментатор поместит наиболее часто запускаемые файлы ближе к началу диска, чтобы сократить время перемещения головки с парковочного сектора. А наиболее часто запускаемые файлы и есть файлы ОС. Ибо вряд ли найдутся какие либо другие -)
Корректнее, для оценки, имхо было бы установить на сильно фрагментированный диск программу типа Автокад, 3D max и подобные им «тяжелые» приложения — которым для запуска требуется значительное время. Запустить стороннюю дефрагментацию, запустить программу и измерить время ее запуска (как узнать время запуска отдельно взятого приложения — не знаю, но нашел, что есть такие -профилеровщики называются), а затем штатную. Если время сократилось можно смело утверждать, что штатный ловчее. При этом надо учесть индексацию, думаю, что при дефрагментации штатная утилита создает индексы.
Vadim Sterkin: Я не понял, зачем вам это нужно. Драйверы BOOT START ковырять нет смысла, а остальное »
Хорошо проехали -) В теории можно было бы сократить время до отклика на рабочем столе. Но будет ли стоить результат, затраченных усилий — это еще вопрос.
Иван
Насколько мне известно, встроенный дефрагментатор не умеет отключать компьютер после завершения дефрагментации, т.е. на ночь не оставишь. Поэтому пользую сторонние дефрагментаторы.
Антон
Я пробывал много дефрагментаторов когда сидел на ХР и остановился на O&O Defrag Professional, стандартный ХР дефрагментатор был мягко говоря каким то недоделышом, такое ощущение что про него инженеры просто забыли…
Но перейдя на W7 меня дефрагментатор порадывал, хорошо дефрагментировал, но после переустановки ОС, не возможно запустить службу планировщика заданий, поэтому перешел снова на дефраг.
В эксперементе поучавствовал бы, интересно самому какой лучше, но у меня диски всегда дефрагментированы.
Vlad
И я того же мнения, при падении цен на SSD
Vadim Sterkin
victor, оптимизируйте ReadyBoot и увидите, как работает натренированный префетчинг после дефрагментации загрузочных файлов.
Ваши предположения о работе «хороших дефрагментаторов» я не буду комментировать. Я не знаю, как они работают на самом деле, но да, кубики рисуют красивые.
То же самое и про начало диска — вы хоть одно исследование видели, что размещение файлов в начале диска дает выигрыш в производительности при современных скоростях вращения?
Свою методику отработайте, протестируйте, пожалуйста, а потом предлагайте. Я не говорю, что она плохая, но я вижу, что она на коленке написана.
Иван, встроенный дефраг работает во время безействия системы. Его вообще не надо запускать, сидеть над ним, и уже тем более оставлять на ночь. На него не надо тратить свое время, и это главное.
Антон, проблемы с запуском планировщика надо решать в форуме, а не ставить другой дефраг. У вас сильно снижена стабильность ОС из-за этого.
Jonathan O.
А на SSD она действительно не нужна?
Иван
Это все здорово, но за компьютером сидим не для его бездействия :-). Вспомните, когда последний раз у вас комп простаивал довольно долго, чтобы сам начал дефрагментироваться? У меня такого давно не было. Если я сижу за компом, то он работает на полную, а не простаивает. Если не сижу-он выключен. К тому же дефрагментор на семеоке имеет свойство отваливаться, ссылаясь на планировщик задач.
Celsus
Пользуюсь o&o defrag, потому что он умеет располагать файлы правильно — те файлы, к которым система обращается постоянно, он располагает ближе к началу диска. Располагает системные файлы особым образом, что можно понять, щелкая на кластеры в окне и смотря, какие файлы где расположены. Также позволяет устанавливать настройки дефрагментации — какие файлы и при каких условиях дефрагментировать, какие нет (в такие дебри настроек не лез, так как нет необходимости и сил все это понять). Можно добавлять папки и файлы в исключения (вот этим постоянно пользуюсь, для меня это важно, так как не хочется каждый раз дефрагментировать весь раздел, насилуя жесткий диск).
Vadim Sterkin
Jonathan O., нет, не нужна. Клянусь Стивом Баллмером :)
Иван, у меня компьютер простаивает постоянно. Я поработал и пошел спать, через 10 минут он выключил экран, а еще через 20 ушел в сон (итого 30 минут). А еще через полчаса он уйдет в гибернацию.
За 27 минут мой диск будет дефрагментирован, ибо эта операция выполняется регулярно. Если я работаю активнее, например, в выходной день, то переключаю план э/п, и периоды увеличиваются.
И ни разу у меня дефраг не отваливался, ссылаясь на планировщик. У меня планировщик работает как часы. Если у вас отключено задание дефрага, ну так ССЗБ :) CheckBootSpeed в помощь, хотя сторонний дефраг нужно сносить тогда.
Celsus, и вы про начало диска… Какие ваши доказательства? (с) Красная жара :)
Про исключения — вообще не вижу смысла. Насиловать жесткий диск жалко… А как же оптимальное размещение фрагментов?
Omicron
IObit Smart Defrag
Бесплатный, быстрый, многофункциональный, мало весит, делает всё сам, алгоритм вроде бы неплохой.
Из минусов — интерфейс не очень приятный, кое-что бы изменил в нём.
Celsus
Насчет влияния расположения системных файлов относительно центра жесткого диска на скорость работы системы (загрузки в том числе), я ничего от себя сказать не могу. Сделал вывод на таком примере: когда в папке много изображений, разбросаных по всему разделу, при открытии папки диск трещит. После дефрагментации раздела, располагая файлы по имени, файлы физически идут один за другим и диск не трещит. Я решил, что то же самое может случиться с драйверами и другими файлами, к которым система обращается во время загрузки, и что лучше их располагать друг за другом. Может, это особое расположение и не влияет на загрузку и работу.
По поводу добавления файлов в исключения — все просто: Есть папка с фильмами, в которой файлы дефрагментированы. Рядом папка с программой, многочисленные файл которой разбросаны по всему разделу. Зачем дефрагментировать обе папки, если можно одну? Конечно, фильмы уже дефрагментированы, но у дефрагментаторы сжимают файлы, подтягивая их друг к другу.
Выше писали о том, почему дефрагментатор Windows запускается только в простое — ответ: потому что в этом есть логика: дефрагментировать и одновременно работать значит замедлять и фефрагментацию, и работу программ. Можно, конечно, серфить или печатать и при этом выполнять дефрагментацию, но представьте, вы занимаетесь фотошопингом или играете в новейшую ресурсоемкую игру, где на счету каждый fps, или на скорости 10 мегабайт/сек качаете фильм, и тут дефрагментатор, уставший ждать простоя, запускается…
Цитата с обзора 3dnews
o&o defrag, выполняя такую дефрагментацию, сильно тормозил работу моего компьютера, так как постоянно что-то перемещал…
Viktor Golub
У меня дефрагментация проводится встроенной утилитой во время простоя ноутбука, и я не вижу смысла в использовании чего-то стороннего… Хотя за ходом эксперимента прослежу, уж очень интересная тема выбрана :)
P.S. Когда то давно использовал Auslogics Disk Defrag (на Вин 7), однако бросил эту затею как бесполезную…
PauLik
Хороший сценарий для фильма получился бы из всех комментариев. Название фильма «Битва Дефрагментаторов: Начало». Шутка:).
Используя SSD я себя уже чувствую аутсайдером событий. Не бывать тестам в моей системе.:)
Вообще, если принимать во внимание то, что у каждого индивидуума установлена одна и та же (клиентская) система и, что у каждого по разному работают дефрагментаторы, то можно дискуссировать вечно. Тут скорее дело нрава, одному понравилось то, что не приглянулось другому, если в процессе изучения он для себя сделал вывод, то на этом и остановился пока не надоест. Это как автомобиль на котором надоело ездить и его надо быстро сменить.
Я уже давно отношусь с недоверием к продуктам от которых систему ждет невероятный перфоманс. Исходя из теории, что дефрегментировать SSD вредно, все известные бренды рекламируют то, насколько полезно это делать.
В общем будем ждать результатов тестов. Интересно же ведь. :)
Vadim Sterkin
Ерунда :) Расположение файлов в папке по имени (или любым другим способом) не означает, что они идут физически один за другим.
К расположению в «конце» или «начале» диска это тоже не имеет никакого отношения.
Предположение не соответствует действительности в случае с дефрагментатором Windows. См. Task Idle Conditions. Про сторонние дефрагментаторы не скажу, но судя по вашему комментарию, использовавшийся вами дефраг действовал иначе.
PauLik, столь малый процент пользователей SSD по рез-татам опроса стал для меня неожиданностью. Я понимаю, что моя аудитория не самая обеспеченная финансово, но все же.
Vladislav Artukov
«Я понимаю, что моя аудитория не самая обеспеченная финансово, но все же.»
Нормальный SSD для ноута стоит около 10 круб. Мне нужны веские основания, что израсходовать 25% месячного бюджета на эту штуковину.
Небольшой тест.
Windows Server 2008 R2
диск 300 Гб, занято 267, более 135 тысяч файлов
запустил штатный дефраг. на ночь — утром нашел его замершим на «Pass 1: 1% consolidated»
вывод — штатный дефраг. в данной ситуации просто неприменим
Vadim Sterkin
Я не знаю, что вы подразумеваете под словом «нормальный».
1. Многое зависит от конфигурации ноутбука (у меня, например, два диска).
2. Цена сильно зависит от региона. Если брать Москву, то ваша цифра завышена на 30%, если исходить из моего определения нормального SSD (пруф).
Но я и не говорил, что SSD дешевые. Каждый сам решает.
Теперь, что касается вашего «теста». У вас свободно менее 15% пространства, поэтому дефрагментация не может быть эффективной.
Более того, если у вас использовался до этого сторонний дефраг (не WinAPI), задача для встроенного становится еще более сложной.
В этом случае нужно форсировать дефраг спец. параметром командной строки (ссылка на статью есть дважды на этой странице). Но даже это не сможет обеспечить эффективной дефрагментации, если ситуация со свободным пространством не будет исправлена.
Наконец, я пишу о клиентских ОС, а вы продвигаете тезис о непригодности дефрага Windows, аргументируя серверными ОС. По умолчанию на серверных ОС он отключен, кстати.
P.S. Буквально вчера мы с одним коллегой, использующим 2008 R2 в качестве клиентской ОС, дефрагментировали его диск. Он не делал этого 2.5 года, с момента установки (фрагментация была 23%). Потребовалось два запуска, и все завершилось успешно. У него было 25% свободного пространства.
P.P.S. Используйте ссылку «Цитировать», плиз.
Андрей
Я применяю такой вариант:
1. несколько раз в месяц дефрагментирую с помощью бесплатной программы Defraggler только те файлы и папки (речь идёт о специальных файлах NTFS, которыми и являются на самом деле папки), которые содержат наибольшее число фрагментов (от 10 и выше).
2. при необходимости (очень редко) использую дефрагментацию файлов реестра с помощью соответствующей функции программы Reg Organizer.
3. редко (примерно раз в полгода) использую возможности программы Paragon Partition Manager, а именно:
— полная дефрагментация раздела с системой (разделы с данными дефрагментирую только Defraggler) + небольшая оптимизация в виде размещения файлов-папок в начале диска: занимает много времени, работает в режиме синего экрана, результат — уровень фрагментации файлов в разделе равен нулю;
— дефрагментация и сжатие MFT (для всех разделов).
4. сразу после установки операционной системы (Windows 7) я использую следующую команду: defrag C: /B /U
затем встроенный дефрагментатор я отключаю и больше никогда не использую(вместо него я применяю Defraggler);
5. дефрагментацию выполняю только вручную, то есть не использую работу по расписанию или дефрагментацию в автоматическом режиме, когда соответствующая программа постоянно что-то дефрагментирует в фоновом режиме.
6. из различных стратегий дефрагментации применяю только размещение файлов-папок в начале диска.
Vadim Sterkin
Андрей, ваш подход только с виду кажется фундаментальным. На самом деле ваша солянка из разных программ никак не способствует повышению производительности. Дефрагментатор должен быть один!
Равно как и подход с исключительно ручным дефрагом я считаю бессмысленным. Зачем тратить время на то, что можно делать в автоматическом режиме?
Про начало диска уже я уже говорил выше :)
Андрей
Vadim Sterkin,
Замечательный комментарий: расскажите об этом Майкрософт — и пусть они сделают такую программу всё-в-одном, и я буду пользоваться только ей с удовольствием (а то, что есть сейчас, просто пародия на программу: сравните её возможности, например, с программой Defraggler).
По поводу «На самом деле ваша солянка из разных программ никак не способствует повышению производительности.» — на производительность системы я не жалуюсь: у меня всё работает нормально.
«Зачем тратить время на то, что можно делать в автоматическом режиме?» — дефрагментация сложный и ресурсоёмкий процесс, поэтому я предпочитаю контролировать его самостоятельно.
Дополнение: а разве встроенная утилита позволяет дефрагментировать файлы-папки, реестр, файл подкачки и mft, а также использовать полную низкоуровневую дефрагментацию системы ()?
Суть моего подхода: я беру от каждой утилиты только самое лучшее и то, чего нет в других утилитах.
Vadim Sterkin
Андрей, как мы уже выяснили в комментариях, любезный вашему сердцу Defragler использует API Windows, т.е. по алгоритмам он ничем не отличается от встроенного дефрага.
Да, у него есть какие-то дополнительные возможности. Но как вы думаете, почему их не реализовала сама Microsoft, для которой производительность системы очень важна для маркетинга и продаж? :)
Суть в том, что дефраги, использующие разные алгоритмы, перекладывают фрагменты по своему. Поэтому вы только повышаете износ диска, применяя разные программы.
Дефрагментация Windows по умолчанию запускается с низким приоритетом, и лишь из командной строки можно повысить его до нормального.
Если она выполняется при бездействии системы, то ничего контролировать не надо :) Но расскажите, как вы контролируете процесс.
И, пожалуйста, просветите меня по поводу низкоуровневой дефрагментации. Я ничего об этом не знаю ;) Только как следует просветите, а не ссылкой на сайт дефрагментатора, где вы прочли об этой функции.
Виталий
У меня один диск 5900 об/с. Но он для данных.
Ну и в ноутбуках часто стоят вообще медленные диски.
Ну например нет смысла дефрагменторовать бекапы системы, прочие резервные копии.
Evgenij
Текста, будет мало. Но по смыслу.Использую сторонний дефрагментатор, Auslogic Disk Defrag.
Вполне устравивает.
ЁжЫГ
Пытался с местного форума вручную «отпарсить» пару тем про дефрагментаторы, чтобы выводы тут показать, но чо-то много получается :(
Посему в двух словах:
при тестировании на пользователях, около 120 участников, из которых тестерами являлись около 50, выяснилось, что для WinXP лучшим по качеству этой самой дефрагментации является родной дефрагментатор. Но он не блещет интерфейсом, не блещет настройками, не блещет много чем еще. Другие и умеют вроде бы больше, и картинку рисуют красивее и всякое другое, но факт остался фактом, только штатный дефрагментатор делал действительно полную дефрагментацию, с которой соглашались другие программы (за исключением всяких «заблокированных» файлов, а это один из его косяков).
ЁжЫГ
Скорость вращения шпинделя показатель только в случае сравнения дисков одной линейки, так как даже между дисками разных производителей, но одной скорости, будет заметная разница.
Например моя террабайтная Gren WD-шка соскоростью вращения 5400, по скорости быстрее чем Сигад на 320 гигов, но сделанный этак на 5 лет раньше :)
Vadim Sterkin
Согласен, хотя если они статичны, то дефраг их не будет двигать, наверное. С другой стороны, у меня есть подозрения, что таких копий нет у людей, применяющих пять дефрагментаторов :))
ЁжЫГ, вы лучше методикой поделитесь — это интереснее обсудить ;)
WindowsNT.LV
Это не так.
Некоторое время обратно я делал резервные копии стандартным приложением NTBackup, получались цельные bkf -файлы размером от 10 Гб (система) до 30 Гб (данные). Однажды пользователи начали жаловаться, что съёмный бэкап (простое копирование заготовленных bkf-файлов суммарным объёмом не более 40 Гб) начал длиться более суток. Так как с налёту проблема не решилась, пришлось устроить целое расследование.
Первое, что я выяснил — файлы резервных копий изначально создаются фрагментированными. И в этом даже нет особой вины NTBackup, та же беда преследует архивы, создаваемые практически любыми архиваторами. Они не знают, сколько места потребуется для архива, поэтому просят пространство у файловой системы по кусочкам. А при недостатке свободного места на диске (менее 25% ёмкости) начинается процесс жёсткого фрагментирования, причём количество фрагментов нарастает по экспоненте. Файлы размером всего 10 Гб имели по 100 000 фрагментов!
Как итог, мне пришлось переделать всю систему резервирования, дабы пресечь фрагментирование в корне. Нет, для этого мне не потребовался дефрагментатор, это была бы борьба лишь с симптомами, я проблему следует решать в корне. Я начал готовить архивы в отдельном временном каталоге, а затем перемещать их в целевую папку. Когда архив копируется в готовом виде, его размер заранее известен и файловая система по возможности готовит весь объём пространства единым куском. С тех пор фрагментация моих резервных копий нулевая, а время съёмного копирования не превышает 20 минут.
WindowsNT.LV
Это неудивительно, ибо на теРабайтном диске размер цилиндра существенно выше, чем у 320-Гб диска. Скажем, Green может иметь 2 Мб на цилиндр против 0.5 Мб у 320-Гб Seagate (цифры приблизительные, но порядок именно таков). Соответственно, головки вынуждены позиционироваться между цилиндрами на порядок реже. Именно позиционирование отнимает массу времени, сами треки читаются достаточно быстро.
О чём действительно хотелось бы узнать — методики предотвращения фрагментации либо снижение временнЫх потерь, её последствий. Это раз.
Второй вопрос — раз мы говорим за рабочие станции, вы в курсе, что дефрагментация может убить Shadow Copies (Previous Versions)? А вы вообще используете Shadow Copies на своём компьютере?
Vadim Sterkin
Петр, спасибо за рассказ о дефраге бэкапа, хороший пример.
К этой записи немного не в тему было, но можно собрать материал к следующей. О чем будем говорить? Кроме размера кластера мне сходу в голову ничего не приходит.
Вот, Вадимс мне тоже об этом говорил вчера. Но я с таким не сталкивался.
У меня в 7 родной дефраг работал >2 лет, и никогда не пропадали предыдущие версии файлов, хранящиеся в теневых копиях. От недостатка места на диске — пропадали, а от дефрага — нет.
На работе тоже они присутствуют даже после дефрага, который трудится регулярно, судя по логам. Забыл запустить его вручную перед уходом, как обещал :)
А у тебя в каких случаях это происходило? Зависимость известна?
WindowsNT
Vadim Sterkin,
Зависимость вот тут: http://support.microsoft.com/kb/312067
И я не уверен, что для семёрки это актуально.
Однако, вот скажите мне за такой вопрос: как часто в Windows 7 делаются snapshots диска? То есть, я работаю над неким большим документом, постоянно вношу изменения — в случае, когда мне потребуется изменения откатить, когда документ будет существенно повреждён, какие Previous Versions этого документа можно будет поднять?
Celsus
https://www.outsidethebox.ms/9960/#comment-2752
Для особо важных документов, по-моему, лучше использовать архивацию. Shadow Copies, просто впечатление, созданы для подстраховки тех файлов, для которых не была настроена архивация. Как запасной парашют.