[Comm] Re: Дефрагментация Шапируса
Vitaly Lugovsky
=?iso-8859-1?q?vsl_=CE=C1_ontil=2Eihep=2Esu?=
Вт Окт 1 11:46:47 MSD 2002
On Tue, 1 Oct 2002, Oleg N. Kayunov wrote:
> > Не шибко хочется возвращаться к флейму прошлого месяца, когда меня
> >философы-христиане-экстрасексы-уфолохи тут заклевали, но всё же напомню:
> >экспериментальные факты не обосновывают. Наука и не пытается ответить на
> >вопрос "почему?".
> >
> На определённых уровнях - и пытается и отвечает.
Не было ещё такого.
> Пример - парадокс Ольберса: "Почему ночное небо - тёмное?"
> Ответ: "Потому что Вселенная нестационарна - расширяется."
Данный ответ из факта не следует. В него вложен огромный массив других
фактов. И если рассматривать массив целиком, то уж ни о каком
"объяснении", ни о каком "почему?" и речи быть не может - вся информация
уже внутри системы, остаётся её только выделить.
> Классическая модель - вечной и стационарной Вселенной ответить на это не
> могла.
А модели вообще ни на что отвечать не обязаны. Они должны давать
предсказание, и заканчиваться ровно в том месте, где предсказание
обламывается. При том, внутри той области, где всё получается корректно,
модели продолжают жить - естественно, если это научные модели, а не
философские или религиозные бредни.
> На вопрос "Почему наблюдается менделевское расщепление признаков?"
> успешно ответила генетика.
И после чего она на этот вопрос ответила? Вовсе не сразу после опытов
Менделя. Потребовалось множество других фактов - ровно столько, чтоб во
всём массиве оказался достаточно устойчивый ответ.
> >Она только отвечает на вопрос "как?" - что есть, по
> >сути, не обобщение даже, а сжатое изложение собственно экспериментальных
> >фактов, той информации, что в них заложена. А какая информация в ОДНОМ
> >факте? Никакой. Чтоб найти одно осмысленное и понятное краткое "как?" надо
> >ужать весьма жирный объём фактов, обкушать большую статистику. В данном
> >случае такой возможности просто нет - не шибко просто даже придумать
> >постановку эксперимента. Остаётся маленький фактик - фрагментация в
> >среднем не заметна на глаз, и эмпирические обоснования, вытекающие из
> >
> Если "в среднем", то изначально уже имеем не один факт, а достаточно
> "жирный объём фактов".
Он не достаточно жирный - поскольку измеряется только один параметр. Мы
не видим его корреляции с другими (возможно, скрытыми, неочевидными)
параметрами.
> >весьма далёких от данной области знаний - о том, что файлы обычно
> >
> От какой, простите, области эти знания весьма далеки?
От Теории Оптимизации Параллельного Доступа К Блиновому Накопителю
Данных. ;)
> От сфрагистики, что ли? Тогда - да.
> А вот к теме разговора (и к самим разговаривающим) эти знания ИМХО
> довольно таки близки.
Нет. Это лишь перечисление ряда параметров, которые ВОЗМОЖНО влияют на
результат.
> И почему это обоснования могут быть только эмпирические?
Могут быть и численные - но их нет. Пока есть только эмпирическое
словоблудие, без строгого расчёта, без хорошей экспериментальной базы.
> > А вот это - неверно. Свежая FS - то же самое, что и дефрагментированная
> >FS. Так что есть с чем сравнивать. Специальных дефрагментаторов не
> >требуется - штатный backup/mkfs/restore их в полной мере заменяет.
> >
> Это-то понятно. Но как-то проще запустить программку и подождать
> пока она наведёт порядок _внутри_ раздела нежели
> добывать/выделять/покупать раздел/диск/гига-кассету(ы) и гонять
> туда-сюда backup/mkfs/restore.
Никак не проще. Обычно, при правильной организации труда, места на
экстренный сброс данных как минимум с одного раздела всегда хватает.
> И уже поэтому последняя процедура намного
> менее распространена, нежели дефрагментация в соответствующих ОС.
Да ну? Куда не посмотрю - везде бэкап всячески практикуется.
Дефрагментацию последний раз видел лет 7 назад, когда случайно DOS на
глаза попался. Так что экспериментальную базу по этому параметру можно
считать достаточно обширной, не меньшей, чем у виндузятников с их FAT-ом.
> > Вот в этом и состоит беда философии и околонаучных спекуляций - иллюзия
> >знания объяснения оказывается частенько сильнее бездумной веры.
> >
> Отчего же обязательно илююзия-то?
От того, что полного "объяснения" не бывает никогда. Вообще.
> Если объяснение - обоснованное, доказательное (без микролептонов,
> использования "принципа оптимизма" (для теоремы Ферма) и т.п.)? А нас,
> вроде как, обучали (более или менее квалифицированно) отличать
> обоснованное/доказанное от не такого.
Ну учили, и что? Не шибко просто проверять до мелочи каждое обоснование.
> Я даже философов (по образованию)
> в советское время встречал таких, которые это умели делать. Об их
> отношении к тогдашней "философии" - умолчу. Оно вытекает из.
Увы, сейчас большинство технарей - и те не в состоянии разобраться, где у
нас обоснование ЭКСПЕРИМЕНТАЛЬНОЕ, а где - спекуляции, экстраполяция из
недостаточно качественной теории, некорректная аналогия, и т.п. На этом
фоне нет никакого резона доверять эмпирическим рассуждениям.
> Но мы стремительно близимся к talk-room содержанию.
Эт точно...
> А вопрос-то сугубо технический и многих вроде как беспокоит - я уже
> не раз натыкался на переживания насчёт отсутствия дефранментаторов, да и
> самого это как-то беспокоило. А коли убедят что не нужны - то и ладушки.
Ну вот об этом мы и говорим - единственно достойным аргументом за/против
дефрагментации может быть лишь очень серьёзное экспериментальное
исследование влияния фрагментации на производительность как можно большего
класса приложений, в самых разных условиях - от "почти однозадачной"
рабочей станции до перегруженного мейнфрейма или тяжелого файлсервера.
Сейчас таких данных, по крайней мере, систематизированных, собранных в
одном месте, просто нет. Остаётся лишь то слабенькое эмпирическое
обоснование и личное мнение каждого, проводившего свои, частные измерения,
в своей области.
Подробная информация о списке рассылки community