[devel] Оптимизируем hasher для работы с фиксированным репозиторием. I.
Igor Vlasenko
vlasenko на imath.kiev.ua
Вт Сен 8 03:10:51 MSK 2020
Оптимизируем hasher для работы с фиксированным репозиторием. I.
_______________________________________________________________
Господа,
хочу поделиться своими оптимизациями для ускорения работы с hasher.
Эти оптимизации были заскриптованы в autoimports, полтора года как в работе.
Первая оптимизация специфическая, пригодится тем, кто одновременно
работает с несколькими процессами hasher' для одного и того же репозитория.
Вторая оптимизация пригодится практически всем майнтайнерам,
идейно очень проста, но техническая реализация сложнее.
К сожалению, со временем я начал забывать, как оно работает.
За неделю занятий промышленной археологией удалось заново разобраться.
Документирую, чтобы не пропало, в рассылке.
По условиям задачи у нас фиксированный репозиторий. Это означает,
что репозиторий не меняется без нашего ведома -- к примеру,
локальное зеркало ежедневного релиза Сизифа.
Первая оптимизация позволяет сэкономить дисковое пространство при
работе с несколькими процессами hasher для одного и того же репозитория.
Зачем это нужно? Самые первые версии autoimports были
последовательными и работали на моей домашней машине.
Это было очень долго, сборки шли сутками. Я перешел на параллельную
сборку сначала на машине basalt в 4 потока, а потом на машине altair.
На машине altair было 2cpu, 16ядер, 32 потока выполнения.
Но возникла другая проблема - видит око, да зуб неймет. Сборка все еще
была не так быстрой, как хотелось бы, так как не получалось загрузить все потоки
выполнения. После 8, ближе к 16 параллельным hsh занимаемый объем tmpfs не
вмещался в оперативку и скорость резко падала из-за своппинга
(Сейчас на altair 64Gb, 2Gb/поток).
И тут я заметил, что рабочие каталоги hasher'ов сами по себе настолько
тяжелые, что сравнимы по размеру со сборочным chroot,
а все тяжелые файлы из hasher/aptbox и hasher/cache - идентичны,
ведь сборка осуществляется относительно одного и того же репозитория.
Пришла идея хардлинковать эти общие тяжелые файлы в рабочих каталогах
hasher/aptbox и hasher/cache.
Соответствующий скрипт hsh-clone-workdir можно взять у меня из
hsh-clone-workdir.git. Это позволило сэкономить в tmpfs
в то время 640M на 1 копию hasher. При запуске в 24 потока это
дало 16G экономии, все влезло в оперативку, и сборка полетела.
Сейчас, так как и autoimports, и Сизиф подросли, это 723М экономии
на 1 копию hasher при сборке для autoimports.
На чистом Сизифе сейчас это 570M экономии tmpfs на 1 копию hasher.
При работе с двумя hasher экономится 570M tmpfs, c 4 -- 1.7G tmpfs,
c 8 -- 3.9G tmpfs, c 16 -- 8.4G tmpfs.
Возможно, такой трюк пригодится и для arm.
Уголок статистики.
du -sh hasher
1,2G hasher
du -sh hasher/*
482M hasher/aptbox (330M pure Sisyphus)
241M hasher/cache
491M hasher/chroot
241M+491M=723М
723М
du -sh hasher/aptbox/var/lib/*
277M hasher/aptbox/var/lib/apt
6,0M hasher/aptbox/var/lib/rpm
200M hasher/aptbox/var/cache/apt
ls -lh hasher/cache/chroot/chroot.cpio
235M
--
I V
Подробная информация о списке рассылки Devel