[devel] Задачи для сборочницы следующего поколения

Leonid Krivoshein klark.devel на gmail.com
Вт Фев 20 03:03:55 MSK 2018


Можно тут рядышком постоять? Иначе для чего ещё эта рассылка...


16.02.2018 04:33, Dmitry V. Levin пишет:
> Предлагаю начинать разговор не с алгоритмов оптимизации сборочницы,
> а с задач, которые мы хотим решать с помощью сборочной системы
> следующего поколения.
>
> ...
>
> Одна из задач, которую мы хотели решать ещё 9 лет назад - оперативно
> выявлять регрессии собираемости/устанавливаемости пакетов репозитория
> и на этом основании (полу)автоматически принимать решения об окончательном
> коммите транзакций.

Правильно понимаю, что полуавтоматическое принятие решения позволяет, в 
числе прочего, условно модератору репозитория откатывать мержи вручную? 
Если да, то какова (обычно) судьба всех последующих мержей, следующих за 
выкинутым(и)?

> Мы хотим не только автоматически выявлять анметы, порождаемые транзакцией,
> но и...
> Наша традиционная сборочная система обладает следующим полезным свойством:
> каждое следующее состояние репозитория получается в результате применения
> транзакции к предыдущему состоянию.
>
> Такой детерминизм позволяет воспроизводимо получать новое состояние
> репозитория из старого путём последовательного применения транзакций.
>

Для разработчиков, госадминов и регуляторов большой интерес представляет 
репозиторий с исходниками (git, .src.rpm). Для большинства конечных 
пользователей куда важнее работоспособность производного -- бинарного 
репозитория. Очень хорошо, что сборочница позволяет автоматически 
выявлять и пресекать многие проблемы "на подлёте". Но мы же понимаем, 
что выявить все проблемы автоматически нельзя. И со всеми успешно 
прошедшими тестами, случается, возникают регрессии, больше проявляющиеся 
даже не в части сборки/установки, а уже в процессе эксплуатации.

Конечно важно мерило, определяющее качество исходного репозитория, в 
целом, полученного в результате очередной (мега) транзакции. Но также 
важно иметь возможность отката отдельных изменений с автоматическим 
применением последующих изменений. Тогда фаза тестирования может 
отставать (то бишь не быть тормозящим фактором), но при необходимости, 
бить по мержу вдогонку. А все последующие (мега) транзакции в случае 
такого фейла могут быть объединены в ещё более крупную супер-(мега) 
транзакцию.

> К чему привело бы применение нескольких транзакций одновременно?  В общем
> случае к тому, что результат применения отличался бы от результата
> последовательного применения.  Не лучше ли вместо этого (спекулятивно)
> объединять множество транзакций, готовых к применению, в полноценные
> мега-транзакции, обрабатываемые как обычные транзакции?

Если одна обычная транзакция -- изменения репозитория в результате 
одобрения задания из одного и более исходных пакетов, то мега-транзакция 
-- это, если не весь репозиторий, то, по крайней мере, оба графа 
зависимостей с каждым из пакетов накопившихся к текущему моменту заданий 
(сборочными и установочными), верно?

Мне кажется, если преодолеть зависимость мержа от предыдущего мержа не в 
ущерб воспроизводимой сборке, мы как раз-таки получим параллельную 
сборочницу нового поколения. Очерёдность безусловно важна. Но ведь если 
кому-то в очереди становится плохо, очередь от этого не аннулируется.

Можно гонять сборочницу несколько раз в сутки по всем необходимым 
пакетам по мере их поступления, но публиковать только те состояния 
репозитория, при которых мерило показывает приемлемый результат. То есть 
мега-транзакция может допускать фейлы отдельных пакетов. Но такое 
состояние не публикуется, а учитывается на следующих кругах.


-- 
Best regards,
Leonid Krivoshein.



Подробная информация о списке рассылки Devel