<div dir="ltr">Вот настройки, которые рекомендовал pgtune:<div><br></div><div>default_statistics_target = 50 # pgtune wizard 2018-12-19<br>maintenance_work_mem = 480MB # pgtune wizard 2018-12-19<br>constraint_exclusion = on # pgtune wizard 2018-12-19<br>checkpoint_completion_target = 0.9 # pgtune wizard 2018-12-19<br>effective_cache_size = 5632MB # pgtune wizard 2018-12-19<br>work_mem = 48MB # pgtune wizard 2018-12-19<br>wal_buffers = 8MB # pgtune wizard 2018-12-19<br>shared_buffers = 1920MB # pgtune wizard 2018-12-19<br>max_connections = 80 # pgtune wizard 2018-12-19<br></div><div><br></div><div>Как по вашему, стоит что-то изменить здесь?</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">вт, 27 авг. 2019 г. в 10:16, <<a href="mailto:alexei@taf.ru">alexei@taf.ru</a>>:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Хм... Посмотрите, не сильно ли вы задрали значение work_mem в конфиге?<br>
Там есть одна не сильно очевидная особенность - указанный объем выделяется<br>
в целом по формуле work_mem*[количество операция слияния, хэширования,<br>
сортировки]. То есть на нетривиальном запросе из пачки таблиц и осложнениями в виде<br>
подзапросов, процесс влет может отхватить всю доступную память и полезть в свап.<br>
<br>
----- Исходное сообщение -----<br>
> От: "Yuri Khachaturyan" <<a href="mailto:yukh@yukh.ru" target="_blank">yukh@yukh.ru</a>><br>
> Кому: "ALT Linux sysadmins' discussion" <<a href="mailto:sysadmins@lists.altlinux.org" target="_blank">sysadmins@lists.altlinux.org</a>><br>
> Отправленные: Вторник, 27 Август 2019 г 15:01:07<br>
> Тема: Re: [Sysadmins] Использование swap<br>
<br>
> Вся проблема в том, что я это время я уже далеко не у компа и сидеть ждать когда<br>
> оно начнется нет возможности. На сегодня увеличил swap с 1G до 2G и проблема<br>
> пропала, но все равно хочется узнать кто регулярно его использует (сейчас<br>
> использовано 660М из 2G). При этом памяти свободно ровно половина:<br>
> <br>
> # free -m<br>
> total used free shared buff/cache available<br>
> Mem: 7970 1121 1034 1650 5814 4895<br>
> Swap: 2047 666 1381<br>
> <br>
> По результатам top -n 1 -o RES виновник - postgresql. Но почему он в swap лезет<br>
> вместо того, чтобы использовать свободную память...<br>
> Настройки памяти postgresql делал через pg_tune на основании текущего железа. В<br>
> целом работе не мешает, если бы zabbix не обратил на это мое внимание, я бы и<br>
> не заметил.<br>
> <br>
> <br>
> вт, 27 авг. 2019 г. в 05:39, Stanislav Vlasov < [ mailto:<a href="mailto:stanislav.v.v@gmail.com" target="_blank">stanislav.v.v@gmail.com</a><br>
> | <a href="mailto:stanislav.v.v@gmail.com" target="_blank">stanislav.v.v@gmail.com</a> ] >:<br>
> <br>
> <br>
> 27.08.2019, [ mailto:<a href="mailto:alexei@taf.ru" target="_blank">alexei@taf.ru</a> | <a href="mailto:alexei@taf.ru" target="_blank">alexei@taf.ru</a> ] < [ mailto:<a href="mailto:alexei@taf.ru" target="_blank">alexei@taf.ru</a> |<br>
> <a href="mailto:alexei@taf.ru" target="_blank">alexei@taf.ru</a> ] > написал(а):<br>
> <br>
>>> Кто-то активно каждую ночь использует swap в системе под 90 с лишним<br>
>>> процентов.<br>
>>> Напомните, как поймать того, кто это делает? Сейчас вижу по zabbix-у<br>
>>> только<br>
>>> ночные всплески...<br>
>> <br>
>> Можно попробовать кроном запускать нечто top -n 1 -o RES во время активного<br>
>> использования<br>
>> свапа (тем более время заббиксом локализовано)<br>
> <br>
> А может, atop поставить?<br>
> Всё ж штатное средство, а не top по крону<br>
_______________________________________________<br>
Sysadmins mailing list<br>
<a href="mailto:Sysadmins@lists.altlinux.org" target="_blank">Sysadmins@lists.altlinux.org</a><br>
<a href="https://lists.altlinux.org/mailman/listinfo/sysadmins" rel="noreferrer" target="_blank">https://lists.altlinux.org/mailman/listinfo/sysadmins</a><br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature">С уважением, <br>Хачатурян Юрий (<a href="mailto:yukh@yukh.ru" target="_blank">yukh@yukh.ru</a>)</div>