Обсуждаем ClickHouse
да, именно так и вычислил, сначала проверял все коннекты и сеть с кипером. воспросизводится в докере тоже. issue на завёл 😞
Читать полностью…Одна точно есть, виснут DDL запросы, в логах вот такое:
<Error> DDLWorker: An error occurred when markReplicasActive: : Code: 49. DB::Exception: Ephemeral node /clickhouse/task_queue/replicas/localhost:9000/active still exists after 90s, probably it's owned by someone
else. Either session_timeout_ms in client's config is different from server's config or it's a bug. Node data: '0094bf46-36ca-4aee-866b-f3402c1baece'. (LOGICAL_ERROR), Stack trace (when copying this message, always include the lines below):
<remote_servers>Читать полностью…
<default remove="1"></default>
...
Есть изветные проблемы в 25.8? Просто собирались обновиться через неделю/две.
Читать полностью…Привет
Пробую завести ClickHouse Kafka Connect
с enableDbTopicSplit=true (в AWS MSK Connect); в документации к сожалению конфиг не описан. Сделал уже несколько попыток, но так и не понял, почему он кидается ошибками
Воспроизведение подробно описано тут: https://github.com/ClickHouse/clickhouse-kafka-connect/issues/580.
Может, кто-то сталкивался? Конфиг смотрится очень ярко чтобы упростить multi-tenant setup
кстати, если кто собирается ставить 25.8, вернутся на 25.3 возможно не получится и при ролинг апргейде будут временные ошибки на репликах
https://github.com/ClickHouse/ClickHouse/pull/84171
Enable MergeTree setting write_marks_for_substreams_in_compact_parts by default. It significantly improves performance of subcolumns reading from newly created Compact parts. Servers with version less then 25.5 won't be able to read new Compact parts.
а после переливки всего этого добра с партиционированием по дате, и включения в праймари этого дурацкого тэга, кластер не просто ожил, ещё и данных пережалось стали x1.5 меньше весить
Читать полностью…Вставки по 1 млн строк, разбиваются на 3 парта в сорс таблицу, а матвью разбирает для таблицы ниже и льет туда не 3 парта, а 15, потому что задевает много партиций
Так плодятся парты, а разгребаются почему-то медленно
ну для полноты картины осталось по квери логу найти за этот интервал что то типа
avg(written_rows),count() ... group by toStartOfMinute(event_time)
принести выхлоп в разработчика и затребовать начать собирать батчи
а упомянутые выше метрики как раз на этом интервале и покажут что мержится чуть поактивнее чем 3 мержа за раз
и да, можно увеличить пул, но правильнее работать с первопричиной - мелковставкой
partitions: 271,
parts: 478
Сейчас выглядит ок, но там картинка пилообразная. Сначала 2 парта на партицию, а потом в течение 2 часов растет до 3 к, потом снова падает в 0. Хотелось бы все-таки ровней графики
да понятно в чем проблема и как ее решать, но это бессмысленно, зачем пилить гнилую ногу маленькими кусочками.
Читать полностью…Я просто не до конца понимаю, партов куча мелких, но мерджей нет толком, а когда есть, отрабатывают почти мгновенно.
Дело в том, что не с чем мерджить и он ждет?
background_pool_size =16
в среднем 3
а что будет при background_pool_size =96 ?
да ничего не будет, будет в среднем 3
по дефолту background_pool_size =16 ( на самом деле 32, но не суть)
Читать полностью…заведите. вместе с docker-compose полезно будет, и сюда ссылку если можно
Читать полностью…issue завели?
такое ощущение что default кластер порождает множественное удержание одних и тех же ZK нод потому что там ничег кроме localhost нет
Если только по несовместимым изменениям смотреть. Оно же только вышло. Откуда известным быть?
Читать полностью…А выключить заранее эту гайку чтобы иметь возможность откатиться, а потом уже включать получится?
Читать полностью…попробуйте
хотя это конечно выстрел в ногу
alter table foo modify setting max_bytes_to_merge_at_min_space_in_pool = '100G', old_parts_lifetime = 1;
я всегд делаю alter table foo modify setting parts_to_throw_insert = 100000 и считаю что нет никакой проблемы в наличии огромного кол-ва партов временно
ну вот у меня коллеги с бывшего места работы так в ключик партиционирования затащили некий выкокардинальный тег, и у них вообще, верит @den_crane или нет, об это кипер лопнул )
Читать полностью…а зачем там такой ключик партиционирования
Читать полностью…Если у вас это ETL, то просто сделайте его в 2 таблицы, а не в одну таблицу.
Читать полностью…Вроде рецепт прост.
Делаем вставки не часто, большими кусками ...
Или что то изменилось ?
да тут стон стоял в чатике, когда яндекс облако всем обновило КХ
Читать полностью…а покажите uniq(partition),count() from system.parts where table='ваша_таблица'
Читать полностью…не будет, но вообще я бы не хотел рекомендовать просто бездумно выдавать много тредов, вот то что про system.merges пишет @den_crane выше, хорошо бы забрать в качестве метрик
BackgroundMergesAndMutationsPoolSize (сколько всего размер пула)
и
BackgroundMergesAndMutationsPoolTask (сколько сейчас задач в пуле)
и отсюда отталкиваться
а сколько у вас в среднем показывает
select count() from system.merges ?
потому что там так выходит, что куча партов с размером около 1кб, что прям мало
Читать полностью…