Обсуждаем ClickHouse
на сколько я помню, final применяется раньше
но раньше можно было это обойти, добавив условие фильтрации в prewhere
на 21.2 помню был такой прикол, что фильтрация по ключу партиционирования происходила после final, поэтому мы клали фильтр по ключу партиционирования в prewhere
кто-нибудь знает что применяется раньше , final или where если оно написано в запросе к ReplacingMergeTree? и второй вопрос смогут ли помочь проекции, чтобы ускорить этот where?
Читать полностью…Быть может в сочетаниях с jdbc что-то схожее
Читать полностью…2025.05.12 12:25:19.224237 [ 585788 ] {} <Error> RaftInstance: CRC mismatch: local calculation da6efca6, from header 3a746e65, message: HEAD / HTTP/1.1
Host: localhost:9234
User-Agent: Go-, message in bytes: 0x48 0x45 0x41 0x44 0x20 0x2f 0x20 0x48 0x54 0x54 0x50 0x2f 0x31 0x2e 0x31 0xd 0xa 0x48 0x6f 0x73 0x74 0x3a 0x20 0x6c 0x6f 0x63 0x61 0x6c 0x68 0x6f 0x73 0x74 0x3a 0x39 0x32 0x33 0x34 0xd 0xa 0x55 0x73 0x65 0x72 0x2d 0x41 0x67 0x65 0x6e 0x74 0x3a 0x20 0x47 0x6f 0x2d : received from socket ::ffff:127.0.0.1:14298
не факт... но это поможет отсечь конкретный вектор проблемы...
Читать полностью…у меня при первом входе в кластер и на новом и с новыми дровами, правда уже и на 24.3 такое было. но в целом пофиг
Читать полностью…сам dbeaver и jdbc драйвер кликхаус внем до послденей версии обновили?
Читать полностью…надо попробовать, просто у меня на третьем хосте постоянно плохо рафту. ну вот постоянно
2025.05.12 07:55:01.512394 [ 3208873 ] {} <Error> RaftInstance: CRC mismatch: local calculation da6efca6, from header 3a746e65, message: HEAD / HTTP/1.1
2025.05.12 09:25:15.681510 [ 3208874 ] {} <Error> RaftInstance: CRC mismatch: local calculation da6efca6, from header 3a746e65, message: HEAD / HTTP/1.1
2025.05.12 10:55:18.979831 [ 3208875 ] {} <Error> RaftInstance: CRC mismatch: local calculation da6efca6, from header 3a746e65, message: HEAD / HTTP/1.1
2025.05.12 12:25:19.224237 [ 585788 ] {} <Error> RaftInstance: CRC mismatch: local calculation da6efca6, from header 3a746e65, message: HEAD / HTTP/1.1
Code: 194. DB::Exception: default: Authentication failed: password is incorrect, or there is no user with such name.
пароль не верный
> POST / HTTP/1.1
> Host: :8123
тут специально правил что-то? или оно так прямо законечено?
https://pastila.nl/?00e0f1c9/637189ea47cd3cd17a6abdb5158a427d#arfSNi2mMAadJYad9qBrbg==
Читать полностью…там ссылка тогда поменяться должна... и расшарь новую
Читать полностью…Да, надо только ссылку на нее взять где-то, я там есть, но ссылка на нее в информации о группе не опубликована. Попробую найти.
Читать полностью…стратегически код без analyzer будет выпилен
Читать полностью…видимо из-за упоминания в тг в комменты налетела сетка ботов
Читать полностью…колонка, по которой фильтрую не входит в ключ схлопывания
Читать полностью…Вряд ли это хорошее решение. В основе основ float на эквивалентность не проверяют
Читать полностью…Можно-ли использовать float64 в качестве части ключа и порядка сортировки в таблице с ReplacingMergeTree?
Будет-ли clickhouse нормализовать представления типов binary floating point?
у вас какой то go приложение ломится на keeper? ЗАЧЕМ?
Читать полностью…У нативного клиента бывает когда начинаются тормоза при восстановлении соединения. Где-то в 24м такое началось.
Потом на другой комбинации версий сервера и клиента такого нет. Потом снова :)))
попробую, спасибо, думаю в этом и кроется проблема
Читать полностью…ну осталось правильное имя + пароль юзера задать тогда... чтобы понять...
на сетевом уровне проблем нет, коннект быстрый...
Time to connect: 0.002675s
Total time: 0.004879s
может быть бага с переполнения тупо в реализации mntr и просто не верно показывается...
попробуй через prometheus endpoint снять эти же мертрики сравнить
/ :) mntr
zk_version v25.3.2.39-stable-3ec1fd3f6908a2eb035fe773c0658aa4d16c0dd4
zk_avg_latency 0
zk_max_latency 0
zk_min_latency 0
zk_packets_received 2
zk_packets_sent 2
zk_num_alive_connections 1
zk_outstanding_requests 0
zk_server_state follower
zk_znode_count 1528
zk_watch_count 0
zk_ephemerals_count 18446744073709551615
zk_approximate_data_size 454973
zk_key_arena_size 0
zk_latest_snapshot_size 57474
zk_open_file_descriptor_count 124
zk_max_file_descriptor_count 500000
Это понятно
Но пока впиливать придительное включение аналайзера не хочется
И не понятно почему фикс не работает без этого
А что за группа? В телеграмме англоязычная?
Читать полностью…Есть группа разработчиков, можно в ней спросить, только по-английски, конечно.
Читать полностью…Привет! У меня есть таблица с engine = ReplicatedSummingMergeTree, который содержит поле типа Nested. В некоторых строках уже больше 1млн значений внутри nested. Во время мерджа, операция падает с ошибкой, что большой array. В итоге мерджы все время падают и поле num_postoned большое в replication_queue. Пытаюсь удалить такие строки через delete from или alter table delete in partition, но они не выполняются, возможно потому что все треды из pool пытаются мерджы выполнить. Пробовал делать system stop merges, но мутации похоже тоже останавливаются и не выполняются. Даже alter table drop partition иногда не выполняются, приходится перезагружать кх, только во время перезагрузки он начиает удалять данные. Что можно в таком случае сделать, чтобы удалить данные с большими полями типа nested, которые должны во время мерджа еще больше становится? Я понимаю, что схема у меня неправильная, что nested поля такие большие, но сейчас я пытаюсь хотя бы удалить такие строки.
Читать полностью…