Обсуждаем ClickHouse
покажите как запускаете запрос
и полное сообщение об ошибке...
из статьи показалось, что нужен именно clickhouse keeper
или это неважно?
https://clickhouse.com/blog/kafka-connect-connector-clickhouse-with-exactly-once#using-clickhouse-keeper-and-a-new-table-engine
ready. Но без репликаций и транзакций. Если вам не надо, то вполне работает.
Читать полностью…Всем привет, EmbeddedRocksDb production ready? Или лучше избегать?
Читать полностью…Насколько по-честному это в клауде кстати? Я так понимаю что это верно только для рид-онли варехаусов, а гарантий что rw-warehouse не будет задействован в мержах вроде там нет
Читать полностью…вообще это я, когда вспоминаю на полдороги, что мне надо свою документациюб на русском писать, а не английском
Читать полностью…а напомните в клике вставку с синкхронной репликацией можно сделать? и если да то какими ключиками
Читать полностью…Вы задаете очень абстрактные вопросы.
Зависит от объёмов и интенсивности
если я запросы (селекты) из своего бекенда буду просто стравливать на этот жирный хост я могу обходиться без там nginx?
Читать полностью…То есть клик сам умеет распарралеливать задачи по ресурсам
Читать полностью…Я не говорил про асимметрию.
Я говорил что Клик сам умеет распределять ресурсы если у него их в достатке.
не уверен что хорошая идея использовать режим exactly-once delivery, так как по опыту могу сказать что работает довольно капризно.
Читать полностью…Добрый день. Подскажите, есть 2 хоста кластера Clickhouse. Когда то создана была бд на одном из хостов, на 2 ее нет, видимо изначально она была создана не в кластерном режиме. Вопрос - как среплицировать бд эту на 2 хост? Просто создать пробовал с тем же именем, но пишет что бд уже существует
Читать полностью…привет!
может кто-то мигрировал клик с Zookeeper на ClickHouse Keeper?
были сложности или особенности? поделитесь опытом, пожалуйста 🙏
хотим перейти на использование Kafka Connect, а для exactly-once delivery нужен ClickHouse Keeper, соответсвенно нужна миграция на продовом кластере с Zookeeper на ClickHouse Keeper🫣
Это про ускорение на порядок. 1М также параллельно можно лить. Вставки меньше 100к кто-то рассматривает всерьёз?
Я могу считать некоторый объём данных с одной ноды и записывать результат на все - и так одновременно с любых N других (N<=общее кол-во узлов) пользуясь движком дб Atomic engine. Это вопрос пропускной способности сети и ресурсов. Я теряю здесь только расшардированность, потому чтобы реализовать это руками нужно на N нодах, нужно держать одинаковое всё. С другой стороны читателем можно управлять более гибко, отправляя его на менее загруженные узлы. Да это не про ПБ.
Сам я никогда клаудом не пользовался.
Я смотрел в ютубе их cloud status updates, и они рассказывали как они это сделаЮТ, я не вижу никакой проблемы это реализовать.
удалили русскую доку и заменили на автоперевод
Читать полностью…понял, вернусь когда наберу больше вводных
Читать полностью…Нельзя исключать
Но так же нельзя исключать и три шаржа по 16RAM на 100ГБ
еще раз... лучшее решение написать НОРМАЛЬНО в клиентском приложении
/channel/clickhouse_ru/421493
нет, имелось ввиду на жирном хосте типа конкурентность тредов нормально работает...
Читать полностью…они могут поздно про это узнать
захреначат сразу 40 терабайт на 128Gb RAM ... а потом будут слезно просить тут ..."а как нам сделать решардинг"