Обсуждаем ClickHouse
Тоже верно!!. С другой стороны есть функция nvl, а есть coalesce ))
Читать полностью…Ммм. Понятно. Благодарю!! А взаимозаменяемой нет случайно?? Чтобы таки посмотреть?
Читать полностью…Коллеги, день добрый. При попытке посмотреть индексы получаю ошибку. Не понимаю.
SELECT * FROM mergeTreeIndex(currentDatabase(), severity, with_marks = true);
SQL Error [22000]: Code: 46. DB::Exception: Unknown table function mergeTreeIndex: or incorrect parameterized view. (UNKNOWN_FUNCTION) (version 23.8.2.7)
да, тоже самое, потом заменил на loadDefaultCAFile true, судя по доке это более правильный путь
ща на стенде поднимаю тоже самое и буду дебажить
не тот что в последний раз ( без /rush )
Читать полностью…коллеги добрый день, подскажите плз, есть ли флаг который позволяет при старте ch пропустить коррапченные таблицы? табличка с движком Iceberg не аттачится при старте, из за чего БД не стартует, хотелось бы стартовать без нее и потом разобраться уже с ней
Читать полностью…этот вариант уже более 10 минут бежит и налил одну треть только
Читать полностью…если быть более точным то у меня
insert into key_table select key_col1, key_col2 from huge_table;Читать полностью…
select key_col1, key_col2 from huge_table
должен выполнится меньше чем за секунду в описанных условиях
покажите
time clickhouse-client -q 'select key_col1, key_col2 from huge_table format TSV' >> t.out
учитывая, что в клике разреженный индекс, то вряд ли можно откуда-то достать закэшированный набор всех уникальных значений колонок из order by
но сотня полей в случае select col1, col2 group by col1, col2 роли не играет, база же колоночная
Если на даче надо сделать скважину глубиной 40м, вы это не будете делать карьерным экскаватором. А угольный разрез вы не будете делать машиной для скважин. Т.е. процесс похож но не одно и тоже.
Невозможно использовать Cassandra вместо Clickhouse и наоборот.
Cassandra это одна из самых быстрых бд, причем она великолепно масштабируется. Но это Key/Value. Если одна машина под бд, можно сразу забыть про Cassandra.
30тыс. у каждого, это не многовато?
вы обсудите свою проблему с ai.
КХ не транзакционная система, и туда хрен вставишь надежно и эффективно.
берите mongo
я скачал ca от issuer, sudo verify OK, ошибка та же(но он даже не пытается файл читать судя по strace, только stat делает, сейчас на стенде хочу проверить, может после рестарта подцепит). Уже большое желание появилось выставить nginx перед кх, надо проверить только как native за stream жить будет
Читать полностью…Думаю что не заморачивались бы добавлять, если была бы "взаимозаменяемая".
Читать полностью…в 24.2 добавлена функция mergeTreeIndex. В вашей версии нет такой.
Читать полностью…Проверка на сервере проходит?
TRUSTSTORE=/etc/clickhouse-server/certs/root-ca.crtЧитать полностью…
SSL_NODE_CERT=/etc/clickhouse-server/certs/wildcard.domain.my.crt
sudo -u clickhouse openssl verify -verbose -CAfile "${TRUSTSTORE}" "${SSL_NODE_CERT}"
<openSSL>
<server>
<!-- <loadDefaultCAFile>true</loadDefaultCAFile> -->
<caConfig>/etc/clickhouse-server/certs/root-ca.crt</caConfig>
<certificateFile>/etc/clickhouse-server/certs/wildcard.domain.my.crt</certificateFile>
<privateKeyFile>/etc/clickhouse-server/certs/wildcard.domain.my.key</privateKeyFile>
<dhParamsFile>/etc/ssl/clickhouse/dhparams.pem</dhParamsFile>
</server>
</openSSL>
root-ca.crt
у вас должны быть вся цепочка - root, intermediate(s).wildcard.domain.my.crt
- только серт хоста.Коллеги, всем доброй ночи!
Имеется задача, ограничить тяжелые запросы от УЗ по нагрузке на CPU.
В документации подобного не нашел. Как сделать, чтобы при достижении, условно, потребления CPU одним запросом от конкретного пользователя, он получал эксепшн? Как-то это реализовать средствами ClickHouse возможно? max_threads - не очень подходит, видимо.
По ссылке инфы не нашел: https://clickhouse.com/docs/operations/settings/query-complexity?spm=a2ty_o01.29997173.0.0.6522c921Xl7nZ4#max_cpu_usage
Перенести метаданные таблицы в другое место и стартануть
Читать полностью…какой в этом смысл вообще? какая разница сколько колонок в таблице, этот селект одинаково будет работать
Читать полностью…в key_table всего два поля для ключа и ORDER BY такой же
Читать полностью…не секунда конечно, но гораздо быстрее чем селектом
Читать полностью…https://kb.altinity.com/altinity-kb-setup-and-maintenance/altinity-kb-data-migration/fetch_alter_table/
с помощью fetch part + attach part можно быстро копирнуть всю таблицу, но мне только ключ нужен
причем желательно порциями забирать ключ, по одной десятой например
Привет.
Мне нужно вытащить из таблицы на сотни миллионов строк и сотню полей составной ключ из двух полей ORDER BY (key_col1, key_col2).
Может есть варианты получше чем select key_col1, key_col2 from huge_table?
По всей таблице бежать уж очень долго.
30тыс для каждого пользователя - сверх много) Цифру привёл как пример. Да, знаю что для транзакций необходима реляционная БД. Ai рекомендовал Cassandra, но на хабре прочёл, что читать из Кассандры долго. Хотя опять же в моем случае это не важно, просто интересно)
Читать полностью…Мой ответ про постгрес вообщето, clickhouse не транзакционная система.
На мой взгляд json в БД имеет смысл в следующих случаях:
1. На вход и/или выход идут json и мы вход и выход хотим протоколировать
2. Сложные настройки
3. Мы эмулируем non sql key value бд
как по мне проблема с json это постоянная необходимость вместо group by X
писать group by j.t.X.:Int64
чтобы написать банальный sum/groupby надо мозгами шевелить