Обсуждаем ClickHouse
К сожалению, все так и даже намного хуже, чем вы описали. Если обратить внимание, то сейчас, имея, к примеру, 99 положительных отзывов на что-либо, плевать на что, и всего 1 отрицательный, многие начинают пропускать плюсы и видеть только минусы, считая плюсы "накрученными", "фейком" и т.д. То есть истинная ценность теряется в подавляющей массе бесполезности.
Именно поэтому я всегда прошу авторов вопросов в этом чате, да и в других, сначала самому со всех сторон попробовать решить проблему, перерыть кучу информации и только потом спрашивать вопрос.... Без этого мы начинаем деградировать и тупеть, как мне кажется...
Я так мучал чат AI на https://clickhouse.com/docs. Он мне долго выдавал неверные ответы, пока я наводящими вопросами не вынудил его дать верный ответ. Затем я спросил - ты учтешь полученный опыт, если другие спросят тебя тот же вопрос - "да, учту". Попросил друга задать этот же вопрос - он получил неверный ответ... И это печально, что так сильно пропагандируют ИИ, которые по факту выдают хлам в большинстве вопросов, требующих глубокой специализации..
Собственно, как вы верно и написали про тысячу хомяков...
И первое - это просто Мега проблема. Тысяча хомячков признаются большим авторитетом, чем 3 профессора.
Читать полностью…гитхаб шерстили?
Set date_time_input_format to best_effort for the default profile.
Зачем же спорить, можно просто подискутировать, заодно сообществу польза будет, стоит ли полагаться на ИИ (которые все пропагандируют как замену программистов) в решении вопросов или все таки собственный опыт ничем не заменить :)
Читать полностью…Ну вы же не будете спорить, что любой алгоритм, нейронные сети и т.д. для получения первоначального итогового результата должны обработать какой-то заданный массив данных, чтобы иметь хотя бы общее представление о входящем вопросе?
И когда один chatgpt дает сразу верный ответ, а другой начинает путаться и выдавать частично верное решение, это говорит о том, что для обучения модели было недостаточно данных.
Разве нет? :)
Кстати, chat.deepseek.com выдал такую же хрень с sumMerge ) Видимо, одни модели для обучения )
Читать полностью…вполне могут
только там результат будет неправильный неочевидный )
https://fiddle.clickhouse.com/20dffe77-fe7f-4ce5-9a2d-28d1c766050f
Но лучше все же искать фото девушек на советских стендах на автосалонах 60х-70х
Их забавно прячут
Ну так на эту тему были соревнования по поиску.
Читать полностью…Нормально он работает. Не хуже gpt4o. Надо промпут правильно писать - https://www.perplexity.ai/search/podskazhite-pozhaluista-po-agg-UzEkT3KfRFyHKwlB8z4fBw
Но как и gpt не осилил размерность Decimal
ну в чем то он прав... ALIAS это не настоящая колонка... она отдельно не хранится насколько я помню =)
Читать полностью…В таблицах типа AggregatingMergeTree в ClickHouse вы не можете напрямую создать колонку, которая будет представлять собой результат арифметической операции между двумя агрегированными колонками без использования агрегирующей функции.
https://www.perplexity.ai/search/podskazhite-pozhaluista-po-agg-grl3P6VYSsKH7TYJd8wxMw
А как жить-то? Это как на гугле быть забаненым.
Там мильен вариантов, как платных, так и бесплатных. Да хоть бы и из rogue countries. Вон к примеру у Горного есть сервис.
например, если данные вставляются в несколько потоков, то то что вы считаете последним может оказаться не таковым
Читать полностью…В начале 2000х говорить про ИИ было практически табу, моветоном. Еще было свежо в памяти предыдущее разочарование.
Но одна из причин предыдущего разочарования была в недостатке ресурсов. Нейронки и ассоциативные алгоритмы были ресурсоемкий.
Все что случилось в 201х - сильное удешевление процессоров и памяти. Не говоря уже о дисках. Настолько подешевело, то даже про алгоритмы оптимизации забы(и)ли.
И все забыли про другую причину - это не интеллект, это просто кластеризация, классификация и куча «если то»
Маркетологи решили, что можно не хило заработать на терминологии. И они были правы. Интеллекта как не было так и нет, но заработать вышло.
В это время ученые успели выяснить что зрение работает совсем не так, семплы не в основе. Но не важно, бабки то поступают много больше чем по проблеме 2к.
Это не было бы так печально, если не было бы того самого эффекта, когда мнение тысячи блогеров побеждает знания профессора. :(
🤝 Спасибо, попробую input_format_values_interpret_expressions=0, очень похоже на мой случай.
Читать полностью…Стоит, при понимании что это генеративные алгоритмы и нейронки.
То есть на входе куча текстов и выстраиваемые правила их семплирования.
Главные недостатки:
ценные но не массовые данные тонут
В семплировании могут быть артефакты (6 палец), потому что интеллекта то нет :)) то есть нет сомнения
Нет контекста (учета предыдущих изысканий)
Коллеги, подскажите как можно отловить ошибку Cannot_parse_input_assertion_failed. Вижу её только в system.error_log, в файле с логами не вижу. Происходит в момент инсерта, но записи все и полностью залетают. Но ошибка покоя не даёт.
Читать полностью…Нет, в обилии данных могут быть даже худшие про Лемы чем в недостатке. но спорить я не буду :)
Читать полностью…Нет никакого обучения.
Генеративный алгоритм - это про компиляцию.
Мечта кандидатов наук: как надергать, что бы не было плагиатом.
Это я процитировал ответ плекса, не свое мнение )))
Читать полностью…Нет, Плекс хуже - на том-же промпуте запутался в вариациях AggregatingFunction и выдал зачем-то sumMerge
Читать полностью…А, ну так мы тут для этого и учимся бежать еще быстрее чем раньше.
Читать полностью…А это уже следующий уровень - ПРАВИЛЬНО задавать вопрос )
Читать полностью…Угу. Никакой ИИ не отменяет самостоятельной работы и тестирования
Читать полностью…Все обманут. Одни в большем другие в меньшем
Читать полностью…А вот кстати справедливости ради )
А плекс дает неверный ответ на этот вопрос, в отличие от чатгпт ))
используйте perplexity.ai
если не доступен chatgpt
В таблице ТО сначала импрессии стоя, потом клики, вьюшки в таком же порядке писать должны, неважно как обозваны
Читать полностью…