Legend's Diary Info? Here: @Ghost_of_Ghost
Это видно и по Ton, и по личной жизни — и даже по Telegram последние 2-3 года.
Читать полностью…В какой-то момент количество брака превысит все возможные нормы и правила.
И Паштет начнет заливать по ошибке свои гей-архивы вместо обновлений прямо на гитхаб.
Смейтесь, смейтесь. Дурачками по итогу окажетесь вы.
А не я. Я уже оказался.
Америка саботировала электросети СССР. И все самые вкусные АЭС —
Достались разумеется хохлам.
Условный риг из 1000 карт 5090 в зависимости от нагрузки —
По сообщениям нейрошелов будет жрать ~600.000 кВт*час.
В месяц.
Жду исследований Виктора по теме. Почитаю, ознакомлюсь.
Читать полностью…Пабло ломает Telegram каждым новым корч-апдейтом.
Мне кажется старая команда ушла. И остались одни дубайские и германские хохлы.
Возникшие после принудительного инбриндинга.
Что как подвиды хохла в целом даже хуже чем основа — жидохохол.
На базе Deepseek можно выстроить национальный ИИ.
И дальше его допиливать и дорабатывать. Причем не только в России.
Но и в условной КНДР.
А там вообще никаких законов и конвенций и сотрудничества нет.
^ Deepseek в опенсорсе. Они слили все веса. Этого так боялся Эрик.
Читать полностью…2-3 года осталось у России. На то чтоб сделать свой внутренний супер-ИИ.
Читать полностью…^ Ну извините. По наблюдениям Пабло не умеет в окружение. Чмо постоянно какое-то подбирает.
На все должности, места, посты, позиции.
В сети пишут что слили список тех кому Пабло дарил старсы подарки.
И сколько.
Список блядей Пабло и прикорытников —
Видимо уже в студии. Надо исследовать.
Теперь мразь на хохле эти сотни тысяч мегаватт отправят в Европу.
Чтоб там запитать карты и ИИ.
И бомбить русские города.
Получается если вести речь о стандартных для Amazon / Apple / Microsoft / Tesla / Facebook / иных —
Покупках в 100 тысяч карт.
То речь будет идти о энергозатратах примерно сопоставимых с выработками атомных электростанций в США.
В целом даже если карта стоит 10-20-50-100к USD —
Это все равно дешевле чем вырастить и воспитать человека.
Не знаю сколько людишек надо - чтоб соответствовать по ряду показателей даже одной видеокарте.
По ряду параметров видимо миллионы. Десятки миллионов.
Отлить нейромозги в 21 веке оказывается в тысячи крат дешевле —
Чем выращивать даже в инкубаторах эти кожаные мешки.
^ Проблемы с коннекторами я видел. 575 ватт намекают.
Читать полностью…^ Интересно насколько это маркетинговые показатели.
Читать полностью…Интересно есть ли там в новых картах — по Шмидту —
Ограничение производительности для всякого гойского скота допустим в России.
И трекеры GPS допустим.
Почему здесь написано 549 USD. А у меня в гойдекс-маркете —
6.500 USD?
Единственное что я хочу — это вернуться в 1980 год —
И довоевать холодную войну.
Пишут что 5090 будет в 2 раза мощнее в целом чем 4090.
Читать полностью…"Веса слиты? Нет, веса не "слиты", так как DeepSeek сама публикует их как часть своей стратегии. Это не утечка, а осознанный выбор компании".
Осознанная утечка компании.
Что значит "open-weight"? Это означает, что веса модели (то есть параметры, определяющие её поведение) доступны для скачивания и использования, часто под лицензией MIT, которая позволяет свободное повторное использование, изучение и доработку. Однако данные, на которых модель обучалась, не раскрываются, что отличает это от полностью открытого исходного кода (open source), где доступны и код, и данные.
Примеры моделей DeepSeek:
DeepSeek Coder (ноябрь 2023) и DeepSeek LLM (67 млрд параметров, ноябрь 2023) изначально были выпущены с открытыми весами, доступными для коммерческого использования.
DeepSeek V3 и её производные (например, DeepSeek R1) также заявлены как модели с открытыми весами, что подтверждается многочисленными обсуждениями в сообществе (например, на Хабре и Reddit). DeepSeek R1 с 671 млрд параметров — одна из крупнейших открытых моделей на рынке по состоянию на март 2025 года.
В целом он может появиться. Если Греф перестанет бить баклуши.
Причем незаметно. Так как цели обеспечить гражданам национальный GPT —
Может и не стоять.