У нас была какая-то тактика и мы ее придерживались. Написать админу - @Ghost_In_The_Bot Инфо - @Just_Some_Temp
Про производство и говорить смысла нет.
Везде будет ИИ.
ИИ-свинарник допустим. ИИ-ферма чая. ИИ-завод гвоздей. ИИ-химпром.
И потом — эти искины пойдут на экпорт.
Как готовая модель бизнеса в любой точке мира.
Дипсикам конечно не хватает мощностей.
Думаю банально —
Карт, памяти и процессоров.
Это видно и по Ton, и по личной жизни — и даже по Telegram последние 2-3 года.
Читать полностью…В какой-то момент количество брака превысит все возможные нормы и правила.
И Паштет начнет заливать по ошибке свои гей-архивы вместо обновлений прямо на гитхаб.
Смейтесь, смейтесь. Дурачками по итогу окажетесь вы.
А не я. Я уже оказался.
Америка саботировала электросети СССР. И все самые вкусные АЭС —
Достались разумеется хохлам.
Условный риг из 1000 карт 5090 в зависимости от нагрузки —
По сообщениям нейрошелов будет жрать ~600.000 кВт*час.
В месяц.
Жду исследований Виктора по теме. Почитаю, ознакомлюсь.
Читать полностью…Пабло ломает Telegram каждым новым корч-апдейтом.
Мне кажется старая команда ушла. И остались одни дубайские и германские хохлы.
Возникшие после принудительного инбриндинга.
Что как подвиды хохла в целом даже хуже чем основа — жидохохол.
На базе Deepseek можно выстроить национальный ИИ.
И дальше его допиливать и дорабатывать. Причем не только в России.
Но и в условной КНДР.
А там вообще никаких законов и конвенций и сотрудничества нет.
Еще я думаю что китайские автоконцерны подтянут Deepseek.
И в каждом авто будет ИИ.
Прототипы были — но слабые. Голосовое управление машиной.
Открой дверь, закрой окно, включи отопление. Поставься на сигнализацию.
Запаркуйся.
Будет круто.
^ Ну извините. По наблюдениям Пабло не умеет в окружение. Чмо постоянно какое-то подбирает.
На все должности, места, посты, позиции.
В сети пишут что слили список тех кому Пабло дарил старсы подарки.
И сколько.
Список блядей Пабло и прикорытников —
Видимо уже в студии. Надо исследовать.
Теперь мразь на хохле эти сотни тысяч мегаватт отправят в Европу.
Чтоб там запитать карты и ИИ.
И бомбить русские города.
Получается если вести речь о стандартных для Amazon / Apple / Microsoft / Tesla / Facebook / иных —
Покупках в 100 тысяч карт.
То речь будет идти о энергозатратах примерно сопоставимых с выработками атомных электростанций в США.
В целом даже если карта стоит 10-20-50-100к USD —
Это все равно дешевле чем вырастить и воспитать человека.
Не знаю сколько людишек надо - чтоб соответствовать по ряду показателей даже одной видеокарте.
По ряду параметров видимо миллионы. Десятки миллионов.
Отлить нейромозги в 21 веке оказывается в тысячи крат дешевле —
Чем выращивать даже в инкубаторах эти кожаные мешки.
^ Проблемы с коннекторами я видел. 575 ватт намекают.
Читать полностью…^ Интересно насколько это маркетинговые показатели.
Читать полностью…Интересно есть ли там в новых картах — по Шмидту —
Ограничение производительности для всякого гойского скота допустим в России.
И трекеры GPS допустим.
Почему здесь написано 549 USD. А у меня в гойдекс-маркете —
6.500 USD?
Единственное что я хочу — это вернуться в 1980 год —
И довоевать холодную войну.
Пишут что 5090 будет в 2 раза мощнее в целом чем 4090.
Читать полностью…"Веса слиты? Нет, веса не "слиты", так как DeepSeek сама публикует их как часть своей стратегии. Это не утечка, а осознанный выбор компании".
Осознанная утечка компании.
Что значит "open-weight"? Это означает, что веса модели (то есть параметры, определяющие её поведение) доступны для скачивания и использования, часто под лицензией MIT, которая позволяет свободное повторное использование, изучение и доработку. Однако данные, на которых модель обучалась, не раскрываются, что отличает это от полностью открытого исходного кода (open source), где доступны и код, и данные.
Примеры моделей DeepSeek:
DeepSeek Coder (ноябрь 2023) и DeepSeek LLM (67 млрд параметров, ноябрь 2023) изначально были выпущены с открытыми весами, доступными для коммерческого использования.
DeepSeek V3 и её производные (например, DeepSeek R1) также заявлены как модели с открытыми весами, что подтверждается многочисленными обсуждениями в сообществе (например, на Хабре и Reddit). DeepSeek R1 с 671 млрд параметров — одна из крупнейших открытых моделей на рынке по состоянию на март 2025 года.