Области интересов канала: блокчейн, мозг(BCI), space tech, цифровая экономика, WEB 3.0 в России и мире. Основатель @AniAslanyan English channel https://t.me/alwebbci Регистрация в перечне РКН https://knd.gov.ru/license?id=67374142772bb113f528001c®is
❗️CEO Anthropic тонко намекает, что гонка идет за то, кто 1-м в мире достигнет порога рекурсивного улучшения, то есть, когда ИИ сможет помогать в создании более совершенного ИИ
Что на самом деле говорит основатель Anthropic? Разбираем детально.
Амодей намекает на критический момент, когда ИИ сможет помогать в создании более совершенного ИИ. Это объясняет срочность в наращивании вычислительных мощностей: кто первым достигнет этой точки, может получить долгосрочное преимущество.
Ключевое понимание: гонка идет не только за текущие возможности, она идет за то, кто первым достигнет порога рекурсивного улучшения.
Говорит о точке перехода.
Сейчас временно несколько компаний могут создавать хорошие модели для рассуждений. Указывает на короткое окно возможностей. Предупреждает о скором закрытии этого окна.
❗️Намекает на непубличные возможности моделей:
- Предполагает существование более продвинутых версий
- Указывает на социальный аспект ИИ.
Намекает на подготовку нового поколения инфраструктуры
- Предполагает существование планов по значительному масштабированию
- Указывает на неизбежное увеличение разрыва между лидерами и остальными
Намекает на существование секретных методов обработки данных.
Указывает на критическую важность скорости развития.
Дарио Амодей, основатель Anthropic: #DeepSeek создала модель, близкую к производительности американских моделей 7-10 месячной давности
Амодей пишет, что #DeepSeek не сделал за $6 млн то, что стоило американским компаниям ИИ миллиарды. «Я могу говорить только за Anthropic, но Claude 3.5 Sonnet стоила несколько десятков миллионов долларов в обучении. Кроме того, 3.5 Sonnet не обучался каким-либо образом, который включал бы более крупную или более дорогую модель. Обучение Sonnet проводилось 9-12 месяцев назад, а модель DeepSeek была обучена в ноябре/декабре, при этом Sonnet остается заметно впереди во многих внутренних и внешних оценках. Таким образом, я думаю, справедливое утверждение будет: "DeepSeek создала модель, близкую к производительности американских моделей 7-10 месячной давности, за значительно меньшую стоимость (но не в тех пропорциях, которые люди предполагали)», - пишет Амодей.
Амодей продолжает: «Как я упомянул выше, Claude чрезвычайно хорош в программировании и в хорошо продуманном стиле взаимодействия с людьми (многие люди используют его для личных советов или поддержки). По этим и некоторым дополнительным задачам просто нет сравнения с DeepSeek. Эти факторы не появляются в числах масштабирования.
R1, которая является моделью, выпущенной на прошлой неделе и которая вызвала взрыв общественного внимания (включая ~17% падение акций Nvidia), гораздо менее интересна с точки зрения инноваций или инженерии, чем V3. Она добавляет второй этап обучения — обучение с подкреплением, и по существу повторяет то, что OpenAI сделала с o1 (они, похоже, находятся на схожем масштабе с похожими результатами). Однако, поскольку мы находимся на ранней части кривой масштабирования, возможно, чтобы несколько компаний производили модели этого типа, если они начинают с сильной предварительно обученной модели. Производство R1 при наличии V3, вероятно, было очень дешевым. Поэтому мы находимся в интересной "точке пересечения", где временно несколько компаний могут производить хорошие модели рассуждения. Это быстро перестанет быть правдой, когда все продвинутся дальше по кривой масштабирования на этих моделях».
Если исторический тренд снижения стоимости составляет ~4x в год, это означает, что в обычном ходе бизнеса — в нормальных трендах исторического снижения стоимости, как те, что происходили в 2023 и 2024 годах — мы бы ожидали модель в 3-4 раза дешевле, чем 3.5 Sonnet/GPT-4o около сейчас.
Однако американские компании скоро последуют — и они сделают это не копируя DeepSeek, а потому что они тоже достигают обычного тренда в снижении стоимости.
И DeepSeek, и американские компании ИИ имеют гораздо больше денег и чипов, чем они использовали для обучения своих флагманских моделей.
Hugging Face vs DeepSeek: как битва за открытость ИИ раскрывает будущее вычислений
Исследовательская команда Hugging Face объявила, что создает полностью открытую версию #DeepSeek R1 со всеми составляющими модели, подчеркивая недостаточную открытость текущей версии.
Этот шаг интересен не только намерением задействовать мощный кластер из 768 GPU Nvidia H100, но и тем, что он высвечивает более глубокие изменения в индустрии ИИ.
Катализатором дискуссии стало недавнее достижение #DeepSeek: компания продемонстрировала возможность запуска своей модели R1 на локальном оборудовании стоимостью всего $6000. Решение, построенное на архитектуре с двумя процессорами AMD EPYC и 768 ГБ оперативной памяти, полностью исключает необходимость в дорогостоящих GPU.
Это достижение указывает на важный сдвиг в индустрии: большинство вычислительных потребностей ИИ в будущем будет связано не с обучением моделей, а с их использованием (инференсом).
Как отмечают эксперты, крупным корпоративным пользователям предстоит сделать выбор: продолжать полагаться на дорогостоящие гиперскейлерные дата-центры или перейти на более экономичные локальные решения.
Локальное развертывание позволяет компаниям заменить постоянные платежи за облачные API единоразовыми инвестициями в оборудование.
Главный научный сотрудник Meta(запрещенная в РФ) по ИИ Ян ЛеКун считает, что индустрия ИИ стоит на пороге новой революции: будущие системы будут не только обрабатывать текст, но и понимать физический мир, обладать постоянной памятью, способностью к рассуждению и иерархическому планированию. Это неизбежно увеличит требования к вычислительной инфраструктуре для инференса.
Однако ЛеКун подчеркивает, что успех таких инноваций зависит не от конкуренции, а от сотрудничества: "Идея в том, что все получают пользу от идей друг друга. Никто не 'обгоняет' других, и ни одна страна не 'проигрывает' другой".
Складывающаяся ситуация позволяет сделать несколько важных выводов:
1. Будущее ИИ-вычислений смещается в сторону оптимизации инференса, а не обучения моделей.
2. Локальные решения могут оказаться более привлекательными для бизнеса, чем облачные сервисы.
3. Успех развития ИИ зависит от баланса между открытостью исследований и практической применимостью решений.
4. Ключевым фактором становится не столько технологическое лидерство, сколько экономическая эффективность и удобство внедрения.
Маск создает свою финансовую экосистему на базе Twitter
X объявил о партнерстве с Visa для запуска X Money Account.
X заключил партнерство с крупнейшей платежной системой Visa для создания своей финансовой экосистемы.
Что предлагает X Money Account:
1. Мгновенные переводы между банковскими счетами и цифровым кошельком
2. P2P платежи в стиле Venmo и Zelle
3. Интеграция с Visa Direct для транзакций в реальном времени
X трансформируется из простой социальной сети в super-app по модели WeChat. Но за этим партнерством стоит стратегия Маска:
1. Экосистемный подход.
X становится не просто площадкой для общения, а центром экосистемы, объединяющей различные проекты Маска. Это мощный инструмент для продвижения Tesla, SpaceX, Starlink и других инициатив.
2. Финансовая инфраструктура нового поколения
Выбор Visa говорит о глобальных амбициях.
3. Движение к Web 3.0
X Money можно рассматривать как мост между традиционными финансами и новой цифровой экономикой. Маск, ранее влиявший на крипторынок через социальные медиа (вспомним историю с Dogecoin), теперь создает регулируемую платформу для финансовых инноваций. Потому что новая администрация Трампа полностью про-крипто.
X становится экспериментальной площадкой для построения экономики Web 3.0. Интеграция социальных взаимодействий с финансовыми транзакциями может создать новую модель цифровой экономики, где контент, коммуникации и финансы существуют в единой экосистеме.
Запуск X Money Account запланирован на 2025 год.
Основатель твиттера Джек Дорси только что выпустил ИИ-агента с открытым исходным кодом
Goose - локальный ИИ-агент с открытым исходным кодом, который помогает автоматизировать рутинные задачи разработчика.
Он работает прямо на вашем компьютере и интегрируется с вашими инструментами.
У него расширяемая архитектура - подключайте любые инструменты через MCP.
Поддерживает разные LLM.
Два интерфейса - удобный десктоп и мощный CLI.
Интегрировать Goose можно с:
- GitHub
- Google Drive
- JetBrains IDE
- Другими инструментами через API.
Ян ЛеКун, главный по ИИ в Meta* o #DeepSeek
Ян #ЛеКун опубликовал серию постов, раскрывающих его видение ситуации. Он говорит о смене парадигмы:
1. От конкуренции моделей к конкуренции экосистем
2. От закрытых разработок к открытым инновациям
3. От количества параметров к качеству архитектуры.
«Реакция рынка на DeepSeek yannlecun/post/DFVXCiMuHWL?xmt=AQGzJN9wEqyDkCHx4trdwGkFqNb90vRLqWpN6P_yzdS3qQ">совершенно неоправданнаyannlecun/post/DFVXCiMuHWL?xmt=AQGzJN9wEqyDkCHx4trdwGkFqNb90vRLqWpN6P_yzdS3qQ">», - заявляет ЛеКун, наблюдая панику инвесторов. По словам ЛеКуна, рынок упускает несколько ключевых моментов:
1. Тренировка vs использование моделей:
- Миллиарды $ идут не на обучение моделей
- Основные затраты — на инфраструктуру для использования ИИ
- Обслуживание ИИ-агентов для миллиардов людей требует огромных вычислительных мощностей
2. Будущие затраты только вырастут, когда мы добавим:
- Понимание видео
- Способность рассуждать
- Масштабную память
- Другие продвинутые возможности
стоимость инференса значительно увеличится
#ЛеКун yannlecun/post/DFVKkwbu6aY?xmt=AQGz-nEJl9jdo-tTL_CFly_BswwyMr9ugTDMxIR043QBxw">описывает 4 ключевые характеристики будущих системyannlecun/post/DFVKkwbu6aY?xmt=AQGz-nEJl9jdo-tTL_CFly_BswwyMr9ugTDMxIR043QBxw">:
1. Понимание физического мира (не просто текста и изображений)
2. Постоянная память (способность помнить и учитывать контекст)
3. Возможность рассуждать (не просто предсказывать следующее слово)
4. Иерархическое планирование (способность разбивать сложные задачи)
"Открытые исследования и открытый код ускоряют прогресс для всех", - подчеркивает ЛеКун. В подтверждение он yannlecun/post/DFS9A-tOZgt?xmt=AQGzw09jysBUIaqmuXZfWX09o4IR3zzV__Oi7YUhVdDzgg">приводит историю Residual Connectionsyannlecun/post/DFS9A-tOZgt?xmt=AQGzw09jysBUIaqmuXZfWX09o4IR3zzV__Oi7YUhVdDzgg">:
- Разработана в Microsoft Research Beijing
- Стала самой цитируемой научной работой (253,000 цитирований)
- Используется во всех современных нейросетях
ЛеКун раскрывает важный технический принцип:
- Большинство уровней в современных системах глубокого обучения построены по принципу y=x+f(x,w)
- Это позволяет создавать очень глубокие системы
- Предотвращает катастрофические сбои при проблемах на одном из уровней
Что это значит?
1. Для индустрии:
- Паника по поводу снижения стоимости обучения преждевременна
- Реальные вызовы связаны с инфраструктурой для использования ИИ
- Открытый код не угроза, а катализатор прогресса
2. Для инвесторов:
- Нужно смотреть на способность компаний масштабировать инференс
- Оценивать готовность пользователей платить за ИИ-сервисы
- Учитывать растущие операционные затраты
3. Для разработчиков:
- Фокус смещается на новые архитектуры
- Важность понимания физического мира
- Приоритет рассуждений и долговременной памяти
«Единственный реальный вопрос — будут ли пользователи готовы платить достаточно (прямо или косвенно), чтобы оправдать капитальные и операционные затраты», - заключает ЛеКун.
Напомним, что Лекун всегда поддерживает #DeepSeek
*запрещенная в РФ организация.
#ByteDance представили ИИ-модель #Doubao-1.5-pro, вот её характеристики и сравнение с DeepSeek-R1
Doubao-1.5-pro - закрытая ИИ-модель с акцентом на оптимальный баланс производительности и эффективности использования ресурсов.
1. Архитектурные характеристики :
- Использует разреженную MoE (Mixture of Experts) архитектуру
- Достигает 7-кратного увеличения эффективности параметров по сравнению с плотными моделями
- Требует значительно меньше активных параметров при сохранении высокой производительности
- Превосходит показатели Llama3.1-405B при меньших вычислительных затратах
2. Мультимодальные возможности:
- Встроенная поддержка обработки изображений и речи
- Оригинальная система динамического разрешения для работы с изображениями
- Улучшенное понимание визуального контекста
- Интеграция речевых возможностей на уровне архитектуры
3. Производительность:
- На MMLU: 88.6%
- GPQA: 65.0%
- Показывает сильные результаты в задачах рассуждения (BBH: 91.6)
Сравнение с DeepSeek-R1.
Ключевые различия в подходах:
1. Doubao-1.5-pro фокусируется на эффективности и мультимодальности, стремясь достичь максимальной производительности при минимальных ресурсах.
2. DeepSeek-R1 делает акцент на улучшении способностей к рассуждению через масштабное обучение с подкреплением.
Практические выводы:
- Doubao-1.5-pro может быть предпочтительнее для задач, требующих эффективного использования ресурсов и мультимодальных возможностей.
- #DeepSeek-R1 лучше подходит для сложных задач рассуждения и может быть легче интегрирован благодаря открытому исходному коду
Обе модели представляют собой значительный шаг вперёд в развитии языковых моделей, но с разными приоритетами в своей архитектуре и оптимизации.
Кому выгодно лидерство #DeepSeek? Какой ИТ-гигант помог ему и зачем?
В то время как технологическое сообщество пытается осмыслить прорыв DeepSeek, аналитики спорят о будущем #NVIDIA, а инвесторы переоценивают миллиардные вложения в ИИ-инфраструктуру, #Meta* сохраняет удивительное спокойствие. А Андрей Карпатый, со-основатель OpenAI может объяснить это спокойствие.
Мы @blockchainrf стараемся проанализировать все происходящее вокруг #DeepSeek, а также сопоставить с тем, что говорили и делали ИТ-гиганты в части open source. И отмечаем, что среди гигантов Meta первая продвигала открытый исходный код. Потом присоединились #Google, #Microsoft и др.
Только что Андрей #Карпатый написал большой пост про DeepSeek и отметил 2 ключевых момента:
1. Глубокое обучение имеет "ненасытный аппетит" к вычислениям
2. Существует два типа обучения:
- Имитационное (как текущие LLM)
- Обучение с подкреплением (RL) - значительно более мощное.
Анализируя хронологию событий и заявлений Meta за последние 2 года, мы видим признаки тщательно спланированной стратегии. Это наша @blockchainrf интерпретация, основанная на открытых данных.
Вот, на что мы обращаем внимание:
1. 2023: Первые намеки
Летом Ян #ЛеКун шокирует сообщество заявлением "Machine Learning sucks!"на симпозиуме в Гонконге. Он не критикует, он намекает на необходимость принципиально нового подхода.
В ноябре Meta представляет I-JEPA - альтернативу трансформерам. Это не эксперимент, а первый шаг к чему-то большему. Фокус на обучении с подкреплением вместо имитации.
2. 2024: Подготовка почвы.
ЛеКун методично формирует новую повестку:
- Март: "Не тратьте время на LLM"
- Май: Концепция "objective-driven" архитектуры
- Июль: Партнерство с Groq (новые LPU чипы)
- Октябрь: Детальное видение Objective-Driven AI
Неожиданный ход летом 2024 -
Meta делает то, чего никто не ожидал - открывает исходный код Llama и активно продвигает идею открытого ИИ. На первый взгляд, это кажется рискованным. Но был ли это риск?
- Открытие исходного кода Llama
- Активное продвижение открытого ИИ
- На первый взгляд - риск, на деле - расчет
Карты раскрываются (январь 2025).
DeepSeek, используя наработки Meta:
- Снижает стоимость обучения в 20 раз
- Работает на обычных GPU
- Достигает уровня закрытых моделей
Реакция ЛеКуна на работу DeepSeek - короткий твит: "Nice job! Open research / open source accelerates progress." За этой сдержанностью - триумф стратегии.
На прошлой неделе было заявление ЛеКуна в Давосе о "новой парадигме ИИ в ближайшие 3-5 лет" читается теперь совсем иначе. Meta не просто предсказывает будущее - она методично его создает.
Гениальная стратегия Meta:
1. Открыли код -> DeepSeek использовал и улучшил
2. Создали конкуренцию закрытым моделям
3. Сами готовят следующий прорыв.
Если объединить наблюдения Карпати о природе глубокого обучения, последовательные заявления ЛеКуна и действия Meta, складывается картина удивительно продуманной стратегии. Пока все обсуждают эффективность текущих подходов, Meta, похоже, готовит следующий ход в ИИ.
*Запрещенная организация в России.
#DeepSeek вызвал раскол среди крупнейших инвест аналитиков: одни видят крах рынка ИИ, другие - новые возможности
Прорыв китайской ИИ-компании DeepSeek, сократившей стоимость обучения ИИ моделей в 20 раз и уменьшившей требования к GPU с 100,000 до 2,000, вызвал острые дебаты на Уолл-стрит.
Вот, что говорят аналитики.
1. Медведи - конец эпохи дорогого ИИ-железа
#JPMorgan предупреждает о возможной переоценке всего инвестиционного цикла в ИИ. DeepSeek показывает, что будущее за эффективностью, а не за наращиванием мощностей.
#Raymond James отмечает, что если инновации DeepSeek будут широко приняты, потребность в огромных GPU-кластерах может существенно снизиться. Это прямой удар по бизнес-модели NVIDIA и других производителей.
#Jefferies уже прогнозирует снижение капитальных затрат на ИИ к 2026 году и предлагает инвесторам выбирать между двумя стратегиями: продолжать инвестировать в вычислительные мощности или сделать ставку на эффективность.
2. Быки - новые возможности для роста
В противоположном лагере:
#Cantor утверждает, что разработки DeepSeek приведут к увеличению, а не уменьшению спроса на GPU. Они рекомендуют покупать акции NVIDIA на любых падениях.
#Bernstein считает панику преувеличенной и сохраняет позитивные рейтинги для NVIDIA и Broadcom.
#Citi, признавая вызов американскому доминированию, подчеркивает сохраняющееся преимущество в доступе к передовым чипам.
Такой раскол мнений среди ведущих аналитиков показывает, что рынок пока не может точно оценить последствия инноваций #DeepSeek. Это создает повышенную волатильность и неопределенность в секторе.
История показывает, что в таких случаях правы могут оказаться обе стороны - в краткосрочной перспективе мы можем увидеть коррекцию, но в долгосрочной - рост всего рынка за счет расширения доступности технологии.
Ключевым фактором станет скорость, с которой рынок сможет адаптироваться к новой реальности более эффективных ИИ-моделей. Возможно, мы стоим на пороге фундаментальной перестройки всей индустрии ИИ, где акцент сместится с железа на программные решения и эффективность использования ресурсов.
❗️Банк Китая выделяет 1трлн юаней (~$140млрд) на ИИ
В течение следующих 5 лет банк планирует предоставить финансирование в размере не менее 1 триллиона юаней ($137 млрд) для развития экосистемы ИИ в стране.
Банк Китая применяет экосистемеый подход.
Для максимальной эффективности создается единая система поддержки, включающая:
- Интеграцию с инвестиционными фондами группы Bank of China
- Сотрудничество с ведущими инвестиционными банками
- Специальные программы для стартапов и перспективных компаний.
Ключевые направления финансирования:
1. Развитие базовых технологий и инфраструктуры
- Поддержка ЦОДов и вычислительных комплексов
- Финансирование разработки моделей и алгоритмов ИИ
- Создание технологических парков и сопутствующей инфраструктуры
2. Практическое применение ИИ
Особое внимание будет уделено развитию следующих направлений:
- ИИ в робототехнике
- Биопроизводство с применением ИИ
- Разработка новых материалов
- Низковысотная экономика (беспилотные летательные аппараты)
3. Формы поддержки
Банк предложит комплексный набор финансовых инструментов:
- Акционерное финансирование и облигации (минимум 300 млрд юаней)
- Кредитные продукты
- Страховые программы
- Лизинговые решения
Выглядит как ответ на проект Stargate от OpenAI, SoftBank и Oracle.
Итоги уходящей недели, что имеет значение в России и мире
Текст недели: не ИТ-железо и не базовые ИИ-модели будут иметь долгосрочную ценность. А что? Читайте здесь.
1. Павел Дуров создает монополию вокруг Telegram и блокчейна TON. Подробности тут.
2. Китайский стартап DeepSeek поднял на уши, выпустив ИИ-модель DeepSeek-R1. Команда сделала 2 важных прорыва.
Откуда появился вообще этот стартап, читайте тут.
3. На этом фоне OpenAI объявил, что делает свою модель о3 mini бесплатной.
4. Между тем, госкорпорации продолжают закупать иностранное ИТ-железо, причём закупки выросли до ₽28 млрд.
5. Свежий отчет о состоянии микроэлектроники в России.
6. Россети хотят получить контроль по размещению майнинг-центров и новые тарифные механизмы.
7. Разгорелся серьезный скандал вокруг одного из ключевых инструментов оценки математических способностей языковых моделей. Выяснилось, что OpenAI тайно финансировала его разработку и имела эксклюзивный доступ к данным.
Подробности тут.
8. Китайцы выпустили ИИ-модель Kimi, и она превосходит GPT-4 и Claude 3.5 в некоторых задачах более чем на 550%.
9. Дарио Амодей, со-основатель Anthropic заявил, что к 2027 ИИ превзойдет интеллект человека. А также объявил о новых запусках.
10. Великобритания выделила проектам £69 млн на развитие нейротехнологий.
11. OpenAI+Softbank+Oracle создают СП Stargate с объемом инвестиций $500 млрд.
12. Что стоит на самом деле за проектом OpenAI - Stargate на $500млрд? Разбор проекта здесь.
13. Microsoft и OpenAI меняют условия эксклюзивности партнерства.
14. ByteDance представили ИИ-агента,который превзошел GPT-4 в работе с компьютерными интерфейсами.
15. Компания Трампа становится ключевым игроком на крипто рынке.
16. ИИ-агент от OpenAI выпущен. Все подробности здесь.
17. В Шанхае открылся 1-й в Китае центр подготовки роботов -гуманоидов.
18. Xanadu представила 1-й в мире модульный фотонный квантовый компьютер под названием Aurora.
19. 1-й в мире кейс, когда квантовые вычисления, машинное обучение создают реальных кандидатов в лекарства, подтвержденных экспериментально.
20. Трамп подписал указ о создании стратегического запаса биткоинов для США.
21. Какие страны владеют биткоинами? Карта.
22. DeepMind работает над проектом «Виртуальная клетка», позволяющая симуляцию биологических клеток с помощью ИИ.
23. Ст.исследователь NVIDIA: DeepSeek доказал, что ИИ инфраструктура и базовые ИИ-модели станут товаром.
24. Маск внедряет блокчейн в правительстве США для повышения эффективности работы.
25. Обзор Agentic RAG.
26. Как создать хедж-фонд на базе ИИ, использующий множество агентов для принятия торговых решений. Ответ тут.
27. Google инвестировал $1млрд в Anthropic.
28. ByteDance выпустила конкурента Cursor IDE.
29. Свежая статья под названием Mona о безопасности ИИ от Google.
30. Perplexity запустил ИИ-ассистента для своего поисковика. Функционал работает пока для пользователей Android.
31. Mistral идет на IPO.
Ст.исследователь NVIDIA: DeepSeek доказал, что ИИ инфраструктура и базовые ИИ-модели станут товаром
Джим Фан,NVIDIA, говорит: «Нравится вам это или нет,
будущее ИИ - это его демократизация, каждый пользователь интернета сможет запускать продвинутые модели даже на слабых устройствах.
Это исторический тренд, против которого бессмысленно бороться».
О прорыве DeepSeek:
1. DeepSeek показала лучшие результаты в нескольких независимых тестах.
2. Особенно важно, что они достигли этого с гораздо меньшими вычислительными ресурсами.
DeepSeek доказывает, что можно получить тот же уровень интеллекта при затратах в 10 раз меньше. Это означает, что с текущими вычислительными мощностями можно создать в 10 раз более мощный ИИ. Временная шкала развития ИИ сжимается.
Предложение Фана на 2025 год:
1. Прекратить распространение мифов об AGI/ASI
2. Прекратить нагнетание страха
3. Сосредоточиться на написании кода
4. Максимально поддерживать open source
5. Ускорение - единственный путь вперед
Все это сходится с нашим предыдущим постом.
DeepMind работает над проектом «Виртуальная клетка», позволяющая симуляцию биологических клеток с помощью ИИ
Такой же проект делает команда Марка Цукерберга, об этом далее по тексту.
Демис Хассабис сообщил, что команда, получившая Нобелевскую премию за разработку AlphaFold (это ИИ, который предсказывает структуру белков), теперь работает над проектом «Виртуальная клетка».
Цель этого проекта - создать компьютерную симуляцию биологических клеток с помощью ИИ.
По прогнозам, через 5 лет эта технология сможет помогать в:
- поиске новых лекарств
- тестировании лекарственных препаратов.
Отметим, что такие проекты уже делает команда CZI, финансируемая Цукербергом, а также компания Noetik.
Эти проекты, хотя и имеют схожие цели, отличаются несколькими ключевыми аспектами:
1. Фокус исследований:
- DeepMind, вероятно, будет использовать свой опыт в предсказании структур белков (AlphaFold) как основу
- CZI делает акцент на интеграции разных уровней (молекулярный, клеточный, тканевой)
- Noetik сфокусирована именно на поведении клеток в тканях и имеет большую базу реальных данных пациентов.
2. Текущий прогресс:
- DeepMind анонсировала планы на 5 лет вперед
- CZI представила концептуальную модель и план развития
- Noetik уже имеет работающую систему OCTO-VirtualCell с конкретными результатами
3. Масштаб данных:
- Noetik использует конкретную базу данных (40 миллионов клеток от 1000 пациентов)
- CZI и DeepMind, похоже, планируют более универсальный подход, не ограниченный конкретным набором данных
4. Специализация:
- Noetik больше специализируется на онкологии и конкретных тканях
- DeepMind и CZI стремятся создать более универсальные системы для разных типов исследований.
Трамп только что подписал указ о создании стратегического запаса биткоинов для США. Это исторический момент.
1-ая в мире страна, которая сделала это и это было частью предвыборной кампании Трампа
/channel/blockchainRF/10807
В 2021 году мы @blockchainrf предлагали создать такой же резервный фонд в России /channel/blockchainRF/10860
Согласно указу, создается Президентская рабочая группа по цифровым активам для укрепления лидерства США в сфере цифровых финансов.
Рабочая группа разработает нормативную базу, регулирующую цифровые активы, включая стейблкоины, а также создание стратегического национального запаса цифровых активов.
Запрещается агентствам предпринимать какие-либо действия по созданию, выпуску или продвижению цифровых валют центрального банка (CBDC).
Отменяется предыдущий указ администрации о цифровых активах и разработанный Министерством финансов структуру международного взаимодействия в области цифровых активов, которые подавляли инновации и подрывали экономическую свободу США и глобальное лидерство в сфере цифровых финансов.
Вот, что Китай делает с OpenAI! Сэм объявил о бесплатном пользовании модели o3-mini для всех и для пользователей платной версии (Plus).
Скоро, видимо, вообще подписки не будет…
Это прямая реакция на то, что сделали китайцы из DeepSeek R1.
Вот, что значит конкуренция.
Почему Дарио Амодей считает, что успех #DeepSeek не меняет правила игры, и что нас ждет дальше?
В развернутом анализе CEO Anthropic объясняет, почему кажущийся прорыв китайской компании вписывается в обычную траекторию развития ИИ, и что нас ждет дальше.
Амодей сначала говорит о 3-х фундаментальных закона развития ИИ:
1. Закон масштабирования:
- Чем больше ресурсов, тем лучше результаты
- Прогресс плавный и предсказуемый
- $1M = 20% задач, $10M = 40%, $100M = 60%
2. Закон смещения кривой:
- Инновации делают процесс эффективнее
- Улучшения могут быть:
* Небольшие (1.2x)
* Средние (2x)
* Значительные (10x)
- Общий темп улучшений: примерно 4x в год
3. Закон смены парадигмы:
- 2020-2023: обучение на текстах
- 2024: добавление Reinforcement Learning
- Сейчас: уникальная "точка перехода"
Что на самом деле сделал DeepSeek?
- Создал модель близкую к американским моделям 7-10 месячной давности
- Потратил меньше, но в рамках обычного тренда снижения затрат
- Имел доступ к серьезным ресурсам (~50,000 чипов, ~$1B)
Почему это не революция?
- Снижение затрат соответствует обычному тренду (4x в год)
- V3 более инновационна чем нашумевший R1
- Общие затраты компании сопоставимы с US лабораториями
По мнению Амодея, для создания действительно продвинутого ИИ потребуется:
- Миллионы чипов
- Десятки миллиардов долларов
- 2-3 года работы
Почему это важно понимать?
1. Для инвесторов:
- Падение акций NVIDIA на 17% необоснованно
- Потребность в чипах будет только расти
- Эффективность не снижает общие затраты
2. Для индустрии:
- Мы в точке перехода, где несколько компаний могут показывать хорошие результаты
- Это временное явление
- Скоро начнется новая фаза масштабирования
3. Для будущего ИИ:
- Повышение эффективности ведет к большим, а не меньшим затратам
- Компании инвестируют любую экономию в более мощные модели
- Конечная цель: ИИ умнее большинства людей почти во всем
DeepSeek демонстрирует не революционный прорыв, а ожидаемую точку на кривой прогресса. Настоящая гонка за создание сверхчеловеческого ИИ только начинается, и она потребует беспрецедентных ресурсов.
Йошуа Бенжио представил 1-й в истории глобальный отчет о безопасности ИИ, поддержанный 30 странами, а также ОЭСР, ООН и ЕС.
Из всего отчета можно выделить 5 важных пунктов:
1. Будущее ИИ полностью зависит от решений, принимаемых сейчас. При правильном подходе ИИ может значительно улучшить жизнь людей, при неправильном - создать серьезные риски.
2. Главные риски:
- Потеря контроля человечества над системами ИИ
- ИИ-терроризм
- Массовая безработица из-за автоматизации
- Утечки конфиденциальных данных
- Использование ИИ для массовой слежки
3. Приоритетные меры защиты:
- Обязательное внедрение локальных моделей обработки данных
- Строгие криптографические протоколы
- Удаление персональных данных из тренировочных наборов
- Постоянный мониторинг безопасности
4. Критические направления исследований:
- Изучение методов утечки конфиденциальной информации
- Разработка масштабируемых систем защиты
- Создание надежных механизмов контроля ИИ
5. Необходимые действия на глобальном уровне:
- Срочная разработка общих стандартов безопасности
- Создание системы международного контроля
- Обеспечение прозрачности разработок
- Формирование глобальной системы реагирования на инциденты.
Глава ЦБ Чехии предлагает инвестировать до 5% резервов банка в биткоин.
Это происходит после того, как США заявили, что планируют создать гос резерв из биткоина.
Основные причины инвестиций до 5% резервов банка, что составляет часть из 140 миллиардов евро в биткоин:
1. Диверсификация активов банка
2. Потенциальная возможность увеличения доходности, несмотря на признанные риски волатильности криптовалюты.
Если это предложение будет одобрено, Чешский Национальный Банк станет первым центральным банком в мире, который будет держать биткоин в своих резервах.
Это решение соответствует общей крипто-дружественной политике Чехии, которая недавно приняла закон об освобождении долгосрочных вложений в биткоин от налога на прирост капитала.
Это бомба - полностью открытый датасет для обучения небольших моделей рассуждений, которые смогут превзойти #DeepSeek-R1-Distill-32B и DeepSeek-R1-Distill-7B в задачах математического и программного мышления.
Open Thoughts initiative - 1-й такой проект, где открыто всё: от данных для обучения до конечных моделей.
Новый флагман от Alibaba - Qwen2.5-Max, которая превосходит #Deepseek-V3 в нескольких ключевых бенчмарках
В день китайского Нового года команда Alibaba представила свою новую языковую модель Qwen2.5-Max, которая не просто конкурирует с последними достижениями в области AI, но и превосходит их по ряду показателей.
Qwen2.5-Max — это масштабная MoE (Mixture-of-Experts) ИИ-модель, обученная на более 20 триллионов токенов.
В сравнительных тестах Qwen2.5-Max показывает выдающиеся результаты, превосходя DeepSeek V3 в ключевых бенчмарках:
- Arena-Hard (тест на соответствие человеческим предпочтениям)
- LiveBench (оценка общих возможностей)
- LiveCodeBench (тестирование навыков программирования)
- GPQA-Diamond
Qwen2.5-Max доступна через несколько каналов:
1. Qwen Chat — для прямого взаимодействия с моделью
2. API Alibaba Cloud — для интеграции в собственные проекты
3. Демо-версия на платформе Hugging Face
Paper здесь.
API Qwen полностью совместим с OpenAI API.
О том, что #DeepSeek дизраптит развитие ИИ мы писали ещё в ноябре 2024 /channel/blockchainRF/10885
Все то, что вы видите сейчас, наш канал @blockchainrf написал прогноз 2 месяца назад.
Все посты с #DeepSeek теперь с хэштегами, так вам будет удобнее ориентироваться в релизах и их таймлайне.
Сэм Альтман обещает скорый релиз следующего поколения ИИ-моделей - это реакция на успех #DeepSeek
СЕО OpenAI признал впечатляющие результаты DeepSeek R1, особенно отмечая соотношение цена/качество.
Одновременно с этим он обещает представить лучшие модели от OpenAI в скором времени, ускоряет релизы.
Также Сэм заявил, что OpenAI делает ставку на масштаб вычислений. Они видят преимущество в количестве ресурсов и в их исследовательской работе. Это их ответ на эффективность #DeepSeek.
Он намекнул на появление следующего поколения моделей.
Мир будет поражен следующим поколением моделей
«Мы принесем вам AGI и даже больше», - написал Сэм Альтман.
#DeepSeek только что выпустили еще одну ИИ-модель, которая не хуже DaLLE-3 от OpenAI, бесплатна и с открытым исходным кодом для генерации изображений
И это все происходит на фоне того, что они сегодня ограничили регистрацию новых пользователей и на фоне хакерской атаки.
Российские ученые в составе международной группы сделали открытие для создания нейроморфных процессоров
Драконовская перемежаемость: новое открытие в нейродинамике /channel/alwebbci/2941
На что реально может повлиять это открытие?
1. Нейроморфные вычисления:
- Лучшее понимание принципов синхронизации в биологическиподобных системах
- Потенциальная оптимизация энергопотребления нейроморфных процессоров
- Новые подходы к организации взаимодействия искусственных нейронов
2. Нейроинтерфейсы:
- Улучшенное понимание механизмов синхронизации нейронов может помочь в разработке более точных BCI
- Потенциальное применение в системах декодирования нейронных сигналов
Авторы этого значимого труда
1. Писарчик Александр Николаевич(Центр биомедицинских технологий, Мадридский политехнический университет)
2. Башкирцева Ирина Адольфовна (Институт математики и компьютерных наук, Уральский федеральный университет)
3. Ряшко Лев Борисович (Институт математики и компьютерных наук, Уральский федеральный университет).
Китайское ИИ-приложение DeepSeek обогнало ChatGPT и стало приложением №1 в App Store в США.
Open source догоняет закрытые модели.
В российском App Store приложение на 13-месте, так как на первом месте у россиян VPN.
Кстати, кто не в курсе DeepSeek работает бесплатно и без VPN.
Маск внедряет блокчейн в правительстве США для повышения эффективности работы
Департамент правительственной эффективности (DOGE) Илона Маска уже провел встречи с различными поставщиками блокчейн-решений, хотя конкретные сети пока не разглашаются, и обсуждения находятся на ранних стадиях.
Сейчас изучаются возможности использования блокчейна для отслеживания расходов и управления активами в государственном секторе.
DOGE работает в основном секретно, используя зашифрованные приложения для обмена сообщениями. Недавно произошли изменения в руководстве после ухода со-лидера Вивека Рамасвами.
❗️Смена экономики:не ИТ-железо и не базовые ИИ-модели будут иметь долгосрочную ценность
Почему гонка за строительством ЦОДов может оказаться ошибкой, и как ИИ- агенты изменят расстановку сил в технологическом секторе?
В то время как участники WEF в Давосе обсуждают масштабное строительство ЦОДов, мы видим фундаментальные изменения, которые могут обесценить эти инвестиции. Главный вопрос: куда будет течь экономическая ценность в мире, где ИИ-агенты радикально снизят стоимость интеграции между системами?
OpenAI выпустила ИИ-агента Operator — 1-й шаг к новой эре автоматизации. Также своих агентов выпустили и другие ИТ-гиганты, смотрите здесь.
По мнению Андрея Карпаты, одного из основателей OpenAI, период 2025-2035 годов станет "десятилетием агентов".
"Сегодня Operator может найти вам ланч в DoorDash или забронировать отель. Завтра вы сможете запустить группу из таких агентов для долгосрочных задач по вашему выбору, например, для управления целой компанией", — прогнозирует Карпаты.
Риск обесценивания
«Если стоимость интеграции станет нулевой, стоимость переключения между системами тоже будет нулевой, и исчезнет борьба за то, чтобы стать центральным 'хабом' данных... весь этот SaaS и платформенный джаз не будет стоить и копейки», — говорит Сэм Лессин, венчурный инвестор.
Стив Су, технологический инвестор: «Через 5-10 лет фундаментальные возможности ИИ могут полностью обесценить текущие прогнозы по капитальным затратам. Сейчас идут огромные инвестиции в строительство дата-центров, исходя из текущих представлений о необходимых вычислительных мощностях для ИИ.Но эти инвестиции могут оказаться сильно завышенными, потому что:
1. Алгоритмы становятся эффективнее (уже есть примеры 30-кратного улучшения)
2. Маленькие дистиллированные модели показывают хорошие результаты
3. Человеческая изобретательность может привести к еще большей оптимизации.
Что станет товаром (то есть станет широкодоступным и дешевым)?
- Базовые модели (foundation models) - они будут как операционные системы
- Вычислительные мощности - из-за возможного перестроя дата-центров
А где будет реальная ценность:
1. В практическом применении AI для конкретных случаев использования
2. В адаптации моделей под специфические потребности клиентов
3. В создании реальных решений на основе ИИ.
Новая архитектура бизнеса
ИИ-агенты предлагают новую эру в веб-интероперабельности для координации недетерминированной работы. Больше не будет одна система делать точные вызовы к другой системе. Вместо этого у нас будут ИИ-агенты, которые обрабатывают запросы и распределяют их между другими агентами.
Несмотря на оптимистичные прогнозы, существуют серьезные препятствия:
1. Мультимодальность только начинает интегрироваться с языковыми моделями.
2. Проблема обработки длительных последовательностей данных не решена.
3. Безопасность агентных систем сложнее безопасности чат-ботов.
4. Риски реальных финансовых последствий от ошибок агентов.
Новая роль человека
"Вы сможете быть своего рода CEO, контролирующим 10 агентов одновременно, иногда спускаясь в траншеи, чтобы разблокировать что-то", — описывает будущее Карпаты. Человеческая роль эволюционирует от исполнителя к супервайзеру систем автоматизации.
В новой реальности успех будет определяться не масштабом инфраструктуры или размером существующей клиентской базы. Главным станет способность создавать эффективные системы взаимодействия между ИИ-агентами и людьми для решения конкретных бизнес-задач. Это ставит под вопрос долгосрочную ценность традиционных технологических платформ и может привести к полному переосмыслению архитектуры корпоративного программного обеспечения.
8 стран владеют биткоином на уровне государства
Лидируют США и Китай — более 190 000 BTC каждая.
В этой схеме нет России, но надо отметить, что страна владеет биткоинами, когда конфискует их у кого-то.
Нет данных по общему количеству монет, которые изъяты в доход государства за последние 10 лет, но последний громкий случай - 1032,1 биткоин изъято у осужденного экс-следователя СКР Тамбиева.
Капитализация биткоина сегодня ~$2 трлн составляет около 11% от капитализации золота (~$18 трлн)
Биткоин считается лучшей формой денег, так как:
- Децентрализован и ограничен в количестве как золото
- Лучше делится на части
- Более портативен
- Возможно, более взаимозаменяем (сложнее подделать чем золото).
Все страны с золотым запасом должны держать минимум 11% резервов в биткоине.
В ближайшие 5-10 лет капитализация биткоина может превысить золото.
После того как США создадут стратегический резерв биткоина, за ними последуют страны G20.
Откуда появился самый влиятельный китайский стартап DeepSeek? И как он связан одним из крупнейших квантовых хедж-фондов Китая? История и развитие компании.
В конце 2024 малоизвестная китайская компания DeepSeek внезапно оказалась в центре внимания мирового ИИ-сообщества, выпустив модель, сравнимую по возможностям с продуктами OpenAI и Anthropic, но при этом значительно более эффективную по стоимости.
Телеграм-канал @blockchainrf разбирается, как небольшой стартап из 100 человек достиг таких результатов и почему его подход к развитию ИИ может поменять правила игры.
Происхождение капитала
История DeepSeek неразрывно связана с High-Flyer - одним из крупнейших квантовых хедж-фондов Китая. В 2015 три инженера - Сюй Цзинь, Чжэн Давэй и Лян Вэньфэн (CEO) - основали High-Flyer после 8 лет разработки алгоритмических торговых систем. К 2021 фонд управлял активами в $15 млрд и владел внушительной инфраструктурой, включающей 10,000 GPU NVIDIA A100.
Однако в 2022 ситуация резко изменилась. На фоне экономического спада китайское правительство начало ужесточать регулирование высокочастотной торговли. Фонды High-Flyer показали значительные убытки. Правительство ввело ряд ограничений, включая запреты на торговлю и требования раскрытия стратегий.
Трансформация в ИИ-компанию
Вместо сворачивания бизнеса руководство приняло неожиданное решение - в 2023 была создана DeepSeek. Компания унаследовала от материнской структуры не только технологическую инфраструктуру, но и уникальный подход к управлению и найму персонала.
Кадровая политика - ставка на молодых пока неизвестных инженеров
Команда DeepSeek состоит преимущественно из недавних выпускников ведущих китайских университетов, аспирантов и молодых специалистов с небольшим опытом работы. Компания намеренно избегает найма признанных экспертов, делая ставку на энтузиазм и свежий взгляд.
Организационная структура построена на принципах максимальной свободы: отсутствуют формальные иерархии, сотрудники самостоятельно формируют команды под проекты, а доступ к вычислительным ресурсам предоставляется без бюрократических согласований.
Особый интерес представляет фигура CEO компании - Лян Вэньфэна. В отличие от многих руководителей китайских фондов, он не имеет опыта работы в западных компаниях. Выпускник факультета электронной инженерии Чжэцзянского университета, он с самого начала фокусировался на ИИ. Коллеги отмечают его уникальное сочетание технических компетенций с организационными способностями.
Бизнес-модель будущего
DeepSeek отличается от других ИИ-стартапов принципиальным отказом от венчурного финансирования и фокусом на открытом исходном коде. Компания видит свою роль в создании базовой технологической инфраструктуры для экосистемы ИИ-приложений, а не в прямой конкуренции на рынке конечных продуктов.
Видение будущего ИИ
Лян Вэньфэн обозначает 3 ключевых направления развития ИИ:
- Математика и программирование как "полигон" для тестирования AI
- Мультимодальные модели
- Углубленное развитие обработки естественного языка
Он ожидает достижения AGI в горизонте 2-10 лет, хотя признает, что даже внутри компании нет единого мнения о точном пути к этой цели.
Хотя компания возникла как побочный эффект государственного регулирования финансового сектора, прямых свидетельств государственного участия в DeepSeek нет. Компания подчеркивает свою независимость и открытость, что нетипично для китайского технологического сектора.
1-й в мире кейс, когда квантовые вычисления, машинное обучение создают лекарства
Компания Insilico совместно с учеными из разных университетов использовали квантовый компьютер IBM и машинное обучение для разработки реальных кандидатов в лекарства, подтвержденных экспериментально.
/channel/alwebbci/2932