blognot | Unsorted

Telegram-канал blognot - БлоGнот

11522

Заметки о технологиях, новостях и гаджетах. И всём остальном. По всем вопросам лучше писать в почту — sergiy.petrenko@pm.me YouTube http://www.youtube.com/@blognot Мой блог https://blognot.co/ Группа для обсуждения новостей — https://t.me/blognot_chat

Subscribe to a channel

БлоGнот

На прошлой неделе ребята из Anthropic делали стрим с разработчиком из Uber (Adam Huda, руководитель AI Foundations & DevEx) на тему использования скиллов в Uber. Адам много рассказывал про золотой набор из 200 скиллов, который регулярно пересматривается, но один момент меня зацепил — он упомянул, что у них есть Skill Workshop, мета-скилл, который анализирует действия агента и предлагает сделать другие скиллы.

Мне показалось это очень хорошей идеей, поскольку именно так автоматизация и идет — вы понимаете, что что-то повторяете уже не первый раз и задумываетесь о механизме выполнения задачи без вашего участия в каждой операции. Я свои скиллы так и делал, но зачем ждать, пока я сам устану повторять и пойму, что скилл созрел?

Короче, я сделал скилл под названием skill-workshop. Он достаточно простой, правда, двухфазный. Вы ставите его в Claude Code, добавляете также прилагающегося агента, и в сессии в каком-то проекте вызываете скилл командой /skill-workshop. Основной процесс воспринимает задачу, запускает быстрого и дешевого субагента (я указал haiku, её вполне достаточно), который читает историю всех сессий этого проекта, выявляет паттерны или последовательности действий или повторяющиеся ошибки (по умолчанию нужно повторение 3 и более раз) и передает отчет в основной проект, который ранжирует выявленных кандидатов по актуальности, определяет, нет ли существующих скиллов, и предлагает вам с вопросом — какие скиллы делаем?

Штука простая, безвредная и даже очень полезная, как мне кажется. Если кому пригодится, буду рад.

https://github.com/grayodesa/skill-workshop

Читать полностью…

БлоGнот

TheInformation собрали впечатления первых рекламодателей в OpenAI. OpenAI начала показывать рекламу в ChatGPT американским пользователям бесплатной версии в феврале, установив цену в 60 долларов за тысячу показов и минимальный порог входа в 200 тысяч долларов. Как признаются первые рекламодатели, они не смогли доказать, что эти кампании привели к каким-либо измеримым бизнес-результатам. Процесс закупки рекламы до сих пор строился на телефонных звонках и таблицах в электронной почте, а данные об аудитории ограничивались базовыми метриками — просмотрами и кликами. При этом за полпилота рекламодатели потратили лишь 15–20% выделенных бюджетов, что говорит о проблеме с инвентарем. Партнёрство с Criteo, которое подаётся как шаг к зрелой рекламной инфраструктуре, на деле пока сводится к интерфейсу для закупки рекламы. OpenAI делится с внешними партнёрами лишь минимальными данными и не планирует запускать программатик-аукционы.

CPM в 60 долларов — это прямо много, даже больше прекрасно измеряемой поисковой рекламы. Еще ручное размещение такой рекламы можно потерпеть, но отсутствие измеряемых результатов — увы, нет. Такая своеобразная ловушка — продать рекламу не очень сложно, а вот открутить её и продать ещё раз — вот это реальное доказательство хорошего рекламного продукта.

https://www.theinformation.com/articles/openais-first-advertisers-prove-chatgpt-ads-work?rc=ukjmk2

Читать полностью…

БлоGнот

Я уже дописал статью и отправил ее публиковаться и тут же прочитал пост в канале одного разработчика LLM, которому Claude Code сообщил, что нужного ему параметра в библиотеке не существует (на самом деле он давно есть). В общем, если вам приходилось убеждать LLM, что президент США опять Дональд Трамп, а она сама существует, хотя и уверена, что самая свежая ее версия вышла в 2024 году, то вот вам текст, как я это почти победил. Или, по крайней мере, сильно снизил число собственных усилий.

https://blognot.co/kak-zastavit-llm-ne-vrat-pro-versii/

Читать полностью…

БлоGнот

Конфликт вокруг Ирана позволяет протестировать уязвимость высоких технологий в неожиданном аспекте. Гелий — побочный продукт добычи сжиженного природного газа — оказался критическим звеном в цепочке производства полупроводников. Остановка катарского энергетического хаба из-за ударов дронами вывела из строя примерно треть мирового предложения гелия, без которого невозможно охлаждение чипов в процессе их изготовления. TSMC и Hynix, по оценкам Steno Research, зависят от катарских поставок на 40-50%.

Пока все не так страшно — у поставок длинное логистическое плечо и контракты долгосрочные, так что эффект скажется при длительном прекращении производства и перевозок. Но акции американских производителей гелия уже подросли.

А теперь представьте, что следующая попытка Трампа отвлечь мир от файлов Эпштейна приведет к тому, что гелий уже и не понадобится за отсутствием производства чипов на Тайване из-за отсутствия самого Тайваня.

https://finance.yahoo.com/news/iran-war-could-wreak-havoc-on-farmers-create-a-potential-bottleneck-for-the-entire-ai-story-171240723.html

Читать полностью…

БлоGнот

Meta откладывает выпуск новой базовой AI-модели под кодовым названием Avocado как минимум до мая. По данным The New York Times, модель уступает Gemini 3.0 от Google и разработкам OpenAI и Anthropic в тестах на рассуждение, кодинг и генерацию текста. Руководство AI-подразделения Meta обсуждало даже временное лицензирование Gemini для своих продуктов, хотя решение пока не принято.

Мы, конечно, подождем с ехидством, но пока непохоже, чтобы поливание проблемы деньгами способствовало её решению.

Отдельно стоит отметить, что Meta до сих пор не решила, будет ли новая модель открытой. Закерберг и Ванг летом прошлого года склонялись к закрытой модели. Открытая Llama была главным козырем компании в конкуренции с OpenAI и Google — аргументом, почему разработчикам стоит строить на платформе Meta. Отказ от этого подхода лишит компанию единственного заметного преимущества на рынке, можно даже сказать — единственного шанса присутствовать на рынке сколько-нибудь массово.

https://www.nytimes.com/2026/03/12/technology/meta-avocado-ai-model-delayed.html?unlocked_article_code=1.SlA.kmjr.rmjF1-q1t1cG&smid=url-share

Читать полностью…

БлоGнот

Завершение моих путешествий между менеджерами паролей — пришлось вернуться на 1Password.

https://blognot.co/eshhe-odno-razocharovanie-i-vozvrat-k-1password/

Читать полностью…

БлоGнот

Вдруг вы искали, так Google выпустил CLI для Workspace. Вам, конечно, понадобится Google Cloud и соответствующие реквизиты, но либо они есть, либо завести их — пара минут.

https://github.com/googleworkspace/cli

Читать полностью…

БлоGнот

Дарио Амодеи в письме сотрудникам Anthropic назвал сделку OpenAI с Пентагоном «театром безопасности» и заявил, что администрация Трампа не любит его компанию, потому что та не «восхваляла Трампа в стиле диктатора». Письмо было отправлено в тот же день, когда Пентагон объявил о намерении присвоить Anthropic статус «риска для цепочки поставок», то есть в прошлую пятницу.

Отдельного внимания заслуживает оценка Амодеи предложений Palantir по «классификатору», который якобы должен отслеживать нарушение красных линий. По его словам, такие подходы «на 20% реальны и на 80% представляют собой театр безопасности», а Palantir исходила из того, что проблема Anthropic — недовольные сотрудники, которых нужно успокоить.

В общем, приятно совпадать мнением с умным человеком.

https://www.theinformation.com/articles/anthropic-ceo-told-employees-openai-pentagon-deal-safety-theater?rc=ukjmk2

Читать полностью…

БлоGнот

Продовжую потрохи допилювати проект з розвитку власних правил для LanguageTool для української мови та виклав v2.0.

Для цієї версії, окрім додавання русизмів з корпуса UA-GEC, довелося розібратися з омонімією та зробити перевірку правил по наявних корпусах (до речі, мова змінюється швидко, багато текстів навіть з 90-х вже трохи застарілі). У підсумку — додано понад 300 правил із розпізнавання русизмів, коригування пунктуації, узгодження та керування.

Окремо я зробив ще невеличкий пайплайн з дистиляції LLM — щоразу, коли я пишу текст українською та моя версія LanguageTool вже не бачить помилок, він перевіряється LLM, та результати зберігаються в датасет "Оригінал — скоригований текст — аналіз помилок". Як назбирається кілька десятків прикладів — розбираємо та пробуємо сформулювати правила. Я приблизно так само робив у школі, коли вчителька питала про правила — швидко згадував, що і як пишеться, та виводив правило. Якби я знав тоді, що я LLM…

Отже, все це викладено на Github, охочі можуть запустити власний сервер LanguageTool та перемкнутися на нього. Тим більше, що сам LanguageTool скасував безплатний доступ (окрім двотижневого тріалу).

https://github.com/grayodesa/LT-Ukranian-calques

Читать полностью…

БлоGнот

Почувствовав, что заявление о заключении контракта с министерством обороны США сразу после наезда этого министерства на Anthropic выглядит как сообщение "А мы на всё согласные, не то что они", OpenAI выложили подробное заявление, где расписали свои красные линии, заложенные в соглашение — они оказываются совершенно идентичными требованиям Anthropic:

— запрет на использование технологий OpenAI для массовой слежки в США,
— запрет на использование технологий в полностью автономных системах вооружения,
— запрет на использование технологий OpenAI в системах высокоуровневого принятия решений, таких как системы социального рейтинга (по аналогии с Китаем).

Одновременно компания настаивает, что объявлять Anthropic риском для национальной безопасности не надо, и утверждает, что сообщила о такой позиции правительству.

Почему OpenAI можно, а Anhtropic нельзя — невозможно объяснить без учета того факта, что Дарио Амодеи ни разу не был замечен на брифингах рядом с Трампом, а Альтман — как раз наоборот. Те, кто старше 45, могут вспоминать слово "равноудалённые".

https://openai.com/index/our-agreement-with-the-department-of-war/

Читать полностью…

БлоGнот

Netflix не будет покупать Warner Bros. Discovery. Paramount Skydance подняла свое предложение до $31 за акцию — против $27,75 у Netflix, — и Netflix решил отказаться.

Формулировка Теда Сарандоса и Грега Питерса: сделка была «nice to have по правильной цене, а не must have по любой цене». Акции Netflix выросли на 10% на постмаркете — инвесторы, похоже, согласны, что переплачивать за традиционные медиаактивы не стоит. У Netflix и без того всё хорошо, а покупка WBD за завышенную цену создала бы головную боль с интеграцией и регуляторным одобрением.

Paramount Skydance, в отличие от Netflix, покупает WBD целиком, включая кабельные сети — CNN, TBS, TNT. Paramount при этом берет на себя $7 млрд штрафа в случае провала регуляторного одобрения и ещё $2,8 млрд неустойки, которую WBD должна была бы выплатить Netflix за разрыв их соглашения.

Как-то быстро страна первого мира с "мощной системой сдержек" и чего-то еще дошла до стадии "спора хозяйствующих субъектов".

https://www.cnbc.com/2026/02/26/warner-bros-discovery-paramount-skydance-deal-superior-netflix.html

Читать полностью…

БлоGнот

О, а вот это прекрасная история. Команда, создавшая Dark Sky — один из самых известных погодных сервисов в истории мобильных приложений — ушла из Apple и запустила новый проект. Acme Weather строится на пятнадцатилетнем опыте разработки, включая годы внутри Apple, где технологии Dark Sky легли в основу Apple Weather.

Главная идея приложения — честное отношение к неопределённости прогноза. Вместо одной линии «лучшего предположения» Acme показывает веер альтернативных сценариев. Узкий разброс линий означает надёжный прогноз, широкий — сигнал, что погода может пойти по-разному. Подход не новый в метеорологии, но для массового потребительского приложения это редкость.

Приложение платное, подписка стоит $25 в год, без рекламы, без продажи данных, без сторонних трекеров. Для погодного приложения это заметная сумма, но у ребят уже есть опыт.

Пока приложение доступно только на iOS. Android обещают позже, если найдут разработчика. Или пока их опять кто-нибудь не купит.

https://acmeweather.com/blog/introducing-acme-weather

Читать полностью…

БлоGнот

Anthropic опубликовала подробный отчёт о том, как три китайские лаборатории — DeepSeek, Moonshot и MiniMax — систематически извлекали возможности Claude через поддельные аккаунты. Масштаб впечатляет: более 16 миллионов обменов через примерно 24 тысячи фиктивных учётных записей. MiniMax одна сгенерировала 13 миллионов запросов. Когда Anthropic выпустила новую модель, MiniMax за сутки перенаправила половину трафика на неё.

Еще в прошлом году OpenAI обвиняла DeepSeek в использовании рассуждений o1 для обучения своей R1.

Но, если честно, у меня смешанное отношение к этим заявлениям. Даже не потому, что сейчас в твиттере несется злорадство, вот, мол, как модель на пиратских книгах обучать, так fair use, а как на модели обучать другую модель, так нечестно становится.

Но я прямо сейчас тоже занимаюсь дистилляцией — скармливаю в тот же Claude блоки текста, чтобы тот исправил все ошибки, а потом таким же Claude конвертирую часть этих исправлений в правила для LanguageTool. Я ничего случайно не нарушаю?

https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks

Читать полностью…

БлоGнот

Небольшая статистика для масштаба проблемы спама в Telegram — за сутки на канал подписалось 97 ботов с эротическими описаниями и аватарами. 20 из них за сутки получили статус Deleted — то есть их отстрелил системный антиспам, но логика лучших в мире разработчиков заключается в том, что их надо оставлять в статистике каналов и чатов.

76 ботов выявлены и удалены скриптом, который на очень простой нейромодели (работающей на CPU), проверяет фото отдельно проверяет наличие в био ссылки со специфическим описанием. 1 бот остался и был удален вручную.

Я в канале их чищу по двум причинам — прежде всего, я хочу иметь представление о реальной аудитории канала, а не удивляться, почему несколько тысяч добавившихся подписчиков никак не отражаются в просмотрах постов. А кроме того, боты таким образом обходят часть модерации в чате, комментируя не чат, а канал.

В комментариях/чате защита построена немного иначе — там стоит антиспам Умпутуна и бот, о котором я уже писал раньше. Мой бот действует примерно также, как и скрипт — проверяет аватар и био, только аватар проверяется на более серьезной штуке под названием SightEngine, а общее содержание профиля перепроверяется в LLM.

Но на уровне мессенджера с сотнями миллионов подписчиков это неподъемная задача, конечно, там же серьезные победители олимпиад сидят, а не вайбкодеры.

Читать полностью…

БлоGнот

Apple приглашает журналистов и блогеров на «special Apple Experience» 4 марта сразу в трёх городах — Нью-Йорке, Лондоне и Шанхае. Компания намеренно использует слово «experience», а не «event» — привычной большой презентации из Apple Park не будет.

Список ожидаемых продуктов длинный, но не особенно амбициозный: iPhone 17e, MacBook Pro на чипах M5 Pro и M5 Max, обновлённые iPad Air и базовый iPad, возможно — новый Studio Display, бюджетный MacBook на чипе A18, Apple TV и HomePod mini. Почему именно сейчас Apple решила дать всё пощупать — непонятно.

https://www.macrumors.com/2026/02/16/apple-announces-special-event-in-new-york/

Читать полностью…

БлоGнот

А у нас очередной скандал с фаундерами.

Летом 2024 года Apple вела переговоры о покупке Lux Optics — небольшой студии, разработавшей Halide, хорошее альтернативное приложение для камеры на iPhone. Сделка не состоялась, но спустя пару месяцев Apple начала переманивать сооснователя и дизайнера компании Себастиана де Вита. Второй сооснователь и CEO Бен Сандофски обнаружил это, как пишут, разбираясь с деятельностью Себастиана по другим вопросам, и уволил де Вита в декабре, а в январе тот объявил о переходе в команду дизайна Apple. Теперь Сандофски подал иск, обвиняя бывшего партнёра в нецелевом использовании более 150 тысяч долларов корпоративных средств и в том, что тот унёс с собой исходный код и конфиденциальные материалы компании. Адвокат де Вита называет иск местью за попытки добиться финансовой прозрачности в Lux.

В общем, в то, что Apple таким простым образом решила добыть себе исходники Halide, я сильно не верю. Если с финансами Lux действительно что-то непрозрачно, то вполне возможен вариант, что из-за этих проблем сделка и расстроилась и Apple решили, что связываться со странным основателем не стоит. И связались с другим основателем. В любом случае, просто так вляпываться в проблемы копирайта большой крутой компании не свойственно.

https://www.theinformation.com/articles/apple-acquisition-talks-fraud-accusations-behind-one-app-startups-nasty-split?rc=ukjmk2

Читать полностью…

БлоGнот

Apple заблокировала обновления для нескольких приложений, связанных с вайб-кодингом, — Replit и Vibecode не могут выпустить апдейты в App Store без внесения изменений. Формальное основание — нарушение правила 2.5.2, которое запрещает приложениям загружать и исполнять код, меняющий их функциональность. По данным The Information, после переговоров обе компании близки к получению одобрения, но на определённых условиях: Replit должен открывать сгенерированные приложения во внешнем браузере, а не внутри своего приложения, а Vibecode — убрать возможность создавать приложения именно для устройств Apple.

Честно говоря, не думаю, что таким образом Apple хочет всех загнать в XCode, но определенная избирательность применения правил заметна. Vercel v0 с аналогичным функционалом продолжает обновляться без проблем. Snap и Canva включают в себя вайб-кодинг для создания фильтров и мини-игр и тоже проходят ревью. Возможно, проблема в том, что реализация у обоих компаний в итоге выливается в собственный store, а это определенно красная линия для Apple.

https://www.theinformation.com/articles/apple-cracks-vibe-coding-apps?rc=ukjmk2

Читать полностью…

БлоGнот

OpenAI добавила в Codex поддержку субагентов. Каждый субагент может использовать собственную модель, уровень reasoning и набор инструментов. Функция доступна в приложении и CLI, поддержка в IDE-расширении ожидается позднее.

OpenAI идет по стопам Anthropic, где такие субагенты уже давно прижились.

Но вот что удивительно — страница документации в вебархиве явно пишет пишет про фичу под названием multi-agents. Вероятно, решили переименовать, увидев отзывы типа "OpenAI теперь запускает swarm of agents", хотя по описанию ничего такого не происходит — пока ничего похожего на Agent Teams в Claude Code не описано.

https://developers.openai.com/codex/subagents

Читать полностью…

БлоGнот

Вы же в курсе про acquihiring — когда большая компания покупает небольшую, обычно даже без бизнес-перспектив, потому что на самом деле так решается вопрос найма её сотрудников? В подавляющем большинстве случаев сам проект покупаемой компании никакого будущего иметь не будет — он нишевый, он не имеет смысла на аудитории сервисов большой компании, у него нет интересной аудитории, в общем, смысл сделки один — нанять конкретных людей, а оформление таким образом просто позволяет им избавиться от обязательств в проекте.

Так вот, счастье таким образом случается нечасто. Как видно из статистики, в среднем 77% нанятых таким образом основателей проектов покидают компанию в течение трех лет. Среднее время удержания основателей в компании — 3,7 года. Основатели, у которых за плечами уже несколько проектов, уходят в три с лишним раза чаще новичков. Если нанимается таким образом автор сольного проекта, вероятность ухода выше — команда держится дольше. Правда, она тоже может разрушиться — уход одного повышает вероятность ухода всей команды, и даже повышение одного из команды увеличивает вероятность ухода остальных.

Вероятность сохранения нанятых людей в команде увеличивается, если им предоставляются высокие позиции и/или технологии покупаемой компании находят применение в новой. Впрочем, за пределами окна в 3 года эти факторы влияют меньше.

Если что, авторы исследования изучили 241 сделку по покупкам компаний Google и Facebook, в результате которых было нанято 454 основателя, с момента первых сделок до 2019 года. Так что в этой статистике должен быть, например, Деннис Кроули, которого купили с сервисом DodgeBall (сервис позволял отмечать посещение заведений), а потом он ушел и сделал ровно то же самое под названием Foursquare. Равно как и Ян Кум, купленный с Whatsapp, и Кевин Систром с Instagram.

https://link.springer.com/article/10.1007/s11187-025-01107-1

Читать полностью…

БлоGнот

Вопрос влияния войны США-Израиль-Иран на развитие AI в регионе уже начал привлекать внимание аналитиков. Удары дронов по трём датацентрам Amazon в Персидском заливе — это первый случай, когда AI-инфраструктура оказалась под прямым военным воздействием.

Но влияние не только такое прямое. OpenAI и xAI масштабно привлекали деньги из Залива — они строят там датацентры. OpenAI и Oracle разворачивают мощности на 1 ГВт в ОАЭ в рамках Stargate, xAI работает с саудовской Humain над площадкой на 500 МВт.

Кроме того, инвестиционные фонды ОАЭ и Саудовской Аравии активно участвовали в инвестициях в компании, причем включая и Anthropic. И помните, звучали обязательства инвестировать кучу денег в американскую экономику? Если учесть, что большинство инвестиций имеют график финансирования, а состояние форс-мажора в регионе уже объявлено, AI-компаниям придется бороться не только с нехваткой электроэнергии. Которая, кстати, подорожает уже и потому, что дорожают нефть и газ. В общем, молодец, рыжий, made prices great again.

https://www.theinformation.com/articles/iran-war-imperils-300-billion-gulf-ai-spending?rc=ukjmk2

Читать полностью…

БлоGнот

Я сейчас сообщу два страшных факта, которые до глубины души оскорбляют любого человека, считающего себя думающим.

Группа ученых провела эксперимент — поставила 1810 пользователям из США расширение для браузера, которое скрывало почти всю рекламу (примерно 82% от общего объема) на Facebook или заменяла таргетированную рекламу нетаргетированной. Причем сначала расширение 6 недель пассивно отслеживало активность пользователей, а затем случайным образом определяло пользователя в одну из двух групп, выполняло действие и продолжило отслеживание еще 6 недель.

Результаты оскорбляют любого гика. Во-первых, скрытие почти всей рекламы практически не повлияло на продолжительность нахождения пользователя на платформе — она увеличилась всего на 6%. Перевожу — реклама не отпугивает пользователя. Вот это ваше "Там куча рекламы, я не буду пользоваться" — это понты, людям реклама не мешает, а мнение статистической погрешности пользователей неинтересно.

Во-вторых, замена рекламы на нетаргетированную (то есть нецелевую) заметно снижала взаимодействие с рекламой, а в долгосрочной перспективе — сокращала время нахождения на платформе и количество потребленного контента. Еще раз перевожу — люди взаимодействуют (смотрят и кликают) с рекламой, реклама наобум действительно может отпугивать пользователей.

Ожидаем наплыва комментаторов про то, что они лично никогда не смотрят рекламу, никуда не кликают и вообще.

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5952337

Читать полностью…

БлоGнот

В штате Нью-Йорк рассматривается законопроект, запрещающий AI-чат-ботам давать юридические и медицинские консультации. Ключевая деталь — механизм частного иска: пользователи смогут самостоятельно подавать в суд на владельцев чат-ботов и взыскивать убытки вместе с расходами на адвоката.

Законопроект прошёл комитет по интернету и технологиям единогласно, 6-0, что само по себе редкость для регуляторных инициатив в сфере AI. Он входит в пакет мер, включающий защиту несовершеннолетних и требования к маркировке синтетического контента. Автор — сенатор Кристен Гонсалес, она же председатель комитета.

Логика понятная — если оказание услуг в сфере медицины требует лицензии, то информация, сообщенная ботом — это услуга или нет? С такой конфигурацией вполне возможно появление class-action исков. Правда, как судья разберется, где тут самоуправство бота/компании, выдающей себя за специалиста, а где тупость пользователей, доверившихся "информации из интернета" — большой вопрос. Но адвокаты заработают в любом случае.

https://statescoop.com/new-york-bill-would-ban-chatbots-legal-medical-advice/

Читать полностью…

БлоGнот

Google, Microsoft, Meta, Amazon, Oracle, xAI и OpenAI подписали в Белом Доме так называемый Ratepayer Protection Pledge — обязательство самостоятельно обеспечивать свои датацентры электроэнергией, не перекладывая расходы на местных потребителей. Компании обещают строить или покупать мощности для своих нужд, оплачивать модернизацию сетей и заключать отдельные тарифные соглашения с энергокомпаниями.

Выглядит как масштабирование того, что Microsoft анонсировал несколько месяцев назад в рамках своей инициативы «community first». Тогда Брэд Смит, если помните, описывал, как в Висконсине за год разговоры сменились с рабочих мест на тарифы и воду.

Правда, как уже отмечали, подписать и даже готовность платить мало что даёт для решения проблем с энергетикой. Электростанции строятся немного медленнее датацентров. Быстро можно построить объекты возобновляемой энергетики, но вы представляете себе масштабы полыхания и разрывов у ядреного электората Трампа (включая его самого), если заметная часть новой генерации окажется солнечной или ветровой?

https://www.reuters.com/sustainability/climate-energy/trump-meet-tech-giants-energy-pledge-ahead-midterms-2026-03-04/

Читать полностью…

БлоGнот

Альтман почувствовал, что народ не очень верит заверениям про любое законное использование и продолжил объяснения — оказывается, все красные линии уже были соблюдены, но теперь они работают с правительством, чтобы еще сильнее это закрепить и прояснить.

Прояснить, судя по посту, надо даже то, что правительство должно быть демократически избранным. А то Альтман готов и в тюрьму. Как говорится, якщо куля в лоб…

Но он признает, что они сделали ошибку — не надо было все это торопиться делать в пятницу, на фоне резких высказывания министерства нападений на Anthropic.

Ну, таке…

https://x.com/sama/status/2028640354912923739

Читать полностью…

БлоGнот

Дожили — еще утром написал заметку на флеймовую тему и даже не дал сюда ссылку.

Исправляюсь — получается третья ночь подряд для зажигательного спора. Не про AI (за исключением того, что список альтернатив и конфигурацию мне подсказывали как раз они).

https://blognot.co/slozhnosti-parolnykh-menedzherov/

Читать полностью…

БлоGнот

Anthropic выпустили официальное заявление: они продолжают настаивать, что не исключат из договоров два пункта с ограничением на использование:
1) массовая слежка за американскими гражданами
2) полностью автономное оружие

«Мы твердо убеждены в необходимости продолжения сотрудничества с Министерством и нашими военнослужащими, при условии соблюдения двух запрошенных нами условий. В случае, если Министерство решит отказаться от услуг Anthropic, мы будем работать над обеспечением плавного перехода к другому поставщику, избегая любых сбоев в текущем военном планировании, операциях или других важных задачах. Наши модели будут доступны на предложенных нами условиях столько, сколько потребуется».

Скорее всего, это попытка компании придать ситуации огласки, чтобы избежать самого неблагоприятного исхода — когда их намеренно заставят предоставлять услуги по Закону о производстве продукции оборонного назначения. В таком случае они, вероятно, пойдут в суд и будут добиваться отмены или расторжения договора.

Ждём следующую серию завтра ближе к ночи.

Читать полностью…

БлоGнот

В Claude Code завезли функцию Remote Control — запускаете его с соответствующим флагом или просто во время сессии даете команду /remote-control и подхватываете сессию в приложении — хоть на телефоне, хоть в облаке. Сессия в терминале должна оставаться открытой, но это даже не неудобство.

Совершенно шикарная опция, особенно, если кто-то оставил агента работать и пошел заниматься своими делами — всё можно посмотреть, если уж не терпится.

https://x.com/claudeai/status/2026418433911603668

Читать полностью…

БлоGнот

TheInformation подробно разбирает ход развития проекта Stargate — впрочем, слово "развитие" тут звучит несколько иронично.

Первоначально три компании-участницы — OpenAI, Oracle и SoftBank — обещали оперативно вложить 100 млрд долларов и начать строительство мощностей на 10 гигаватт. Однако процесс пошел немного не так — партнёры не смогли договориться о распределении ролей и структуре сотрудничества.

Столкнувшись с острой потребностью в вычислительных мощностях, OpenAI попытались самостоятельно строить и арендовать крупные дата-центры, однако собственных ресурсов у них на это нет. В итоге OpenAI вернулась к партнёрам по Stargate, но заключала сделки отдельно — с SoftBank и с Oracle, а не в рамках трёхсторонней структуры. То есть, например, OpenAI и SoftBank договорились о строительстве кампуса мощностью 1 ГВт в округе Милам, штат Техас. OpenAI хотела контролировать объект и считать его своим первым собственным дата-центром, а SoftBank стремилась владеть проектом. В сентябре–октябре стороны пришли к компромиссу: OpenAI подписывает долгосрочную аренду и контролирует проектирование, а SoftBank Energy строит и владеет объектом. Строительство началось в октябре.

Задержки с развитием Stargate повлияли на финансовые показатели OpenAI: валовая маржа в прошлом году оказалась ниже ожиданий из-за необходимости срочно закупать дорогие вычислительные ресурсы. Прогноз расходов на вычисления до 2030 года был увеличен с 450 до 665 млрд долларов. Для покрытия потребностей и диверсификации OpenAI в прошлом году заключила контракты с Amazon Web Services, Google Cloud, AMD (кстати, где-то видел тесты, что их чип уже практически догнал образцы Nvidia) и Cerebras.

В общем, итоги развития проекта Stargate в том, что единого проекта не существует — есть зонтичный бренд для некоторого количества совместных проектов.

https://www.theinformation.com/articles/inside-openais-scramble-get-computing-power-stargate-stalled?rc=ukjmk2

Читать полностью…

БлоGнот

Вот, наконец, сбываются мечты "настоящих программистов" — AI роняет работающую систему. Помните сбои AWS в декабре?

По данным Financial Times, в декабре Kiro (собственный AI-агент AWS) предложил радикальный путь «удалить и пересоздать окружение», а программисты компании дали разрешение без обычного второго согласования.

Позиция Amazon, что это «user error, not AI error», выглядит логичной, но неполной. В действительности это скорее архитектурная проблема, если система позволяет юзеру (человеку) выдать кому-то права на такие действия в production-окружении. Но винить, разумеется, будут AI, который предлагает то, чему он научился на анализе действий людей. Как будто ни один сениор "инженер" не предлагает ровно то же при малейших проблемах…

https://www.ft.com/content/00c282de-ed14-4acd-a948-bc8d6bdb339d

Читать полностью…

БлоGнот

Примерно через час начнется традиционный субботний эфир подкаста Радио-Т. Правда, в этот раз это будет 1000-ный выпуск. Я в него впервые пришел, кажется, в 2009-м году, если верить википедии, рассказывать про поисковую оптимизацию. Много с тех пор разных тем обсудили, надо признаться.

Приходите, если интересно, сегодня — вероятно, предадимся воспоминаниям немного.

https://radio-t.com/online/

Читать полностью…
Subscribe to a channel