Заметки о технологиях, новостях и гаджетах. И всём остальном. По всем вопросам лучше писать в почту — sergiy.petrenko@pm.me YouTube http://www.youtube.com/@blognot Мой блог https://blognot.co/ Группа для обсуждения новостей — https://t.me/blognot_chat
Garmin представила новые умные часы Venu X1 за $799 с квадратным 2-дюймовым AMOLED-экраном и титановым корпусом — очевидная попытка конкурировать с Apple Watch Ultra 2. По сути, это квадратная версия Fenix 8 или Forerunner 970, но с компромиссами: автономность всего 2 дня с включенным дисплеем против 7 дней у Fenix 8, отсутствует ЭКГ и мультидиапазонный GPS.
Часы получили сапфировое стекло, встроенный фонарик, динамик и микрофон для звонков, а также голосовые команды без подключения к смартфону. Есть полноцветные карты и более 100 спортивных профилей. Запуск намечен на 18 июня в черном и темно-зеленом цветах.
Я много лет пользовался часами Garmin — и Fenix, и Forerunner, — и, конечно, испытываю теплые чувства к продуктам компании. Но перспективы этой модели непонятны практически полностью — аналог Apple Watch Ultra, но в экосистеме беднее на несколько порядков. Из общепринятых функций я могу вспомнить только наличие GarminPay, которая не очень удобно запускалась. А с точки зрения спортивных функций — аудитория тех, кому недостаточно функциональности Apple Watch, достаточно узка, при этом новые часы своими компромиссами ограничивают её с другой стороны.
https://www.theverge.com/news/686325/garmin-venu-x1-smartwatch-display-specs-pricing
TheInformation пишут, что сделка по покупке Meta 49% Scale AI за почти $15 млрд — это фактически найм 28-летнего CEO Александра Вана на позицию руководителя направления AI в компании.
Вообще, состояние дел в Meta относительно AI не блестящее. Да, у компании есть Llama, но большинство её первоначальных разработчиков покинула компанию, а Llama 4 разочаровала сообщество. Помните скандал со специальной моделью для LM Arena?
Любопытно, что внутри Meta были жалобы на качество работы Scale AI — их подрядчики часто возвращали данные низкого качества, а команда превышала бюджет на услуги Scale. Но это не помешало Закербергу заключить вторую по величине сделку в истории компании после покупки WhatsApp.
Кстати, интересно, что форма сделки, насколько я понимаю, исключает возможность вмешаться в нее со стороны регуляторов. Это не покупка, это даже не контрольный пакет, разрешений не требуется.
https://www.theinformation.com/articles/meta-betting-nearly-15-billion-alexandr-wang?rc=ukjmk2
Полиция 26 стран под руководством Интерпола провела Operation Secure, нейтрализовав инфраструктуру malware-программ для кражи данных. За период с января по апрель 2025 года были арестованы 32 подозреваемых, изъято 100 ГБ данных и отключено более 20 тысяч вредоносных IP-адресов и доменов.
Особенно активно работала полиция Вьетнама, арестовавшая 18 подозреваемых, включая лидера группы, специализировавшейся на продаже корпоративных аккаунтов. Также была выявлена крупная инфраструктура из 117 серверов в Гонконге, использовавшихся для фишинга и мошенничества в соцсетях.
Операция затронула инфраструктуру известных infostealer-программ Lumma, RisePro и META Stealer, которые крадут учетные данные, cookies браузеров и детали криптокошельков.
Для Lumma Stealer это уже второй серьезный удар после майской операции 2025 года, когда были изъяты 2,300 доменов. META Stealer также пострадал в октябре 2024 года в ходе операции Magnus.
https://www.bleepingcomputer.com/news/security/operation-secure-disrupts-global-infostealer-malware-operations/
Disney и NBCUniversal подали первый крупный иск голливудских студий против генеративного AI, обвинив Midjourney в нарушении авторских прав. Студии утверждают, что компания использовала их интеллектуальную собственность для обучения модели и создает изображения, копирующие защищенных персонажей — от Миньонов до героев "Короля Льва" и "Аладдина".
По заявлению компаний, они пытались решить вопрос мирно, но Midjourney, в отличие от других AI-платформ, отказалась внедрять меры защиты интеллектуальной собственности и продолжила выпускать новые версии с еще более качественными копиями.
https://www.axios.com/2025/06/11/disney-nbcu-midjourney-copyright
Google предлагает добровольные увольнения сотрудникам в нескольких подразделениях, включая команду знаний и информации, которая отвечает за основной поиск и значительную часть рекламного бизнеса. Это может стать прелюдией к сокращениям — в январе компания делала аналогичное предложение команде платформ и устройств, а к апрелю уволила сотни людей из этого подразделения.
В обращении к сотрудникам подчеркивается, что предложение предназначено для тех, кто не чувствует себя вместе с компанией, у кого не оправдываются ожидания и так далее. В общем, что-то типа "Если вам тяжело быть с нами, такими хорошими, валите, мы поможем".
https://www.theinformation.com/articles/google-offers-buyouts-employees-search-ads-unit?rc=ukjmk2
Ну что, встречаем o3 pro.
https://platform.openai.com/docs/models/o3-pro
Ну, напряглись…
Кстати, цена на o3 через API упала на 80%.
Если вы абитуриент в Китае, то для вас плохие новости — китайские AI-чатботы, включая Qwen от Alibaba и Yuanbao от Tencent, временно отключили функции распознавания изображений на период проведения "гаокао" — главного вступительного экзамена в университеты страны. При попытке загрузить фото с заданиями чатботы отвечают: "Для обеспечения справедливости вступительных экзаменов эта функция недоступна в период тестирования".
Гаокао — это аналог нашего НМТ (национальный мультипредметный тест), который унифицирует вступительные экзамены для большинства вузов.
https://www.bloomberg.com/news/articles/2025-06-09/alibaba-tencent-freeze-ai-tools-during-high-stakes-china-exam?sref=CrGXSfHu&ref=platformer.news
Apple на State of the Union в рамках WWDC объявила, что macOS 26 Tahoe станет последней версией операционной системы с поддержкой Intel-процессоров. Начиная с macOS 27, новые версии системы будут работать только на компьютерах Mac с собственными чипами Apple Silicon (модели с M1 и новее, выпущенные с 2020 года).
Intel-маки продолжат получать критические обновления безопасности еще несколько лет, но новых функций пользователи этих устройств уже не увидят. В Tahoe еще поддерживаются некоторые Intel-модели: 16-дюймовый MacBook Pro 2019 года, 13-дюймовый MacBook Pro 2020 года, iMac 2020 года и Mac Pro 2019 года.
Из обидного — мой MacBook Pro 15 2019 года пролетает, так что я его теперь даже как подопытную машинку использовать не смогу. Впрочем, обидно не сильно — мне уже несколько лет ноутбук нужен крайне эпизодически, буквально пару недель в году.
https://9to5mac.com/2025/06/09/apple-will-end-support-for-intel-macs/
Итак, мы дождались WWDC 2025 и посмотрели, как Apple представила новый всех операционных систем под названием "liquid glass" с повышенной прозрачностью элементов интерфейса. Компания также изменила схему нумерации — теперь все ОС получили номера 26, соответствующие году выхода (iOS 26, macOS 26 и так далее). По сути, это главный анонс.
Нововведения включают кардинальную переработку iPadOS с оконным интерфейсом в стиле macOS — это, пожалуй, самый большой прогресс среди всех операционных систем. Еще можно отметить новый Spotlight в MacOS — он, возможно, теперь будет выглядеть на уровне по сравнению с альтернативными ланчерами типа Raycast.
Apple Intelligence получила функцию "умного скриншота" — можно вызвать ИИ-помощника обычными кнопками для скриншота и задавать вопросы о содержимом экрана. Также появился встроенный живой перевод в Messages, FaceTime и Phone, а разработчикам открыли доступ к локальным языковым моделям Apple Intelligence.
Разработчикам уже доступны первые бета-версии.
Вообще, достаточно спокойная презентация, но опять приходится вспоминать, что компания 20 лет проводит подобные презентации, причем несколько раз в год, а мы каждый раз хотим, чтобы она нам показывала первый iPhone или доставала из конверта ноутбук.
https://www.theverge.com/news/682769/apple-wwdc-2025-biggest-announcements-ios-26
Перед выходными вышло интересное исследование ученых из Apple. Они провели масштабное исследование "думающих" ИИ-моделей — тех самых, которые генерируют длинные цепочки размышлений перед ответом (OpenAI o1, Claude с thinking mode, DeepSeek-R1). И результаты оказались интересными.
Главный вывод исследования — эти модели создают иллюзию мышления, а не демонстрируют настоящие способности к рассуждению. Исследователи протестировали их на классических головоломках вроде Ханойской башни и переправы через реку, где можно точно контролировать сложность и проверять каждый шаг решения.
Выяснилось три режима работы. На простых задачах обычные модели без "мышления" работают лучше и эффективнее — зачем тратить тысячи токенов на размышления там, где можно сразу дать правильный ответ? На задачах средней сложности "думающие" модели показывают преимущество. А вот на сложных — обе версии полностью проваливаются, причем с нулевой точностью.
Самое парадоксальное — когда задачи становятся очень сложными, модели начинают "думать" меньше, а не больше. Это противоречит здравому смыслу и говорит о фундаментальных ограничениях в их архитектуре. По сути, они упираются в потолок и даже не пытаются его пробить дополнительными размышлениями.
Анализ "мыслительных" трасс (traces) тоже показал проблемы. На простых задачах модели находят решение быстро, но продолжают крутиться в цикле, исследуя заведомо неверные варианты — классический overthinking. На сложных часто зацикливаются на первом же неправильном решении и не могут от него отойти.
Особенно показателен эксперимент с готовым алгоритмом. Даже когда моделям давали пошаговую инструкцию решения Ханойской башни, они все равно делали ошибки на том же уровне сложности. То есть проблема не в поиске стратегии, а в базовой способности следовать логическим шагам.
Впрочем, есть и загадки. Claude 3.7 Sonnet может сделать 100+ правильных ходов в Ханойской башне, но проваливается после 5 ходов в задаче о переправе. Это намекает, что модели опираются на паттерны из обучающих данных, а не на универсальные принципы рассуждения — видимо, примеров Ханойской башни в интернете куда больше.
Правда, мы в подкасте заспорили, что какое-то значимое число людей примерно так и размышляют. Так что это исследование, возможно, напротив подтверждает, что модели рассуждают как люди.
https://machinelearning.apple.com/research/illusion-of-thinking
Я: Never hardcode values.
Я: In this module we should use gpt-4.1-nano, not gpt-4o-mini.
Claude Code: Understood.
По данным Bloomberg, Meta ведет переговоры о многомиллиардных инвестициях в Scale AI, который специализируется на разметке данных для обучения AI-моделей. Сумма сделки может превысить $10 млрд, что сделает ее одним из крупнейших раундов финансирования частных компаний в истории.
Scale AI основана в 2016 году. В прошлом году выручка стартапа составила $870 млн, а в 2025 году ожидается рост до $2 млрд. Последняя оценка компании — около $14 млрд.
Для Meta это станет крупнейшей внешней инвестицией в сфере AI и редким шагом для компании, которая обычно полагается на собственные разработки.
Есть только вопрос, не потребует ли такая инвестиция согласований с регуляторами и как те в любом случае отнесутся — разбирательство по поводу покупок WhatsApp и Instagram еще не закончено.
https://www.bloomberg.com/news/articles/2025-06-08/meta-in-talks-for-scale-ai-investment-that-could-top-10-billion
Британский финансовый регулятор FCA снимает запрет на продажу криптовалютных биржевых нот (cETN) розничным инвесторам.
Теперь индивидуальные потребители смогут покупать cETN наравне с профессиональными инвесторами, при условии торговли на одобренных FCA биржах.
Дэвид Гил из FCA подчеркнул намерение "пересбалансировать подход к рискам" и позволить людям самим решать, подходят ли им высокорискованные инвестиции. При этом запрет на розничный доступ к криптовалютным деривативам сохраняется, а существующие правила финансового продвижения будут применяться для информирования потребителей о рисках.
https://www.coindesk.com/policy/2025/06/06/uk-regulator-fca-to-lift-ban-on-crypto-etns-for-retail-investors
X обновила свои правила для разработчиков, запретив использование контента платформы для обучения больших языковых моделей. В новой версии соглашения появился пункт, прямо запрещающий использовать X API или контент для дообучения или тренировки foundation или frontier моделей.
Интересно проследить эволюцию политики X: в 2023 году платформа изменила политику конфиденциальности, разрешив использовать публичные данные для обучения AI-моделей, а в октябре прошлого года даже позволила третьим сторонам тренировать свои модели. Собственно, ничего не изменилось — просто тогда xAI была "третьей стороной", а сейчас это одна компания.
У которой, кстати, в настройках пользователя галочка "Разрешить использовать мои публичные данные для обучения и файн-тюнинга" взведена по умолчанию.
https://techcrunch.com/2025/06/05/x-changes-its-terms-to-bar-training-of-ai-models-using-its-content/
Meta официально объявила об инвестиции $14.3 млрд в стартап Scale AI за 49% компании и привлекла CEO Scale Александра Ванга в свою команду по "сверхинтеллекту". Сделка оценивает Scale в более $29 млрд и является крупнейшей инвестицией Закерберга в стартапы.
28-летний Ванг останется членом совета директоров Scale, а временным CEO станет Джейсон Дроеге.
https://www.bloomberg.com/news/articles/2025-06-13/meta-announces-scale-ai-investment-recruits-ceo-to-ai-unit
Верховный суд Бразилии принял принципиальное решение о возложении ответственности на соцсети за контент пользователей — шесть из 11 судей проголосовали за изменение действующего законодательства, которое сейчас позволяет привлекать платформы к ответственности только при неисполнении судебного решения об удалении контента.
Судья Жилмар Мендес, выступивший от имени большинства, назвал действующий бразильский закон "покровом безответственности для цифровых платформ", отметив, что даже при уведомлении о преступлениях на их площадках компании не несут ответственности за ущерб от сохранения такого контента онлайн.
Решение может серьезно повлиять на бизнес Meta (Facebook, Instagram), TikTok, X и Google на рынке более чем в 200 миллионов человек. Meta уже выражала опасения, что такое решение может сделать платформы "ответственными практически за все типы контента даже без уведомления".
Пока суд не определил конкретные параметры решения — какие именно типы контента будут считаться незаконными. Председатель суда Луис Роберто Барросо заявил о работе по поиску консенсуса среди судей. Четыре судьи еще не проголосовали, и рассмотрение дела продолжится в четверг.
Хотя мы же понимаем, какая соцсеть влетит первой. Как тебе такое, Илон Маск?
https://www.reuters.com/world/americas/brazils-top-court-forms-majority-hold-social-media-platforms-accountable-users-2025-06-11/
Интересная сделка случилась буквально вчера — Google и OpenAI подписали договор, по которому OpenAI использует мощности Google Cloud для своих сервисов. Причем в наибольшем выигрыше от сделки оказалась CoreWeave — именно у нее Google купит специализированные мощности на основе чипов Nvidia, продавая OpenAI также и собственные услуги.
CoreWeave уже является крупным поставщиком инфраструктуры для OpenAI с контрактом на $11.9 млрд на пять лет, плюс компании месяц назад заключили дополнительное соглашение до $4 млрд до апреля 2029 года.
Для CoreWeave сделка с Google поможет диверсифицировать источники доходов — сейчас Microsoft остается крупнейшим клиентом, обеспечивая около 62% выручки компании за 2024 год. Для Google это возможность заработать на росте OpenAI, несмотря на то что она же является одним из главных конкурентов в поиске и чат-ботах.
https://www.reuters.com/business/coreweave-offer-compute-capacity-googles-new-cloud-deal-with-openai-sources-say-2025-06-11/
Вот вы всё время доказываете, что Telegram куда-то сдаёт ключи или вообще не шифрует, а как вам сервис другого странного миллиардера? Система XChat — приватные сообщения в X, — заявляет, что обеспечивает end-to-end шифрование, используя при этом протокол Juicebox.
Главная проблема при этом — отсутствие forward secrecy и хранение приватных ключей на серверах X. В отличие от Signal, который постоянно обновляет ключи, XChat просто шифрует сообщения долгосрочными публичными ключами получателей.
Система Juicebox должна была решить дилемму: как безопасно хранить ключи в облаке, чтобы пользователи могли получить к ним доступ с любого устройства, но при этом сам провайдер не мог их прочитать. Решение — разделить ключ между тремя серверами и использовать PIN пользователя для его восстановления.
Однако есть нюансы. По словам разработчика протокола Норы Трапп, все серверы Juicebox в X работают программно (не на защищенных HSM-модулях) и контролируются самой компанией. Это означает, что X теоретически может получить доступ к любым ключам пользователей.
Хотя представитель X утверждает, что они используют HSM, никаких доказательств или церемоний установки не публиковалось. Как справедливо отмечает автор текста по ссылке — в криптографии недостаточно просто заявить о безопасности, нужно это доказать.
https://blog.cryptographyengineering.com/2025/06/09/a-bit-more-on-twitter-xs-new-encrypted-messaging/
Уже есть первый обзор o3 Pro — от пользователя с ранним доступом к o3 Pro. Это, кстати, тот, кто первым исследовал o1 pro, если помните. Он делится интересными наблюдениями. Главный вывод — мы входим в эпоху специализированных моделей: есть "обычные" модели для повседневного общения вроде Claude 3.5 Sonnet, а есть медленные и дорогие "reasoning" модели для глубокого анализа сложных задач.
Ключевое открытие автора повторяет его вывод про o1 pro — с o3 Pro нельзя просто болтать, как с ChatGPT. Это скорее генератор отчетов: даешь контекст, ставишь задачу и получаешь детальный анализ. Когда они с соучредителем загрузили всю историю планерок своего стартапа и попросили составить план развития, o3 Pro выдал настолько конкретные и обоснованные рекомендации, что это изменило их видение будущего компании.
Модель заметно лучше понимает свое окружение, точнее определяет доступные инструменты и когда их использовать. Но без достаточного контекста склонна к "overthinking" — чрезмерному анализу простых задач.
По ощущениям автора, o3 Pro кардинально отличается от Claude Opus и Gemini 2.5 Pro. Если Opus "чувствуется большим", но никогда не демонстрировал явных признаков этой "большости", то o3 Pro дает качественно лучшие результаты. OpenAI явно делает ставку на вертикальное развитие reasoning capabilities — обучая модели не просто использовать инструменты, но и понимать, когда это делать.
В общем, начинаем пробовать, мне уже раскатили.
https://www.latent.space/p/o3-pro
Mistral запустили семейство reasoning-моделей Magistral — свой ответ на OpenAI o3 и Gemini 2.5 Pro. Линейка включает две модели: Magistral Small (24 млрд параметров) доступна для скачивания под открытой лицензией Apache 2.0, а более мощная Magistral Medium — в превью через чат-бот Le Chat и API компании.
Mistral позиционирует модели как решение для корпоративных задач — от структурированных вычислений до систем принятия решений. Компания подчеркивает высокую скорость работы (в 10 раз быстрее конкурентов в Le Chat) и поддержку множества языков, включая русский, арабский и китайский.
Однако по собственным бенчмаркам Mistral видно, что Magistral Medium уступает Gemini 2.5 Pro и Claude Opus 4 на тестах GPQA Diamond и AIME, оценивающих навыки в физике, математике и программировании. Это неудивительно, но возможность корпоративного использования поможет моделям найти свою аудиторию.
https://techcrunch.com/2025/06/10/mistral-releases-a-pair-of-ai-reasoning-models/
Падение участия в Community Notes на X показывает серьезные проблемы с краудсорсинговой моделью борьбы с дезинформацией. Количество пользовательских заметок упало с пика в 120 тысяч в январе до менее чем 60 тысяч в мае — снижение более чем в два раза.
Особенно показательно, что спад начался в феврале, когда Маск без доказательств заявил о том, что системой манипулируют иностранные правительства. С тех пор он практически перестал упоминать функцию, которую раньше активно продвигал как решение проблемы дезинформации.
Проблема не только в цифрах. В мае технические сбои привели к исчезновению заметок с основного сайта X. При этом представители компании объясняют снижение "естественными колебаниями" и корректировкой алгоритма, чтобы "уменьшить потребность в заметках".
Впрочем, это свидетельствует еще и о справедливости теории разбитых окон — чем больше в доме мусора, тем меньше добровольцев его разгребать, тем больше в доме мусора.
https://www.nbcnews.com/tech/social-media/x-twitter-community-notes-disappear-data-rcna210710
Российское издание "Важные истории" выкатило очередное разоблачение Telegram. На этот раз журналисты вместо Little Snitch, как это делали их предшественники, взяли Wireshark и обнаружили страшную тайну — их сообщения попали на какие-то IP, диапазоном которых управляет зарегистрированная в офшоре компания, которая связана с людьми, управляющими точками обмена трафиком в России, причем один из них когда-то одновременно представлялся CFO Telegram (не представляю себе лица Ильи Перекопского в этот момент), а другой — учился в Военно-Космической Академии.
А поскольку еще одна компания, принадлежавшая одном из владельцев предыдущей, участвует в тендерах на оказание услуг ФСБ, то даже не удивляешься смелому выводу журналистов — значит, люди, отвечающие за серверную инфраструктуру Telegram (читайте буквально — физически лазящие руками во все внутренности мессенджера) работают в ФСБ. Что, конечно, не так — персонал канальных провайдеров, датацентров и точек обмена трафиком (которые суть тот же датацентр) не имеет никакого доступа к данным на серверах клиентов, которые у них находятся.
Единственной существенной деталью можно считать упоминание об аутентификаторе устройства auth_key_id, который прикрепляется без всякой обфускации к сообщениям пользователя, но, насколько я понимаю, его существование не является новостью. Равно как и небезопасность самого мессенджера — много раз повторяли и можно повторять еще, что Telegram не является безопасным мессенджером, в нем по умолчанию не используется end-to-end шифрование, хватит помогать Дурову утверждать обратное.
Но понятно, что расследовать и выдавать на-гора сенсации надо, иначе денег не дадут. Даже в виде донатов.
https://istories.media/stories/2025/06/10/kak-telegram-svyazan-s-fsb/
Федеральные прокуроры в Бруклине предъявили обвинения основателю криптоплатежной компании Юрию Гугнину в отмывании денег через американскую финансовую систему на сумму свыше полумиллиарда долларов в пользу российских санкционных банков.
38-летний россиянин, проживающий на Манхэттене в квартире за $19 тысяч в месяц, использовал свои компании Evita Investments и Evita Pay для проведения платежей с сокрытием их происхождения. С июня 2023 по январь 2025 года он якобы переправлял деньги через американские банки и криптобиржи, в основном используя USDT.
Среди клиентов были физлица и компании, связанные с Сбербанком, ВТБ, Совкомбанком, Тинькофф и Росатомом. Для реализации схемы Гугнин подделывал документы, создавал подставные счета и редактировал более 80 счетов-фактур, скрывая российских контрагентов.
Показательно, что в его истории запросов были обнаружены поисковые запросы "как узнать, ведется ли против тебя расследование" и "наказания за отмывание денег в США". Минюст утверждает, что у него были прямые связи с российскими спецслужбами и иранскими чиновниками.
Обвинения включают банковское мошенничество, нарушение санкций, отмывание денег и помощь в экспорте чувствительных американских технологий в Россию. При признании виновным по всем пунктам ему грозит пожизненное заключение. Освобождение под залог с такими обвинениями невозможно.
https://www.cnbc.com/2025/06/09/crypto-russia-laundering.html
Не могу не отметить разницу:
— Журналисты Washington Post делают статью, как галлюцинируют модели — "Интересно, какие модели использовали?".
— Исследователи Apple публикуют научную статью, как рассуждающие модели начинают думать меньше от сложности задачи — "Пусть сначала разрешат приложения с вирусами ставить и LLM на часах поместят, потом послушаем".
В преддверии завтрашнего WWDC начинаются спекуляции вокруг Apple — но на этот раз основные комментарии касаются того, что Apple не сможет заявить то, что от компании ждут. Бывшие сотрудники рассказывают Financial Times, что попытки интегрировать большие языковые модели в существующую архитектуру Siri приводят к багам и техническим проблемам, которых избежали конкуренты вроде OpenAI, создававшие свои голосовые ассистенты с нуля.
Проблема в том, что Apple пытается "взобраться на холм" — постепенно улучшать старую систему, вместо того чтобы полностью переписать ее. В результате многие анонсированные в прошлом году функции Apple Intelligence до сих пор не выпущены, а инвесторы уже не ждут крупных AI-анонсов на грядущей WWDC.
Аналитики Bank of America считают, что Apple отстает от Google и других конкурентов на три года или больше в создании по-настоящему современного AI-ассистента. Тим Кук недавно признал, что технология не соответствует "высокой планке качества" компании. В Apple уже начались кадровые перестановки — Джон Джаннандреа лишился контроля над подразделением Siri.
Вообще-то, Apple не привыкать к неудачам — даже при Стиве Джобсе были такие случаи, как MobileMe или Ping. Но уж больно громко выглядит отставание компании в самой трендовой теме.
https://www.ft.com/content/785aeb00-6784-4d64-a706-0cb44288e6be?accessToken=zwAGNwjBIWQokc94WusAZ4RNZNOnBgy0Qojmvg.MEUCIQCXHixiHKY0mS60h_tTm0AuhHhKNnz2s_u_2zZat_SkSQIgNxMqXgbmJY7z9vXUkiJuOaiNVOn1jSx4ysNjiSD-nbw&sharetype=gift&token=0a97a893-613e-425f-8161-e077e2338755
Если вы уже перестали следить за драмой вокруг Wordpress, то там есть некоторые изменения. Коалиция разработчиков WordPress и Linux Foundation представила проект FAIR Package Manager — федеративную сеть обновлений, которая позволит хостинг-компаниям и крупным организациям запускать собственные зеркала серверов обновлений WordPress.
Проблема в том, что все сайты на WordPress зависят от WordPress.org для получения обновлений и плагинов, а этот домен контролируется лично Малленвегом, а даже не WordPress Foundation. В сентябре он заблокировал доступ к обновлениям для WP Engine, обвинив компанию в паразитировании на открытом проекте без адекватного вклада в развитие.
Новая система останется полностью совместимой с WordPress, но будет работать независимо от WordPress.org. Над проектом работают более 100 участников из 10+ организаций. Linux Foundation обеспечит нейтральный надзор через технический комитет.
Создатели подчеркивают, что это не форк WordPress, а альтернативная система распространения. Впрочем, форки уже тоже существуют.
https://www.fastcompany.com/91347003/wordpress-veterans-launch-fair-project-to-tackle-security-and-control-concerns
Google добавил в Gemini функцию "запланированных действий" для подписчиков AI Pro и AI Ultra. Теперь можно попросить помощника выполнять задачи в определенное время — например, ежедневно присылать краткую сводку календаря или еженедельно генерировать идеи для блога.
Также можно настроить разовые задачи, например, попросить прислать резюме церемонии награждения на следующий день после ее проведения. Управлять запланированными задачами можно через настройки приложения Gemini.
В общем, функция идентична такой же функции в ChatGPT. Правда, я не в курсе, насколько активно она используется. Кто-то пробовал?
https://www.theverge.com/news/681762/google-gemini-scheduled-actions-planned-tasks
Anysphere, разработчики AI-помощника для программирования Cursor, подтвердили привлечение $900 млн при оценке $9.9 млрд postmoney. В дополнение уже ранее известным деталям компания утверждает, что достигла $500 млн годовой выручки. Это делает её одной из самых быстрорастущих софтверных компаний.
Напомню, что предыдущий раунд в $105 млн был привлечен в январе 2024 года при оценке в $2,5 млрд.
Кстати, история с покупкой их конкурента Windsurf OpenAI получила неожиданное продолжение. Хотя официального подтверждения сделки не было, Windsurf на этой неделе заявили, что получили от Anthropic уведомление о прекращении оказания услуг доступа ко всем моделям версий 3.5 и 3.7. Чуть позже сооснователь Anthropic Джаред Каплан подтвердил, что причиной такого отказа стали слухи о покупке Windsurf, добавив, что было бы смешно продавать свои услуги главному конкуренту. Пользователи Windsurf могут продолжать использовать модели Anthropic, указав собственный ключ API.
https://www.bloomberg.com/news/articles/2025-06-05/anysphere-hailed-as-fastest-growing-startup-ever-raises-900-million
Журналист Washington Post провел масштабное тестирование пяти популярных AI-чатботов (ChatGPT, Claude, Copilot, Meta AI и Gemini) на способность понимать и анализировать различные типы текстов — от художественной литературы до юридических документов и политических речей Трампа.
Результаты оказались неоднозначными. Победитель Claude набрал в среднем 67% правильных ответов, ChatGPT — 64%. Остальные значительно отстали. При этом Claude был единственным, кто не "галлюцинировал" — не выдумывал несуществующие факты.
Интересно, что успех в одной области не гарантировал успеха в другой. ChatGPT лучше всех справился с анализом литературы и политических речей, но провалился на юридических документах. Claude показал стабильность во всех категориях.
AI часто пропускает важную информацию, акцентирует позитивное и игнорирует негативное, может давать поверхностные ответы вместо глубокого анализа. Например, при анализе романа о Гражданской войне в США боты часто обходили стороной темы рабства.
Впрочем, я думаю, что у любого, кто активно использует AI, в запасе есть с десяток историй, как галлюцинирует кто угодно. Мне буквально пять минут назад Claude объяснял, что 8 утра в Киеве — это 11:00 UTC и он нашел баг.
https://www.washingtonpost.com/technology/2025/06/04/ai-summarizers-analysis-test-documents-books/?ref=platformer.news