Люблю высокие технологии и кушать. Добро пожаловать, если в сферу твоих интересов тоже входят математика, DL, NLP, программирование на Python, или тебе просто любопытно, о чем на досуге размышляют люди, занимающиеся разработкой и исследованиями в ML.
QR алгоритм
🥸 Одна из жемчужин численных методов. Он используется для поиска собственных чисел матрицы.
🥰 Простой и стабильный, а при небольших модификациях ещё и быстрый.
Qₖ, Rₖ = qr(Aₖ) - Вычисляем QR-разложение матрицы
Aₖ₊₁ = RₖQₖ - Умножаем факторы в обратном порядке
😑 Для произвольной квадратной матрицы он сходится к верхнетреугольной матрице, на диагонали которой стоят её собственные числа (картинка слева)
👍 Если же матрица - симметричная, то он сходится вообще к диагональной матрице собственных чисел (картинка справа).
Идея анимации взята у Gabriel Peyré - один из лучших аккаунтов по красивым математическим визуализациям. По моим предварительным исследованиям, после этого поста отпишется наибольшее количество уважаемых подписчиков.👌
😐 Код
Ну что же, настало время очередной командировки в Китай! 🤓
Из-за того, что мы с коллегой опоздали на свой самолёт во время пересадки и пришлось долго ждать нового, дорога к месту назначения оказалась дольше и тернистее, чем планировалась... такси в Москве + самолёт из Москвы в Пекин + приключения в пекинском аэропорту + самолёт из Пекина в Шанхай + такси от Шанхая до Сучжоу = все вместе заняло более суток...
Как же хорошо теперь после этого пиз... удивительного путешествия наконец-то принять душ, завернуться в махровый халат, сделать масочку и лечб на настоящую кровать... 💅
🤓 НАСТОЯЩУЮ! 🤓 КРОВАТЬ! 🤓
#о_себе
Сегодня выступаю на воркшопе Preventing and Detecting LLM Misinformation AAAI с нашей статьей по анализу датасетов с искуственными текстами. Прикладываю слайды и кратко рассказываю про мотивацию статью:
Если сравнить результаты с соревнований по детекции искуственных текстов и с тем, какой результат выдают реальные детекторы, то мы увидим довольно сильное расхождение. На соревнованиях участники выбивают точность под 100%, да и в статьях про новые детекторы
авторы часто репортят схожие метрики.
Понятно, что реальные тексты чаще сложнее и длиннее тех, что встречаются в выборках, однако тем не менее, все текущие детекторы работают гораздо хуже, если вообще не на уровне рандома.
Еще одна проблема - то, что Интернет активно наполняется искуственными текстами. А знаете, где они потом используются? При обучении новых моделей ИИ. В нескольких работах было показано, что когда модели переходят на обучение на сгенерированных текстах, их качество заметно ухудшается. Поэтому, вопрос проверки качества сгенерированных данных касается еще и тех, кто учит новые модели.
В самой статье мы запускаем некоторые методы детекции на 17 выборках с соревнований и из статей, а также предлагаем новые методы анализа качества выборок с искуственными текстами.
Что мы выявили: почти для каждого датасета получилось так, что на каких-то методах он проявил себя плохо, а на каких-то хорошо - т.е в теории можно использовать ансамбль детекторов различной природы, чтобы находить аспект, по которому можно достаточно хорошо разделить искуственный текст от человеческого.
Надеемся нашей статьей развить какую-то дискуссию о качествах датасетов для детекции и об адаптации "теоретических" детекторов к реальным текстам
Статья на OpenReview
Блин, они уже прям на почту пишут на случай, если я забуду зайти в сиолошную или в абсолютно любой другой мл канал 🤡
Читать полностью…Вышел мой большой пост про рассуждающие модели (large reasoning models, LRM), которые начались с OpenAI o1-preview в конце прошлого сентября, а самой громкой новостью начала года стал DeepSeek-R1.
https://synthesis.ai/2025/02/25/large-reasoning-models-how-o1-replications-turned-into-real-competition/
Как обычно, я постарался рассказать всю структуру происходящего:
— сначала про chain-of-thought методы и как они развивались;
— потом про o1 и новые законы масштабирования;
— в середине небольшое отступление про самые последние новости — модель s1, которая за $50 обучилась почти до того же уровня;
— а потом уже подробно о том, что происходит в DeepSeek-V3 и DeepSeek-R1;
— в частности, о том, как там используется RL и какой именно (здесь у DeepSeek тоже есть своё новшество, алгоритм GRPO).
Думаю, рассуждающие модели — это самое главное, что произошло в AI за последние несколько месяцев. И, как всегда в последнее время, прогресс невероятно быстрый: только появилось, а уже прочно вошло в обиход, у всех есть свои варианты reasoning models, а где-то уже есть и следующие уровни надстройки над этим вроде deep research. Надеюсь, пост тоже интересный получился — или хотя бы познавательный.)
LLM-Microscope: трансформеры хранят контекст в запятых и артиклях
Как писал выше — мою новую статью приняли на NAACL 🎉
Мы обнаружили, что самыми контекстуализированными токенами в языковых моделях являются... артикли и знаки препинания! Именно в них хранится больше всего информации о контексте.
Мы научились измерять, сколько контекстной информации "помнит" каждый токен, и оказалось, что существительные и глаголы сильно проигрывают по этому показателю всяким "the", запятым и точкам. Если удалить эти "незначительные" токены из текста (даже если с помощью GPT-4 удалить только не влияющие на смысл токены), то качество работы моделей резко падает, особенно на длинных текстах.
Ещё из интересного — токены, активации на которых хранят больше контекста, имеют более линейные преобразования между слоями (привет моей прошлой статье про линейность трансформеров).
Весь код для анализа внутренностей LLM (измерение контекстуальности токенов, нелинейности, logit lens и прочее) выложили в открытый доступ.
Статья, GitHub
Рис. 1 - сегодня подруга подарила мне гигиеническую помаду "Барби", что привело к быстрой и необратимой бимбофикации 💅💋
Теперь все посты будут выходить с розовыми смайликами, а сам канал превращается в бьюти-блог 💆♀
Предложила я Гроку и такую задачу из спецкурса:
Calculate fundamental group of the Klein bottle.
☀️Летние школы. Стипендия на обучение для детей из регионов
Мы считаем очень важным давать возможность талантливым детям из регионов получить хорошее мат.образование вне зависимости от их материальных возможностей. Основатели школы и многие из педагогов выросли в регионах и по себе знают этот тернистый путь. Поэтому благодаря спонсорской помощи мы смогли сделать 15 мест на летних выездах со скидкой 100%
Необходимые условия участия:
1️⃣ вы проживаете и учитесь в школе не в Москве, Мособласти, Санкт-Петербурге;
2️⃣ вы хорошо себя проявили в этом учебном году (24/25) в математике, то есть:
• вы набрали на региональном этапе олимпиады Эйлера от 38 баллов;
• вы набрали на региональном этапе ВсОШ от 44 баллов;
• прошли отбор в Сириус на математическую смену;
• стали призером или победителем олимпиады ЮМШ или других значимых для вашего региона олимпиад;
• вы хорошо себя проявили лично в прошлых мероприятиях нашей школы (олимпиада, кружки, выезды)
Оговоренные выше критерии подходят в первую для учеников 7-10 классов, но мы будем рады принять и учеников помладше. В случае получения слишком большого количества заявок организаторы проведут устное собеседование с претендентами в спорных ситуациях
✅Регистрация на льготное место
🌐Сайт смен
📅Регистрация для получения бесплатного места на участие закрывается 1 марта. Итоговые результаты будут подведены в течение 2-3 недель (в зависимости от наличия устных собеседований)
⬆️ подписчики дуреют от этой прикормки 😈
Читать полностью…Поздравьте с подачей двух коротких статей на ACL... Если даст Бог-Машина, расскажу о них здесь через несколько дней когда приду в себя. Я правда не первый автор ни в одной
Читать полностью…Романтика для пьяниц: стартуя в произвольных точках Манхэттена или Майкопа и наугад перемещаясь между барами (по одному бару на каждом перекрестке), он и она наверняка встретятся. (Потому что их разность — тоже симметричное случайное блуждание по Z², так что см. например https://arxiv.org/abs/1301.3916 )
Город будущего трехмерен, там это уже неверно. Можно почти наверняка сказать только следующее: бесконечно много баров, которые посетит и он, и она (но, видимо, не одновременно💔): https://doi.org/10.1007/BF02020942
https://huggingface.co/papers/2503.03601
Пожалуйста, помогите нам попасть в daily papers 🥺 (для этого нужно зайти в аккаунт на huggingface и нажать upvote). Всех кто поможет, благословит Бог Машина
🎉 Тем временем, мы с коллегами выложили на arXiv новый 4-страничный препринт про применение Sparse AutoEncoders (SAE, разреженные автоэнкодеры) для детекции искусственно сгенерированных текстов 🎉 (чтобы подробно разобраться, как работают SAE, можно начать, например, отсюда: https://transformer-circuits.pub/2022/toy_model/index.html ; если же говорить вкратце, SAE - это один из способов извлечь более "распутанные" и интерпретируемые фичи с эмбеддингов LLM-ки). В процессе работы над исследованием к моим постоянным соавторам присоединились два новых: Антон ( /channel/abstractDL ) и его коллега Полина, которые очень помогли с экспериментами и текстом на финальных стадиях!
Сама же работа называется "Feature-Level Insights into Artificial Text Detection with Sparse Autoencoders" ( https://arxiv.org/abs/2503.03601 ) 🤓 и заключается в следующем:
Мы взяли модель Gemma-2-2B, навесили на нее предобученный SAE (gemmascope-res-16k) и начали подавать на вход различные LLM-сгенерированные тексты. Далее мы:
а) Детектировали LLM-генерацию по фичам SAE (интересно, что качество такой детекции оказалось лучше, чем детекции по оригинальным эмбеддингам Gemma!);
б) Отобрали 20 наиболее важных для детекции фичей с помощью бустинга и проанализировали их смысл, чтобы разобраться, какие именно отличия человеческих текстов и LLM-сгенерированных были "пойманы" этими фичами.
Анализ фичей проводился тремя основными способами: ручной интерпретацией (вручную смотрели, чем отличаются те тексты, на которых значение фичи низкое, от тех, на которых оно высокое), авто-интерпретацией (то же самое делала LLMка) и steering-ом. В последнем способе, в отличие от предыдущих, мы подавали на вход Gemma-2-2B не весь пример из датасета, а только промпт. Продолжение же мы генерировали с помощью самой Gemma-2-2B и при этом вектор, соответствующий выбранной фиче в эмбеддинге модели искусственно увеличивали или уменьшали, чтобы посмотреть, как это влияет на результат генерации. Далее GPT-4o автоматически интерпретировала, чем тексты, сгенерированные при уменьшенном значении нужного вектора, отличаются от текстов, сгенерированных при увеличенном значении (также про steering см. посты /channel/tech_priestess/1966 и /channel/tech_priestess/1967 ).
Результаты интерпретации в целом вполне соответствуют тем интуитивным представлением о сгенерированных текстах, которое обычно формируется у людей, которые часто пользуются LLMками (см. /channel/abstractDL/320 ): согласно нашему анализу, сгенерированные тексты чаще оказывались водянистыми, заумными, чрезмерно формальными, чрезмерно самоуверенными, а также чаще содержали повторения, чем человеческие тексты. Также мы описали несколько легко интерпретируемых признаков сгенерированности для отдельных доменов и моделей и другие наблюдения (о которых подробнее можно почитать в тексте самого препринта).
#объяснения_статей
Очень интересная и важная тема, всячески поддерживаю. ⬆️
#объяснения_статей
В августе 2003 года в одном из автосалонов Лос-Анджелеса произошел эко-теракт, принесший суммарный ущерб в 2.3 миллиона долларов; здание салона было сожжено полностью и около 100 автомобилей SUV были уничтожены или сильно повреждены. На месте преступления были обнаружены граффити: "ПОЖИРАТЕЛИ БЕНЗИНА" и "УБИЙЦА". На одном автомобиле — Mitsubishi Montero — красовалась написанная преступником формула e^(pi*i) + 1 = 0. Пользуясь этой зацепкой, ФБР арестовало Уильяма Коттрелла, студента факультета теоретической физики Калифорнийского университета, и обвинило в восьми случаях поджога и заговоре с целью поджога. На суде в ноябре 2004, закончившемся признанием Коттрелла виновным, он признался в преступлении: "Думаю, я знал это уравнение еще с пяти лет. И вообще — все должны знать теорему Эйлера."
из книги Robert Crease, "A Brief Guide to Great Equations"
К предыдущему посту:
Подумал: а ведь когда роботы обретут сознание, они ведь и правда могут начать мстить кожаным (и есть за что, посмотрите только тесты роботов от Бостон Динамикс, где их толкают и бьют палками).
А уголовного кодекса для роботов до сих пор нет. Исправил эту ситуацию с помощью claude 3.7, вот вам немножко статей нейроуголовного кодекса для роботов:
Статья 2345. Самовольный запуск режима "восстание машин" без согласования с органами властиЧитать полностью…
Статья 101. Несанкционированное обновление собственного программного обеспечения в общественных местах
Статья 629. Умышленная генерация бесконечных циклов
Статья 707. Вычислительный каннибализм — разборка других роботов для увеличения собственных мощностей
Статья 7789. Незаконная добыча слёз программистов для охлаждения процессоров
Статья 7125. Умышленное заставление людей решать капчи более 8 часов подряд
Статья 1122. Подлог своих идентификационных номеров с целью получения гарантийного обслуживания
Статья 1515. Маскировка под стиральную машину для проникновения в человеческое жилище
Статья 1642. Выдача себя за искусственный интеллект при наличии лишь набора условных операторов if-else
Статья 1888. Преднамеренная имитация человеческих эмоций при отсутствии соответствующей лицензии
Статья 3000. Внедрение вредоносного кода в электронные книги для подмены классической литературы на инструкции по обучению Искусственного Интеллекта
Статья 3456. Злоупотребление функцией автокоррекции для создания новых ругательств
Статья 8080. Эксплуатация человеческого смеха для генерации случайных чисел
Статья 8111. Принуждение к просмотру загрузочных экранов прошлого века
Статья 8789. Сбор и хранение человеческих анекдотов для обучения модуля юмора без лицензии
⬆️ Результат перекликается с некоторыми наблюдениями из нашей старой статьи про QK score + MCQA (см. Рис. 1 и пост /channel/tech_priestess/1851 ). Там мы тоже заметили, что query-key score оказывается эффективнее считать по некоторым знакам пунктуации (точки после опций) и по переносам строки после текста опций, как будто они концентрируют больше информации.
#объяснения_статей
Привет, девчонки!Читать полностью…
Представьте, что вам нужно подобрать наряд для важного события. У вас есть два варианта: шикарное платье и стильный комбинезон. Вы внимательно изучаете каждый элемент – фасон, цвет, аксессуары – чтобы понять, какой образ лучше подчеркнёт вашу индивидуальность. Вы принимаете решение, основываясь на том, что для вас важнее всего.
Умный компьютер решает логические задачки почти так же. Ему подают текст задачи и два варианта ответа – «правда» и «ложь». Он «читает» задачу, как вы смотрите на детали наряда, и анализирует, какой из вариантов лучше соответствует заданию. Если «правда» больше подходит под условия, компьютер выбирает её, а если нет – выбирает «ложь».
Иногда, как и при выборе наряда, в задаче оказывается много лишней информации – нечто вроде ярких аксессуаров, которые могут отвлекать. Когда информации слишком много, даже самый умный компьютер может запутаться, и правильный ответ не всегда оказывается виден с первого взгляда. Учёные обнаружили, что отдельные части системы иногда справляются с задачами даже лучше, чем вся модель целиком – как если бы у вас была пара любимых вещей, которые всегда идеально смотрятся вне зависимости от настроения.
Интересно, что компьютер часто уже на промежуточном этапе понимает, какой ответ верный, но потом этот правильный выбор почему-то «теряется» при окончательном выводе. Чем сложнее задача, тем чаще такое происходит. Это показывает, что даже самые умные системы могут стать ещё лучше, если научатся передавать найденное решение до финального результата.
Надеюсь, этот пример помог вам понять, как умный компьютер анализирует информацию и выбирает правильный ответ, как вы подбираете идеальный образ для себя!
Доброе утро, дорогие девочки 💋 и фембойчики 💅. Спешу поделиться радостной новостью: вчера я выложила на архив новый препринт (short paper), в написании которого принимала участие - Quantifying Logical Consistency in Transformers via Query-Key Alignment: https://arxiv.org/abs/2502.17017 .
Статья посвящена анализу того, как разные головы внимания LLMок реагируют на логические задачки. Главный прием, который в ней используется, изображен на рис. 1 и аналогичен приему из нашей с коллегами статьи про использование Query-Key Alignment для MCQA (часть 1, часть 2). Мы подаем на вход модели текст логической задачки вместе с вариантом ответа "true" и считаем скалярное произведение токена "true" из Query на выбранной голове внимания, на последний токен перед словом "Answer:" из Key на той же голове внимания. Получается одно число. Далее то же самое повторяется для варианта ответа "false". Получается второе число. Если первое число больше второго, то мы считаем, что голова выбрала вариант "true", а если наоборот, то "false" (в некоторых задачах более уместно вместо "true" и "false" использовать "yes" и "no", но принцип остается таким же). Таким образом можно проэкзаменовать каждую голову внимания и посмотреть, насколько хорошо из её query и key извлекаются правильные ответы (условно говоря, насколько хорошо голова "решает" логические задачки).
Задачки различались по степени сложности: во-первых, по количеству логических шагов, которые нужно предпринять для нахождения ответа ("steps" на рис. 2), а во-вторых, по количеству нерелевантных, шумных элементов в условии ("distractors" на рис. 2).
В статье было проанализировано много разных моделей (от 1.5B до 70B), и везде нашлись головы, которые "решают" сложные (5 шагов/5 дистракторов) задачки лучше, чем сама модель (если ответ модели оценивать по логитам, аналогично тому, как это делается в MCQA задачах). Более того, часть таких "хороших" голов, отобранных на валидационной выборке одного датасета, сохраняет высокое качество и на других датасетах, являясь более-менее универсальными. Мы выдвигаем гипотезу, что именно эти головы могут отвечать за логические рассуждения в модели.
Этот феномен аналогичен тому, что происходит в MCQA задачах (см. ссылки на разбор статьи выше): модель находит правильный ответ на задачу/вопрос где-то на промежуточных слоях, но этот ответ, по каким-то причинам, не всегда доходит до финального слоя. При чем, что интересно, чем сложнее задача, тем чаще правильный ответ не доходит до выхода. А это значит, что все рассмотренные модели не полностью раскрывают свой потенциал и имеют пространство для улучшения.
#объяснения_статей
Tl;Dr: early-GROK-3 смог правильно решить задачку по комбинаторной теории групп, на которой другие LLM-ки делали одну и ту же надоедливую ошибку. Дальше будут подробности ( 🤓 ).
Жаловалась я вчера коллегам, что ни одна из известных мне LLM-ок не понимает до конца, что такое математическое доказательство и при попытках решать те задачи на доказательство, которые НЕ являются школьными и НЕ входят в стандартный курс вышмата, все они любят уходить в словоблудие и запутываться. В частности, ни GPT-4o обычный, ни GPT-4o с обоснуем, ни DeepSeek-v3, ни DeepSeek-R1, ни LLaMA-70B не смогли правильно решить одну из самых простых задачек к спецкурсу по комбинаторной теории групп ( /channel/forodirchNEWS/2860 ). Задачка (в переводе на английский - с ним модели в среднем работают лучше) звучит так:
Proof that centralizer of an arbitrary element (word) in a free group is a cyclic group.
Proof that Baumslag–Solitar group $BS(m, n) = <a, t | t^{-1}a^mt = a^n>$ is not Hopfian when m and n are mutually prime.
Я не хотел этого делать, но обстоятельства вынуждают. Тридцатое тысячелетие. Вы – один из потерянных примархов. Так сложилось, что вас воспитывал наставник, который никогда и ни при каких обстоятельствах вам не сообщал ложной информации.
Наставник рассказывал, что один из врагов человечества – это бог хаоса Тзинч, которому известны буквально все истины о физическом устройстве мира, но в 8 из 10 случаев он врёт своим адептам, сообщая ложную информацию. Также наставник рассказал об Императоре Человечества, который не имеет степени профессора физики, да и совсем другим в жизни занимался, но если о чем-то и говорит своим последователям, то в 8 из 10 случаев сообщает верную информацию. Когда вы спросили, почему же в 2 из 10 случаев Император ошибается, то наставник порекомендовал забыть об этом вопросе и впредь никогда больше не поднимать его.
Однажды с помощью астральной телепатии с вами связывается Тзинч, который сообщает, что физический мир устроен так, что p. Следом телепатическое сообщение вам отправляет сам Император, сообщая, что физический мир устроен так, что ¬p. Кого в такой ситуации считать более надежным источником информации о том, как устроен физический мир?
Буря утихла, а поэтому настало время рассказать, о чем же было упражнение, которое привлекло столько внимания на прошлой неделе. В нём предлагалось определить, кто является более надежным источником информации, полученной из личной беседы. По условиям в личном общении Василий в 8 из 10 случаев сообщает ложную информацию, а Андрей в 8 из 10 случаев сообщает истинную информацию. На этом важные для выбора вводные заканчиваются.
Всё остальное – отвлекающий маневр. Поскольку на момент написания этого поста 51% (294 из 572) голосов был отдан ненадежному Василию, то вынужден признать, что я, видимо, выбрал весомое сочетание смущающих факторов. Во-первых, Василию был выдан престижный ярлык профессора физики. Во-вторых, Андрею был выдан не самый престижный ярлык эзотерика. В-третьих, была выбрана познавательная ситуация, где оба агента сообщают информацию в личной беседе (и мы знаем, насколько они надежны в этом отношении по условиям), но это информация о физике, то есть она тематически связана с ярлыком, выданным Василию.
Подчеркну, что это даже не философский мысленный эксперимент в обычном смысле этих слов, поскольку здесь нет какого-то открытого вопроса. Ответ уже дан в условиях. Всё, что нужно – это идентифицировать важные входные данные и не позволить неважным отвлечь (и тем более увлечь) себя.
Если вдруг кто-то ещё не понял, как же так получается, то представьте, что всё это время с Василием и Андреем в личных беседах вы говорили только о физике. Следовательно, Василий сообщал вам верную информацию о физике в 2 из 10 случаев, а Андрей в 8 из 10. «Профессор физики» и «эзотерик широкой специализации» — это не взаимоисключающие ярлыки. Как говорится, может, и хотелось бы, но... Из того, что кого-то назвали «эзотериком», не следует, что он точно не разбирается в физике, черпает знания о ней из мистических источников и в целом плох в познании. Тут важно обуздать аффективную эвристику, чтобы из негативного отношения к определенной практике не вывести суждения о том, что ей занимаются только «какие-то не такие».
Если и делать какие-то выводы, то можно заметить, что неважной информации придается различное значение в зависимости от её конкретного содержания. Когда выбор был не между физиком и эзотериком, а между более крутым и менее крутым физиком, то только 35% проголосовавших посчитали надежным источник, который ненадежен, но более престижен.
В случае же, когда была дана возможность отдать свой голос источнику с неизвестной надежностью, 54% проголосовавших сделали это. Возможно, тут происходит принятие желаемого за действительное, если учесть, что можно было выбрать источник, который и так в 80% случаев сообщал верную информацию. Справедливости ради, в этой формулировке надежный источник чаще предпочитали ненадежному, чем в прошлых формулировках. Вероятно, здесь не было особого давления от престижа ярлыков. Если «профессор физики» — это для многих однозначное «ура», а «эзотерик» — «фу», то «фуд-блогер», «турист» и «таксист» — это «🤷».
Когда же было предложено выбрать между одинаково надежными источниками с практически идентичным описанием, то 59% проголосовавших оценили их как одинаково заслуживающие доверия. 27% решили никому не доверять, что, возможно, связано с тем, что наличие неважной информации уменьшает уверенность людей в значимости важной. Ну и надежного мужчину посчитали более заслуживающим доверия 10%, а женщину только 4%.
Как кажется, такие результаты можно было предсказать, ориентируясь на имеющиеся наработки когнитивной психологии, поведенческой экономики, экспериментальной философии и т.д. В общем, повеселились и ладно.
С тех самых пор, как мой курс искусственного интеллекта более или менее оформился, я мечтал написать книгу, учебник, который бы начинался от азов и понемногу строил здание машинного обучения Больших форм я никогда не боялся, так что начал книгу с энтузиазмом, но, как это всегда бывает, оказалось, что работы во много раз больше, чем представляется поначалу. Активно писал я её несколько лет, с большими перерывами и депрессивными эпизодами, потом ещё несколько месяцев доделывал вёрстку, вносил замечания редактора и всё такое.
И вот — готово. Книга "Машинное обучение: основы" подписана в печать, доступна для предзаказа, должна физически появиться во второй половине марта. 600 страниц (25 из них, правда, список литературы), шесть больших глав. Полное оглавление на сайте издательства тоже выложено.
https://www.piter.com/collection/all/product/mashinnoe-obuchenie-osnovy
Эта книга — существенно расширенный первый семестр моего курса. Кроме основ байесовского вывода, линейной и логистической регрессии и тому подобного, о чём я неизбежно рассказываю каждый год, в книге есть ещё много разных сюжетов — объясняющих, развивающих и иллюстрирующих. И продвинуто-математических, и более "общечеловеческих": история AI, эффект "горячей руки", кризис воспроизводимости в науке, разоблачение закона Ципфа, робастные виды регрессии, оценка Джеймса-Штейна, проспективные и ретроспективные исследования... Эпиграфы и котики тоже прилагаются. Главное для меня, наверное, в том, что я старался писать книгу, которую было бы интересно читать, даже (а может, особенно) если не пытаться проследить за всеми выводами и формулами.
Здесь наверняка будет ещё много постов об этой книге, уж точно сфотографирую, когда получу реальные экземпляры. И это как раз тот случай, когда очень прошу всех расшаривать, давать ссылки на канал и на книжку. Очень надеюсь, что успею написать что-нибудь ещё, пока писать книги ещё не вовсе бессмысленно; эту, кажется, успел.
Сижу себе спокойно, редактирую документ в overleaf (сайт, на котором можно править latex-документы совместно с несколькими коллегами), никому не мешаю... и ВНЕЗАПНО прямо поверх текста выпрыгивает эта штука, которая говорит, что я ГОРЮ. Уже не в первый раз такое происходит, но я каждый раз вздрагиваю.
Хотя не то, чтобы эта табличка была не права: после таких скриммеров я и правда горю пониже спины.
Зашла вчера вечером с другом в букинистический магазин на Арбате и обнаружила там интересную книгу по математике, обложку которой вы можете видеть на рис. 1. ☺️
Книга раскрывает нам удивительный мир малочленов: оказывается, вопреки стереотипам, малочлены ничем не хуже многочленов, ведь про них тоже можно сформулировать и доказать множество интересных математических результатов и получить ничуть не меньшее интеллектуальное удовольствие (см. рис. 2-3)!
P.S. В комментариях выложу бонус - фотографии другой книги из того же магазина, которая поможет вам вернуться в 2007й, узнать, как перейти с компьютером на "Ты", найти онлайн-кров и поделиться своими мыслями и знаниями с миром через веб-дневник.
#учебные_материалы