Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением. В свободное время работаю как Staff Research Scientist в Meta Generative AI в Швейцарии. Aвтор: @asanakoy PR: @ssnowysnow
В ByteDance стажёр обиделся и два месяца саботировал тренировочные раны соседней команды, причём весьма изощрёнными методами:
➖ Загружал чекпоинты с бекдором, через который проносил скрипт, который рандомно убивал джобы на ноде (ckpt - это pickle файл, они могут содержать произвольный код на питоне)
➖ Специально добавлял баги в форк PyTorch, который запускался на кластере
➖ Портил чекпоинты, чтобы результаты экспериментов не сходились
При всём этом он участвовал в митингах, где пытались отловить проблему, слушал, как коллеги пытаются решить её, и на основе услышанного придумывал новые способы саботажа. В итоге поймали по логам, но два месяца и усилия почти 30 человек пропали впустую. А у вас что-то такое было?
П.с. кроме шуток, мощный чел оказался.
@ai_newz
Mistral выпустили линейку новых моделей - Ministral.
Идут в двух размерах - 3B и 8B. Слегка лучше Llama 3.1 в тех же весовых категориях. К сожалению, публикуют веса лишь большой модели и только под research-only лицензией. Понятно что компании нужно кормить, но всё равно грустно.
Бенчами как всегда манипулируют, так что даже не буду постить таблички. К примеру, Base модель вообще не сравнивают с Gemma 9B PT, которая на 5+ поинтов обгоняет Ministral 8B Base почти на всех бенчах.
Из приятного - заметьте как разгорается соревнование в 3B моделях. Сначала это была лишь StableLM, а сейчас есть уж несколько конкурирующих моделей (Gemini Nano-2, Llama 3.2, StableLM, Apple Intelligence, Phi) и постоянно выходят новые.
@ai_newz
😮 А вот подъехала и первая публичная цена на DGX B200. За него придётся отдать чуть больше полумиллиона долларов.
Серваки с H100, для сравнения, стоят где-то в районе 300к (для больших компаний явно дешевле, но они покупают их десятками или даже сотнями тысяч).
@ai_newz
☕️ Дмитрий Мезенцев, руководитель службы разработки Поиска рассказывает, как в Яндексе сочетаются атмосфера стартапа и бигтеха и за что он любит продуктовую разработку.
А если после прочтения вам захочется работать с нами — откликайтесь на вакансию!
➡️ Бэкенд-разработчик в команду поисковых сценариев
#промо
Добро пожаловать в киберпанк - Маск провёл презентацию Tesla
Показал пару прототипов новых тачек в стилистике Cybertruck вообще без водительских мест - Cybercab (робо-такси) и Robovan (робо-маршрутка). Когда выйдут - непонятно, обещает "до 2027", но с дедлайнами у Маска так себе.
Но вы только посмотрите на этих танцующих роботов Optimus! Они ещё стояли у бара, играли в камень-ножницы-бумагу и вообще всячески взаимодействовали с посетителями. Правда, скорее всего, ими управляли живые люди удалённо.
@ai_newz
Pixtral-12B: тех-репорт
Месяц назад выкатили модель (пост был тут). А сейчас вышел тех-репорт про Pixtral-12B с кучей деталей про мультимодальную архитектуру и эвал, но без описания тренировки. Полезное чтиво!
По бенчам бьют Llama-3.2 11B & Qwen-2-VL 7B.
Статья
Webpage
Inference code
Evaluation code
@ai_newz
А у меня активная неделя продолжается. Вчера отдохнул денёк, теперь едем дальше.
Я лечу в главный офис Meta в Menlo Park, California. Мы с командой будем отмечать успешный релиз Movie Gen и обсуждать дальнейшие планы. Как всегда я забил встречи с важными людьми. Пока есть шанс встретиться лично, нужно пользоваться – это гораздо более эффективно чем говорить по видео.
Тренировать новые модели и фигачить код важно и полезно, но не менее важно для карьеры быть на виду и регулярно напоминать топам о себе.
Ну, а кроме всего этого я ещё недельку понаслаждаюсь теплом и солнцем в Калифорнии, а то в Швейцарии уже во всю бушует осень.
Ещё возможно соберём митап в Бэй Эриа в конце недели (пост с апрельской тусовки). Так что если вы тут, вступайте в чатик, но не забудьте представиться как зайдёте.
Ссылка на чат ai_newz x Bay Area: тык.
#personal #карьера
@ai_newz
Взгляд на собесы с другой стороны
Я много писал про грейды в бигтехе, компенсации и собеседования. Но есть еще одна важная тема, о которой часто забывают. Мы часто рассматриваем собеседования только с позиции кандидата. Как пройти бихейв, не завалить leet code, что спросит эйчар? Перед важным звонком полезно взглянуть на собеседование и с другой стороны — со стороны нанимателя. Что он хочет от вас как от кандидата?
Об этом как раз пишет Ринат в этом посте про отбор идеального кандидата. Вот его главные три вопроса во время общения с кандидатом:
1. Может ли кандидат делать результат?
2. Хочет ли кандидат делать этот результат?
3. Впишется ли он в команду?
Конечно, ответ на эти вопросы складывается из всех прочих ваших ответов, но суть в том, что именно через эти вопросы наниматель оценивает вашу способность соответствовать его требованиям.
Кстати, Ринат ex-директора продаж Red Bull Ru, а сейчас — ко-фаундер Educate Online, где они в 23-м подняла $12 млн в Series A раунде.
Рекомендую почитать его канал, если вас интересуют стартапы, найм и карьера: @telega_Rinata.
#промо
OpenAI привлекла 6,6 млрд долларов при оценке в 157 млрд долларов
Последние несколько недель факт привлечения инвестиций был секретом Полишинеля — все знали, кто, примерно сколько и по какой оценке инвестирует. И вот сразу после DevDay 2024 OpenAI закрыла этот раунд финансирования.
Оценка в 157 миллиардов долларов, похоже, делает их дороже всех независимых конкурентов вместе взятых — Anthropic собирается поднимать следующий раунд по оценке в 40 млрд, XAI недавно привлекла 6 миллиардов при оценке в 24, а Mistral за эти 6,6 млрд можно вообще купить с потрохами. Компаний поменьше на почти 90 миллиардов вряд ли наберётся.
Деньги привлекаются конвертируемыми облигациями — долгом, который при желании кредитора конвертируется в акции компании. Но они идут с условиями — в течение двух лет компания должна реструктурироваться и стать коммерческой, иначе вступают в силу штрафные санкции. Но и у OpenAI есть свои условия — инвесторы в OpenAI не должны инвестировать в конкурентов.
Диктуют они их не просто так — компания растёт бешеными темпами и, похоже, утроит свою прогнозируемую выручку с 3,6 миллиардов до 11,6 миллиардов в год к концу 2025 года. Часть плана по росту выручки — повышение цен на ChatGPT, основной драйвер роста компании. В этом году цена вырастет до 22 долларов, а до конца 2029 года она более чем удвоится — до 44 долларов. А про цены на GPT-5 и думать страшно.
@ai_newz
🥳 Губернатор Калифорнии наложил вето на SB-1047
В последний момент Гэвин Ньюсом всё-таки решил воспользоваться своим правом вето. Я писал про этот законопроект и разбирал что с ним не так несколько раз.
Изначально там был полнейший бред, который мог убить калифорнийский опенсорс на корню. Его частично поправили, но даже в последних редакциях в законопроекте была куча расплывчатых определений, плюс он делал разработчиков изначальной модели ответственными за действия большинства файнтюнов.
Губернатор обещает внести свой собственный законопроект уже в следующем году. Надеюсь он будет более адекватным, по крайней мере эта часть текста вето даёт надежду:
Хотя законопроект SB 1047 создан с благими намерениями, он не учитывает, используется ли система ИИ в высокорискованных средах, связана ли она с принятием критически важных решений или обработкой конфиденциальных данных. Вместо этого законопроект предъявляет строгие требования даже к самым базовым функциям — если это делает крупная система. Я не считаю, что это наилучший подход к защите общественности от реальных угроз, создаваемых этой технологией.
OpenAI может перестать быть нонпрофитом
Судя по источникам Reuters, в компании планируют большую реструктуризацию - дочернюю коммерческую компанию, которая и так занимается большинством дел, собираются вывести из-под контроля некоммерческой организации. Некоммерческая всё ещё будет владеть минимальной частью акций, но не большинством. Сэм Альтман получит акции в коммерческой компании (впервые, до этого он отказывался из брать).
Изменение, скорее всего, привязано к следующему раунду финансирования - 6 миллиардов долларов по оценке в 150 миллиардов. После прошлых раундов Microsoft и так владеет 49% дочерней компании, единственный способ привлечь инвестиции, не продавая акции нонпрофита – это размыть долю Microsoft, на что вряд ли кто-то пойдёт.
После ухода Ильи Суцкевера из OpenAI в интернете полгода спрашивали - "what did Ilya see?". Ответ мы получили лишь недавно - ранние результаты того что в итоге стало o1. Ответ на вопрос "what did Mira see?" пришёл почти моментально.
@ai_newz
Motion brush и Kling 1.5
Я что-то слышал краем уха про то, что у Kling вышла версия 1.5, и вроде бы она даже немного получше, и про то, что у них появился motion brush. Но я не предал этому особого значения, т.к. такая же штука была у Runway, а качество, ну, не то чтобы прямо сильно выросло. Но.
Гляньте на эти тесты от твиттерских. Работает неожиданно хорошо, и что самое классное — есть возможность указать траекторию движения. Да и сегментация объектов по клику мыши работает неплохо. Поэтому решил, что всё-таки это стоит поста.
По обновлению:
- Разрешение 1080p для pro юзеров
- Увеличение динамики движения в кадре
- Motion Brush с траекторией движения для 6! элементов сразу
- Увеличили скорости генераций, сделали возможность генерить несколько видео параллельно - тут спорно, у меня 2 видоса генерились более 50 минут. Хз, где та скорость.
- Увеличили макс. длину клипа для img2video до 10 секунд и добавили end frame в стандартной подписке (тоже платная)
Пока на бесплатной версии дает генерить с Motion brush только в Kling 1.0.
Ну что, теперь Kling — король арены видеогенерации?
Подробнее и сравнения
@ai_newz
Если вам когда-либо было интересно, как получить мегакластер GPU, то вот вам подробный гайд от Ларри Эллисона, фаундера того самого Оракла. Челу 80, кстати, похоже, он всё-таки нашёл эликсир вечной молодости.
Ну так вот, записываем:
1) Приходим на ужин к Дженсену Хуангу.
2) Вместе с Маском умоляем Кожанку взять ваши миллиарды.
3) Поздравляю, если вам повезёт, то партию свеженьких GPU не задержат.
Теперь повторяем😂
Кроме шуток, Oracle – одна из немногих компаний, которая смогла заполучить контракт на более чем 100.000 видеокарт NVIDIA Blackwell (это GB200, например). Они уже строят огромный кластер, который заработает в первой половине 2025. А сбоку еще планируют пристроить 3 маленьких атомных реактора на ~1000 MW, чтобы все это дело запитывать электроэнергией.
Короче, если GPU - это новая нефть, то AI – это новый автомобиль.
@ai_newz
В гонке быстрого инференса новый участник
SambaNova запустили Llama 3.1: 405B на подтверждённой скорости в 132 токена в секунду, 70B - на скорости 461 токен в секунду и 8B - на скорости 1066 токенов в секунду. Это всё в bf16, без квантизации. На лидерборде Artificial Analysis у SambaNova точность 405B выше всех других провайдеров, но с моделями поменьше не всё так радужно.
Я потестил их инференс, скорость и правда очень высокая - у меня 405B выдавала от 110 до 124 токенов в секунду, что очень близко к заявленным числам. 8B доходила до 1100 токенов в секунду, а вот 70B, хоть и выдавала до 466 в секунду на пике (в твиттере стартап вообще заявлял скорость до 570 в секунду), но у части запросов скорость была аж в два раза меньше.
Цена 405B - $5/mt на вход и $10/mt на выход. Есть на рынке провайдеры и подешевле, но они все запускают модель с уменьшенной точностью.
API уже доступно разработчикам для теста. Бесплатно, но с очень низкими лимитами. Возможность платить за API добавят позже.
Попробовать можно тут
Предыдущий пост из серии про быстрый инференс: тык.
@ai_newz
Pixtral - 12B мультимодальная модель от Mistral
Моделька понимает картинки, пока есть только веса, никаких результатов бенчей или тестов нет. Скорее всего, она основана на NeMo - параметры конфига совпадают.
Конфиг:
{
"dim": 5120,
"n_layers": 40,
"head_dim": 128,
"hidden_dim": 14336,
"n_heads": 32,
"n_kv_heads": 8,
"rope_theta": 1000000000.0,
"norm_eps": 1e-05,
"vocab_size": 131072,
"vision_encoder": {
"hidden_size": 1024,
"num_channels": 3,
"image_size": 1024,
"patch_size": 16,
"rope_theta": 10000.0,
"intermediate_size": 4096,
"num_hidden_layers": 24,
"num_attention_heads": 16,
"image_token_id": 10
}
}
magnet:?xt=urn:btih:7278e625de2b1da598b23954c13933047126238a&dn=pixtral-12b-240910&tr=udp%3A%2F%http://2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%http://2Fopen.demonii.com%3A1337%2Fannounce&tr=http%3A%2F%http://2Ftracker.ipv6tracker.org%3A80%2Fannounce
Только технологии, только хардкор!
24 октября состоится IT-конференция от компании Cloud․ru, посвящённая облачным решениям и искусственному интеллекту в России — GoCloud Tech!
Что вас ждёт:
Четыре технологических направления:
1️⃣ Практические сценарии применения облачных решений.
2️⃣ «Внутренняя кухня» и особенности разработки облачных сервисов.
3️⃣ Развитие искусственного интеллекта и актуальные тренды в области Data Science в России.
4️⃣ Обзор новых сервисов и обновлений платформы.
Бонусный трек — Networking:
Открытые дискуссии о возможностях open source, преимуществах и сложностях миграции в облако.
Мастер-класс о том, как эффективно выстраивать нетворкинг и использовать контакты, полученные на конференции.
Демонстрационные зоны сервисов Cloud․ru Evolution:
Мы расскажем и покажем вам флагманскую платформу Cloud․ru Evolution и платформу для создания частного и гибридного облака Cloud․ru Evolution Stack.
Afterparty:
Вечеринка с диджеями и турниром по beer pong’у! Отличный способ расслабиться и пообщаться с сообществом. Знакомьтесь, обменивайтесь опытом и заводите полезные контакты. Гарантированы инсайты и атмосфера праздника.
Регистрируйся, чтобы не пропустить!
#промо
Turbo Alignment - файнтюны LLM для народа
Для создания продуктов на основе LLM готовые API часто не подходят. Причин для этого может быть море - как приватность, так и качество генерации. Маленькие затюненные модели часто обгоняют даже SOTA LLM по качеству, но непрофильные команды часто не могут затюнить модельки из-за отсутствия необходимой экспертизы. И хорошо если есть уже готовый пайплайн для каждого этапа работы над LLM в продуктах: SFT, preference tuning, инференс, анализ полученных моделей и др.
Я как раз заметил, что сегодня Т-Банк зарелизил либу Turbo Alignment - это библиотека специально для файнтюна уже готовых моделек с полезными фичами:
➖ Поддержка SFT, DPO, CPO, IPO, KTO и других оффлайн-методов алаймента
➖ Готовые end-to-end пайплайны для тюнинга без написания кода
➖ Multi-GPU и Multi-Node тренировка
➖ Обучение и инференс мультимодальных моделей и RAG
➖ Широкий набор метрик для анализа методов алаймента: Self-BLEU, KL-divergence, diversity и др.
Либа была создана с участием ребят из лаборатории T-Bank AI Research. Говорят, что с такой либой проверять продуктовые и исследовательские гипотезы получится намного быстрее, потому что разработчики библиотеки этот путь прошли на своем опыте уже немало раз. В будущем её ещё будут улучшать - обещают имплементацию RL методов.
https://github.com/turbo-llm/turbo-alignment
@ai_newz
Если любишь музыку и AI, то самое время залететь на хакатон XLabs AI, который пройдет с 2 по 17 ноября! (Это те, которые сделали первый IP-adapter для FLUX.1).
Цель — научить нейронку петь на русском языке по текстовому промпту, с потенциалом на другие языки.
Тебя ждут:
👉 Уникальная задача и 2 недели на разработку решения совместно с экспертами AI индустрии.
👉 Призовой фонд 2 миллиона рублей!
👉 Возможность стать сотрудником в передовой AI-лаборатории и выступить на международной конференции в Минске.
Скорее собирай команду до 5 человек или ищи будущих тиммейтов, которые готовы объединиться и победить в чате ✌️
Подай заявку до 1 ноября 23:59 и стань частью революции в мире музыки! 🔥
#промо
Нейродайджест за неделю (#39)
Нобелевская премия
- Нобелевка в физике machine learning. Впервые премию вручили за метод обратного распространения ошибки для тренировки нейросетей.
- AlphaFold. Вторая в истории "нобелевка" по AI за предсказание структуры белков.
Генеративные модели
- Pixtral-12B. Тех-репорт с подробным описанием архитектуры, полезно почитать.
- Midjourney Describe. Они очень старались спрятать эту кнопку на сайте, но я её нашёл. И немного мыслей про копирование стиля с референса.
- Imagine Flash. Запись моего доклада с Цюрихского AI+X саммита про то, как мы ускоряли наши диффузионные модели для картинок и видео.
Роботех
- Роботы-стриптизёры и машины без водительских мест. Учимся закатывать вечеринки у Илона Маска.
Career advancements
- Ищем ментора и как не быть кринжом на желанном созвоне. Рассказал о своем опыте поиска ментора и о том, как я смотрю на своих менти.
- 🚨Final call на интенсив. Через пару часов закрываю регистрацию. Спасибо всем, кто присоединился. Ну, а у остальных ещё есть последняя возможность ;)
> Читать дайджест #38
#дайджест
@ai_newz
Practical ML Conf 2024 – доклад об устройстве сервиса "Нейро" от Яндекса
Для поиска крайне важно, чтобы ответы LLM были основаны на фактах из поиска, а не на галлюцинациях. Яндекс - одна из немногих компаний, которые могут тренировать LLM специально для такой задачи, а не использовать готовую или чей-то API. Подверженность всех стадий тренировки одной цели позволяет добиться результатов заметно получше, о чём и рассказали в этом докладе.
Архитектура тут влияет на удивление сильно - простая замена Decoder-only на Encoder-Decoder повышает подтвержденность сильнее, чем масштабирование модели и контекста вместе взятые. Причина довольно простая - отсутствие треугольной маски аттеншна позволяет токенам получать информацию из всего контекста, а не только того, что перед ними, вот и модель лучше воспринимает инфу из контекста.
Подтвержденность - метрика, которая измеряет, как хорошо моделька понимает контекст, который передал ей поиск. Кроме этого замеряли полезность ответа. Без таких бенчмарков затачивать модельку под конкретные задачи крайне сложно.
Сбор датасета под такую задачу - отдельная головная боль. Подробный ответ на вопрос с нуля занимает у человека 4 часа, так что даже при большой команде редакторов это заняло треть длительности всего проекта. Решение - не начинать с нуля, сначала лучше использовать любую готовую LLM, а потом уже предрелизные версии собственной модели. Так вышло сократить время на один ответ в два раза - до двух часов.
А ещё оказалось, что в большой команде из-за разного стиля у редакторов модель учится стилям написания текста разными людьми, а не задаче, которой её пытаются научить. Поэтому пришлось вводить детальные гайдлайны для редакторов датасета чтобы снизить дисперсию, после чего модели стало сильно проще учиться.
Своя модель означает, что её нужно тюнить, и тут рассказали кучу нюансов - от казусов, где модель начала предупреждать об опасностях малинового варенья (из-за косточек). Дело в том, что при тюне модель за любое предостережение либо поощряли, либо ничего не делали, что модель прекрасно выучила и чем воспользовалась. Поэтому даже когда все метрики растут, очень важно смотреть на то, что модель выдаёт, а не только на красивый лосс.
Остальные доклады с конфы можно посмотреть здесь. Из интересного - там есть гайд как тюнить дифузионки на своих данных.
#промо
Нобелевка за нейронки
Нобелевскую премию по физике выиграли Джеффри Хинтон и Джон Хопфилд. Премию присудили за "Фундаментальные открытия и изобретения, которые способствуют машинному обучению с искусственными нейронными сетями". При чём здесь физика - сложно понять. Похоже, комитет просто пытался хоть куда-то приткнуть нейронки, а физика тут ближе всего. Хотя, по-моему, тут больше бы подошла даже медицина - там хотя бы AlphaFold совершил прорыв в чём-то, а с открытиями в области физики из-за нейронок как-то негусто.
Возможно, причина в том, что Хопфилд всё-таки по образованию физик. Хотя его основной вклад в науку - изобретение сетей Хопфилда, рекуррентных сетей, которые во многом положили начало возрождению нейронных сетей в 80-х и 90-х.
Хинтон изобрёл метод обратного распространения ошибки для тренировки нейронок, который позволил тренировать многослойные сети. А студенты Хинтона - Илья Суцкевер и Алекс Крижевский, создали AlexNet. Именно она начала всю эту гонку нейронок, показав, что их можно масштабировать через тренировку на GPU.
В общем, хайп по нейронкам теперь проник и в Нобелевский комитет.
@ai_newz
На этой неделе происходило так много всего, что я не успевал обо всем постить. Навёрстываем.
В четверг я уехал с ECCV, на день раньше официального окончания. Я спешил на другой ивент.
Как только вернулся из Милана назад в Цюрих, сразу нужно было идти выступать на другую крупную конференцию – AI+X саммит. Это конфа, которую организует ETH AI Center, и где представлены ведущие Цюрихское научные AI лабы, стартапы и компании.
Было много про Computer Vision и Robotics (чем Цюрих особенно славится), а также AI в медицине и финансах.
Я выступал с докладом "Imagine Flash": Meta's real-time text-to-image synthesis diffusion model" (пост про модель).
А затем меня пригласили на панельную дискуссию в треке Human-Centric Computing in the Age of AI Track. На панели также был Federico Tombari, Senior Staff Research Scientist из Цюрихского Гугла, и местные профессора.
Забавно что на панельной дискуссии со мной также сидел мой научный дед – Prof. Joachim Buhmann из ETH. В немецкоязычном научном мире есть такое понятие как Doktorvater (рус. Научный Отец) - это научник, у которого вы написали PhD. Так вот мой научник Björn Ommer писал диссер у Joachim Buhmann, поэтому Joachim получается моим научным дедом. Когда это выяснилось во время дискуссии, мы здорово посмеялись, что на конфе собралось наших 3 научных поколения, тем более Бьёрн в это время выступал в соседнем зале)
Но на этом насыщенная неделя не закончилась. Продолжение в следующем посте.
#personal #конфа
@ai_newz
Вот тут на Freepik можно в течение 24 часа генерить на Flux 1.1 [pro] бесплатно.
И, кажется, там пока нет никакой цензуры. На что только не идут ради хайпа (или просто забыли врубить фильтр?).
Бесплатно дают 5 генераций.
@ai_newz
Заснял как китайцы (unitree) показывают новую зверюгу на ECCV. Может и бегать, и ездить – удобно!
На нём человек может даже проехать верхом, робот выдерживает до 100 кг.
А внутри у него – видюха Nvidia Jetson Xavier NX, разработанная специально чтобы устанавливаться на роботов и всякие автономные давайсы.
Робопсом Спотом от Boston Dynamics уже никого не удивить, мы видим, что выходят все более и более навороченные зверюги.
#конфа
@ai_newz
Всем привет!
Недавно я анонсировал, что решил впервые провести менторинг-программу для всех желающих попасть на разные AI должности в топовые места, такие как FAANG, ну и не-FAANG:) Цель – поделиться своими знаниями и опытом, в том числе как человек который регулярно собеседует людей в Мету, и помочь мотивированным ребятам стать сильными кандидатами на такие роли как Data Scientist, ML Engineer, Research Engineer или Research Scientist.
Эта программа идеально вам подойдет, если:
1️⃣ Вы уже в IT и, например, software-инженер (или схожее), но хотите перейти в AI и понять как стать сильным кандидатом и успешно проходить собеседования.
2️⃣ Вы уже работаете на AI-related роли, но либо хотите попасть в топовые места следующего уровня как например FAANG+, либо хотите перейти на должность Research Scientist.
3️⃣ Вы студент в STEM и хотите попасть на стажировку в AI и понять как выстроить сильное резюме, портфолио, получить приглашения на интервью и успешно проходить их.
Эта программа не будет вам подходить, если:
1️⃣ Вы только начинаете свой путь/ свою карьеру в AI и только учитесь программировать и нет никакой ML-базы.
2️⃣ Вы ищете курс по теоретической базе в AI/ML.
3️⃣ Вы Staff+ AI специалист и хотите понять как запромоутиться на Senior Staff и выше.
Две недели, с 14 по 27 октября, мы будем плотно общаться в закрытом комьюнити, я буду отвечать на вопросы, а также проведу 4 live-стрима, где буду делиться опытом и лучшими практиками. На 2х из 4x стримов я проведу мок-интервью на разные темы (Coding и AI/ML Design) с разбором.
Группа уже формируется очень крутая (из тех, кто уже присоединился). Так что если вы хотите стать сильным кандидатом и успешно пройти на высокооплачиваемые AI роли в топ компании, например в FAANG, можно зарегаться на интенсив через бота @ai_newz_intensive_bot. Вступить в группу по Early-Bird цене можно до вторника.
Ну, а если вы студент, очень мотивированы, но интенсив вам не по карману - у вас есть возможность участвовать в charity программе и попасть на одно из трех бесплатных мест. Условия участия в конкурсе вы узнаете также в боте. Дедлайн участия 4.10.
По вопросам, в боте есть FAQ секция. А в крайнем случае всегда можете через него же написать свой вопрос.
Всем большой привет из Милана!
@ai_newz_intensive_bot
Протестил Kling Motion Brush
50 минут ожидания и о-па! Марик превращается в другого парня. Лица, конечно, знатно корёжатся. Но траектория с большего правильная получилась, кроме ног парня слева.
Ради справедливости, я пробовал оживить это фото в Luma, и он вообще отказался что-либо делать, просто слегка зазумил фотку.
Так что тут победа за Kling!
@ai_newz
Стрим про AI карьеру и собеседования через 2 часа, 17:30-18:30 CET (18:30-19:30 мск).
С самыми упорными, возможно, задержимся еще на полчаса, вопросов интересных поступило немало.
Ссылка на стрим: Streamyard
В начале разогрева ради – хиханьки, если не опоздаете, узнаете, кто ел в одной столовке с Яном ЛеКуном, кто сегодня спал днём, а кто работал всю ночь.
@ai_newz
Нейродайджест за неделю (#35)
LLM, гонки и клубника
- Гонка инференса Грок обогнал Cerebras, выдав >500 токенов/сек на Llama 70B.
- SambaNova. Еще один лидер, о котором раньше никто не слышал. Теперь у ребят самая быстрая лама 405B.
- Pixtral - 12B. Мультимодалка от Mistral теперь понимает картинки.
- OpenAI o1 или та самая Strawberry. Скейлить инференс комьют через CoT — похоже, всё, что нам осталось. Прайсинг, конечно, жестокий.
Генерация видео
- Runway зарелизила модель для генерации video2video. Смотрим примеры, и почему оно работает лучше чем text2video.
Гайды
- Визуализация LLM. Все мы визуаллернеры, так что представлять в голове какую-то конкретную картинку очень полезно.
- WebGPU puzzles. Оригинальный GPU Puzzles, но прямо в браузере. Кайфы, всё быстро и просто, идем ботать!
Всякое
- Разоблачаем AI-хапожоров или почему нужно читать проверенные источники.
- Преза Apple. "Главное" нововведение — это то, что в названии после 1 теперь не 5, а 6.
Интерактивчик!
- Стрим про карьеру и учебу. Поговорили про поступление в ЕС, PhD программу в Meta и еще кучу ништяков, кто не успел — тот опоздал. Жмякайте unmute :)
> Читать дайджест #34
#дайджест
@ai_newz
После предыдущего стрима про карьеру и учебу в AI мне в личку написало очень много людей со своими вопросами. Так как в личке всем развернуто ответить сложно, я решил провести еще один стрим на тему учебы в Европе и того, что нужно для роли AI Scientist / AI Engineer в FAANG.
📌 Стрим будет завтра (12 сентября) с 16:00 до 17:00 CET.
На этот раз я пригласил на стрим еще двух ребят (Настю и Никиту). Мы с ними обсудим учебу в Германии, Франции и Великобритании и наш опыт из первых рук.
Настя училась на бакалавриате и в магистратуре в Karlsruhe Institute of Technology (KIT) в Германии. Никита учился в магистратуре École Polytechnique во Франции, и на PhD в Лондоне на совместной программе между Meta и Oxford University. Ну, а про меня вы знаете.
Темы стрима:
- Поговорим про различные роли в AI: Research Scientist, Research Engineer, ML Engineer, Data Scientist. Чем они отличаются, и что для них нужно знать и уметь.
- Про PhD, магистратуру и бакалавриат в разных странах Европы и чем они отличаются.
- Про PhD программу внутри Meta в Лондоне и Париже, и как туда попасть студенту.
- Про собеседования и поиск работы в AI.
Как всегда, пишите в комментах свои вопросы, в конце стрима я отвечу на самые интересные.
Сохраняйте дату себе в календарь: инвайт.
Увидимся завтра!
@ai_newz
Нейродайджест за неделю (#34)
GPU
- Colossus XAI. Мегачад Маск уже запустил свой крупнейший кластер GPU для тренировки.
- GPU кластер на 10 гигаватт. Да сразу два! Это в 50 раз больше Colossus'а от Маска.
Агенты/роботы
- DEEP Robotics. Зашуганные робопёсики кидаются в сторону от вида людей.
- Код для AI игр. Проект Starlightlabs закрыли и выложили все наработки в open source. Пользуем!
- Цивилизация машин в Майнкрафте. AI агенты построили свой новый дивный мир.
LLM
- DeepSeek V2.5. Детище DeepSeek V2 и DeepSeek Coder V2 даёт результаты.
- Коротко о flash attention. Ну а в чём я неправ?
Личные истории
- Красавчик на собеседовании. Люблю, когда приходят подготовленными.
Прочее
- Калифорнийские регуляторы наступают. Законопроект прошёл ассамблею. Конечно, есть правки в правильном направлении, но это всё ещё жесть.
- Золотой Суцкевер. МУЖЧИНА таки привлёк свой миллиард на бесприбыльный стартап.
- Хата айтишника из FAANG. У кого так же?
- Топ самых влиятельных людей в AI от Times. Саааамый авторитетный и саааамый неподкупный.
> Читать дайджест #33
#дайджест
@ai_newz