Мои мысли про стартапы и продукты. Байрам Аннаков, фаундер and CEO onsa.ai - автоматизация B2B продаж Мой YouTube: https://www.youtube.com/BaykaAnnakov Мой LinkedIn: https://linkedin.com/in/bayramannakov
"Enterprise does not need a model, Enterprise needs an outcome"
Это слова Аарона Леви, CEO Box из свежего подкаста YC. Вообще, мне часто в последнее время доводится и говорить, и размышлять на тему. Безусловно, в b2b легче обьяснить, как защититься от того, что разработчики LLM просто добавят вашу фичу нативно в модель или в свой продукт: вам надо интегрироваться с B2B системами, продуктами, регулированием. Для b2c же часто ответ вида - слишком нишевая, читай <1B, аудитория (frequent flyers) или слишком высокие риски для репутации (character.ai).
Но, делая продукты в b2b, я вижу еще 3 важных критерия для b2b продуктов - приведу их в метафоре промптинга моделей:
1) унификация - вся компания должна промптить одинаково
2) адаптация - все промпты должны иметь единый и правильный контекст
3) контроль - контроль как за аутпутом моделей для последующего улучшения этого же аутпута, так и с точки зрения его использования для взаимодействия с внешней средой. Контроль даунсайда и владение апсайдом
Руководители бизнеса не хотят, чтобы каждый сотрудник по своему промптил chatgpt на стиль и контент сообщений
Руководители бизнеса не хотят, чтобы недоступность/забывчивость какой-то важной инфы для заданного сотрудника снижала качество общей выдачи компании
Руководители бизнеса не хотят, чтобы результаты аутпута модели неконтролируемо просачивались во внешнюю среду: как с точки зрения бренд соображений, так и конкуренции.
Поэтому, как Аарон и говорит, думать об угрозе со стороны openai/anthropic/etc проще в режиме b2b, чем b2c. На школе фаундеров я призываю b2c участников хотя бы допустить мысль о точке в пространстве b2b, поразмышлять в стиле "что если", чем бросаться сразу пилить. Потому что есть важный закон систем:
"Информация появляется в сравнении"
Посмотрите на это фото внимательно: что на нем происходит? Что будет или может произойти? А что если вы - водитель автомобиля? А если собака была бы на поводке у мужчины, а не женщины?
Моя любимая Мелани Митчелл написала классную 2х серийную статью про один из центральных споров в LLM: формируют ли LLMки внутреннюю модель мира (как мы при взгляде на фото выше), помогающие нам прогнозировать ситуацию на более скомпрессированном, абстрактном и энергетически-эффективном уровне, или они просто, благодаря безумному количеству параметров, запоминают эвристики/правила, но не формируют реальной картины мира.
Лагерь ML ресерчеров разделился практически 50/50: одни утверждают, что да, формируют (Илья Суцкевер, например), другие - обратное (Ян ЛеКунн из Meta).
Tldr: пока, кажется, это лишь набор эвристик. Почитайте обязательно, чтобы лучше понимать, чего стоит ожидать от LLM и чего - нет. Например, если это большая коллекция запомнившихся эвристик, то не стоит ожидать оригинальных решений от нее (говорил недавно на этом выступлении).
Мое мнение:
1) что можно дропнуть пункт про энергетическую эффективность пока
2) что есть миллиард ситуаций, где большая коллекция эвристик - уже более чем достаточно для эффективной замены человеческого труда и на этом нам, практикам, пока надо сфокусироваться
3) надо управлять ожиданиями (в первую очередь, своими!) о том, чего ожидать от LLM.
Мое недавнее выступление в Алматы: "GenAI - State of the Union", где я говорил про то, что уже возможно благодаря GenAI и что нас ждёт в ближайшие годы, а также почему агентское поведение (агентность) - ключевой навык в эру, когда у каждого будут миллионы PhD в загашнике.
Более детальные таймкоды:
00:00 - интро
02:02 - xrai glass
04:15 - Gartner Hype Cycle
08:36 - AI news
09:09 - Platform Shift
10:56 - кривая производственных возможностей
17:38 - IQ test results
25:30 - AI пишет код
31:52 - AI видео
36:46 - роботы
39:14 - AI исследования
45:30 - Automation vs Augьentation
50:59 - Future of Work
53:30 - AI агенты
Enjoy и спасибо коллегами из Most IT Hub за то, что захостили! Хотели митап, а получится - Митап :-)
P.S. презентация тут
3 наблюдения про AI экономику
Сэм Альтман поделился 3мя наблюдениями об экономике AI:
1) Интеллект модели примерно равен логарифму ресурсов, затрачиваемых на его тренировку и выполнение - я, если честно, до конца не догнал. Мне понятен стейтмен а ля пропорционален, но почему логарифм? В чем измеряются ресурсы и интеллект?
2) Каждые 12 мес цена падает в 10 раз - я писал про это раньше: надо закладывать это в ваш бизнес и спокойно делать дорогие операции, понимая что к моменту выхода в продакшн и скейлинга, цена уже станет адекватной. И учитывайте в ценообразовании, разумеется
3) Социально-экономическая ценность линейно растущих способностей ИИ - суперэкспоненциальна. Поэтому выгодно экспоненциально инвестировать в его развитие.
Далее он рассуждает про, как раз, coding агента. Скажу честно, когда Сэм тизерил в ближайшее время их первого агента, в твиттере я предположил, что это будет coding, но оказалось deep research. Но я жду :-)
И было очень приятно читать про важность agency и желания что-то менять, имея в армии миллионы PhD —> именно про это в воскресенье я говорил на лекции в Алматы. Скоро выложу видео
YC конфа
В июне YCombinator устраивает конференцию: участие бесплатное, но нужно пройти отбор. Это исключительно для computer science людей, так что если вы таковой, то смело подавайтесь. Будет Илон, Сэм, Карпатый, Наделла и другие топовые чуваки
https://events.ycombinator.com/ai-sus
Кстати, даже оплачивают $500 на билет
Voice Агенты
Отличный обзор voice агентов от a16z, де факто продолжение этой статьи.
Мне особо зашла картинка эта про основные юзкейсы:
1) обработка звонков в нерабочее время
2) звонки, которые не делаются, по экономическим причинам
3) бекофис звонки
4) звонки, которые «стремно» делать :-))
Митап в Алматы
Я буду в Алматы в конце недели: добавляйтесь в эту группу, кто хочет встретиться - можем сделать небольшой митап в воскресенье 9го февраля
OpenAI Deep Research
Я выше писал про Gemini Deep Research, вот и ответ OpenAI с таким же названием o__O
Попробовал на той же задаче с конкурентным анализом + на задаче поиска subscription бизнесов, о которой также писал недавно - мои впечатления:
1) В Google мне понравилось, что перед стартом он показывает план ресерча и позволяет тебе скорректировать. OpenAI же этого не делает, но уточняет детали: а ля бизнесы в какой локации искать или по какому аспекту сравнивать конкурентов.
2) Я понимаю все про загрузку и тп, но у Google все работало гораздо быстрее и без ограничений а-ля "ваш ресерч поставлен в очередь"
3) Результат OpenAI мне очень понравился, вышло сильно глубже и качественнее, чем Gemini. Думаю, что это потому что он реально "прочитывает" страницы. Google наверняка берет из своего индекса. Правда, при экспорте в CSV он почему-то потерял 2/3 результатов по задаче с поиском бизнесов, ну это проблема уже не DeepResearch. Конечно, экспорт у Gemini сразу в Google Docs сильно удобнее
4) Gemini быстрее решал такие же задачи раза в 3-4, но, опять же, возможно из за пункта про "прочитывание".
В общем, это хорошо, но не вау имхо. Все это в той или иной степени уже было у конкурентов или open source; даже в o3-mini + web search можно было получить схожие результаты
Сизифово счастье
Камю как-то сказал, что Сизифа следует представлять счастливым. Вы наверное помните про Сизифа, который катит в гору тяжелый камень, который, едва достигнув вершины, скатывался вниз. Мне предпринимательство порой представляется таким же.
И я заметил, что многие вокруг считают Сизифа несчастливым или сумасшедшим: близкие и не очень люди. Пытаются помочь, перенаправить, убедить делать другое, пожалеть.
Хотя, может, как завещал Камю, нам просто следует считать Сизифа фаундера счастливым?!
Неожиданно о дешевом искусственном интеллекте
Неожиданный кейс: допустим, вы автоматизируете LinkedIn-рассылку, а у человека в имени указана англоязычная версия (например, "Heng (Henry)"), произношение ("Burcu (Bur-ju)") или даже эмодзи (да, некоторые реально используют эмодзи в имени на LinkedIn).
Дешёвые модели могут легко исправить это с помощью простого промпта:
Given the prospect's first name from LinkedIn profile, return the most appropriate name to use in a message. If the name is not clear, return the first name only. Return only the name, no other text. First name: {name}
3 года. От идеи до запуска прошло 3 чОртовых года. 2 войны, переезд и куча других приключений.
WIP is a community-driven recruitment platform that minimizes hiring time and errors using the unique blend of Web3-tech, behavioral and monetary incentives for companies & talents.
С промокодом EDU20 скидка $80 на оплату stake.
Приколы LLM программирования
Меня иногда так бесит писать всякие if <api result> is None и тп подобные обороты, чтобы защищаться от неверных или неполных ответов всяких апишек. Сегодня поймал себя на таком: вместо того, чтобы вновь писать генерить все эти проверки и потом безопасно проверять значение ответа на какое-то условие (например, индекс цитирования больше определенного значения) я просто отправляю это в R1 и прошу ее просто сразу дать ответ про индекс. Код становится таким чистым и простым.
Даже не знаю, к добру это или нет, но мне понравилось :)
response = client.chat.completions.create(Читать полностью…
model=DEEPSEEK_R1_MODEL,
messages=[{"role": "user", "content": f"Is researcher's Google Scholar h-1 index over 10 or not? Respond with 'Yes' or 'No'. Researcher's Google Scholar profile: {researcher_profile}"}],
max_tokens=10,
)
Видео-отзыв одного из участников - Айбека - про его опыт прохождения школы фаундера
1) Value vs Price vs Cost
2) Jobs to be done
3) Не бояться запускаться
4) Сначала продавать
5) Не придумывать, а учиться у пользователей, что им нужно
Если вы тоже на этапе запуска или уже есть первый traction, то присоединяйтесь к 3му потоку
Приятно, когда автор твоей любимой рассылки про AI, упоминает тебя в очередном выпуске рассылки
https://open.substack.com/pub/thezvi/p/on-deepseeks-r1?r=1p7cww&utm_medium=ios
О результатах и отсутствии оных
Интересное наблюдение: чем опытнее руководитель, тем больше он думает в терминах «обьем нового знания на затраты денег/времени» вместо просто «где результат?». Поэтому для него отсутствие результата это тоже результат, если из него сделаны выводы и намечены дальнейшие эксперименты.
Это не значит, что результат не важен, я не об этом. Я о своей «джуниорской» позиции, что лишь позитивный результат - это хорошо для заданной деятельности.
Интересная мысль-аналогия из подкаста 25 years at Google - ушел думать
Когда вы покупаете книгу, вы платите около бакса за 10 тыс токенов, с LLM же за ту же сумму вы получаете 1млн токеновЧитать полностью…
Поэтому главный вопрос: можем ли мы сделать LLM настолько умной, чтобы в пересчете на 1000 токенов мы были готовы платить в 100 раз больше, как за книгу, или в тысячи раз больше - как за программиста
В июне прошлого года я рассказывал про отчет Situational Awareness - решили выложить запись той встречи. Думаю, что вам будет интересно посмотреть/пересмотреть: удивительно, как сбываются некоторые предсказания и про наращивание компьюта (stargate + анонсы инвестиций от гиперскейлеров), и про алгоритмические прорывы (deepseek), и про unhobbling (reasoning модели)
https://youtu.be/2phugrQKors
enjoy, like & share :-)
Экономический индекс Anthropic
Прикольную тему анонсировал Anthropic: свой экономический индекс. Это такой индикатор эффекта внедрения LLM в экономику и на рынок труда по мотивам задач, для которых юзают модельки Anthropic.
Наиболее популярные, ожидаемо, задачи кодинга. Далее редактирование отчетов/докладов/ресерчей. Потом редактирование текстов/надписей. Может потенциально стать источником идей продуктов, но для этого надо глубже изучить, я покопаю на этих или следующих выходных
Вспомнил сегодня историю: уроки пения в школе. Учитель мне поставила 5 за куплет из какой то песни. В следующий урок она попросила меня перепеть и поставила 2. Я допускаю, что я мог за неделю серьезно «просесть»… но я то сам знал, что нет.
Я тогда очень ярко почувствовал субьективность оценок. И, конечно, опасную важность фидбека учителя.
Сейчас поем с друзьями в караоке и я понимаю, что та ситуация до сих пор во мне. Но, что я хотел бы: чтобы нам попадалось меньше таких «фидбеков», что мы получали, и давали фидбеки, что развивают, а не стагнируют; что вдохновляют, а не останавливают; что делают тепло, а не смущение.
Давайте будем внимательнее и не забывать, что контекст и условия достаточно сильно влияют на ВОСПРИЯТИЕ результата
Отличный read от «старины» O’Reilly про то, почему программисты будут нужны еще больше:
https://www.oreilly.com/radar/the-end-of-programming-as-we-know-it/
Не знал про CHOP - chat-oriented programming :-)
В прошлом году не удалось, но в этом поступил на Network School v2 - рекомендую всем, кто хочет создать/создаёт свое сообщество
Очень рад! Надеюсь, увижусь с кем-то из вас там в марте!
Гибкие Продукты
Я уже писал, что по моим ощущениям происходит огромный сдвиг в разработке продуктов: от детерминированного описания и поддержки юз-кейсов мы переходим к гибким llm-managed продуктам, которые «налету» могут поддержать юзкейс или edge case, который мы не закладывали или о котором даже знать не знали.
Например, недавно был шокирован тем, как модель решила, что зарплата человека не указана в linkedin, но он работает на определенной позиции в Швейцарии, а зарплаты этих людей публикуются в специальном реестре, поэтому она сходит туда и получит примерную вилку зп. Разумеется, я ни о чем таком ее не просил в явном виде.
И это все меня приводит к нескольким мыслям:
1) традиционно продакт менеджер продумывает юзкейсы, принимает решения, какие из них поддерживать, а какие можно проигнорировать, так как это усложнит продукт и/или он о них даже не знает. О тех, что не знает, он учится на фидбеке от юзеров, и вновь принимает решение, что войдет в продукт, а что - нет.
2) теперь же выходит, что мы как продакты скорее будем описывать бизнес-область продукта, очерчивать доступные инструменты модели, критерии принятия решения, поднимаясь по уровням абстракции. Мы скорее CEO, чем линейный менеджер или исполнитель. Как это правильно делать - нам еще предстоит понять и научиться
3) продукты будут более гибкими, поэтому имхо их будет становиться меньше, а поддерживаемых юзкейсов - больше. Причем именно длинный хвост юзкейсов. Ведь классически происходило так, что есть «широкие» продукты, удовлетворяющие основные юзкейсы широких масс людей, и «узкие» - сфокусированные на edge case-ах, но для аудитории, готовой за это достаточно платить. Теперь же, с этими «финтами ушами», когда налету поддерживается юзкейс, «широкие» продукты смогут относительно «дешево» прорастать вглубь.
4) Дистрибуция будет играть еще более важную роль. Я опасаюсь, что мест на рынке будет все меньше, а «power law» продуктов будет еще более выраженным.
М?
o3-mini
Мне выкатили o3-mini —> удивительно, но оно хуже на вот таком таске:
1) у нас есть транскрипт разговора, где выявлены спикеры (диаризация), но мы не знаем кто есть кто
2) у нас отдельно есть список людей, что были на звонке, но не все они обязательно говорили
3) надо заматчить спикеров с участниками звонка
o1 на этой задаче выдал более верный результат. Погоняю на других тасках, когда появится в API
А вот и свежий список идей стартапов от YC и Conviction:
1) YC - из интересного: AI App Store, AI Personal Staff, Browser & Computer Automation, ну и, разумеется, Vertical Agents. что прикольно, что на этот раз они по каждому блоку сняли небольшой ролик. Вот, например, про App Store
2) Conviction - очень зашла мысль про "Just Go Live", даже обсужали ее во внутреннем чатике, 3D генерация, и идея про выкуп бизнесов и замену людей AI тулами, о которой писал ранее.
В общем, выбирайте понравившееся и just go live :)
Pete на днях читал в Гарвардской школе бизнеса лекцию про фаундер продажи.
Вот презентация: https://docs.google.com/presentation/d/1XE1yuEAqdiLPntkLnSKnSNXNOvNUidZuP3QGx_-ejMs/edit#slide=id.g2022411f57_0_19
Первые продажи
Еще один видео-отрывок из школы фаундера - про первые продажи:
00:00 - интро
00:45 - первые пользователи App in the Air
04:47 - главное про запуск
06:10 - первые пользователи RuBeacon
10:24 - первые пользователи onsa.ai
11:50 - первые продажи вручную
12:35 - барьеры в процессе продаж
13:01 - "делай то, что не масштабируется"
16:22 - основы продаж
17:30 - главное уравнение стартапа
29:42 - чем управляем полностью, а на что можем влиять
31:54 - ваша цена = их затраты + доп затраты
37:18 - продукт vs ценность
40:34 - цена = 30-50% * ценности
45:50 - динамика ценности vs стоимости
Присоединяйтесь к 3му потоку, если отзовётся содержание. Стартуем 8 февраля
Тестим ChatGPT Operator
Вы наверное помните хакатон, как мы делали computer use агента для тестирования. Решил протестировать вышедший сегодня chatGPT Operator на задачке генерации мемо на нашем сайте - ну он практически молодец! в конце запутался с табами, но тем не менее
zero shot, ничему не учил, сайт наш, то есть навряд ли был в тренинге у них или еще чего такого
молодцы OpenAI! С нетерпением жду API
P.S. Пишите в комментах, если хотите, чтобы попробовал другой таск
Не перестаю восхищаться этим подходом с o1 - планирует, а 4o/mini - выполняет план. На днях еще попробую и DeepSeek R1 для этого, но взгляните на план по поиску subscription ecommerce бизнесов для одного из клиентов:
-------------------------------------------------------------------------------Читать полностью…
PLAN:
-------------------------------------------------------------------------------
1) Use "seed" companies to discover similar businesses
• Since we already have examples (<redacted: list of customer's customers>), we will use them as “seed” companies.
• For each seed company, examine their domain and use find_similar_companies_exa(domain, num_results) to find companies that match or resemble their business model.
2) Gather a broad list of potential subscription-based companies
• Perform robust Google queries (search_google) with keywords such as:
- “subscription-based ecommerce companies”
- “direct-to-consumer subscriptions physical products”
- “DTC subscription box companies”
• Similarly, use search_exa(query, num_results) to find more companies that mention “subscription box,” “subscription service,” and other related terms.
3) Capture company details to confirm they meet the criteria
• From search results, collect potential company LinkedIn URLs.
• For each LinkedIn URL, use get_company_info(company_linkedin_url) to retrieve company size, industry, headquarters, and other metadata.
4) Filter companies based on the project’s criteria
a) Must have a subscription-based revenue model
• Verify by checking company descriptions or known business type (e.g., listing or press mentions of subscriptions, repeated purchases, etc.).
b) Must sell physical products
• Confirm via company website or LinkedIn descriptions indicating product shipments, physical goods, etc.
c) Must be direct-to-consumer (DTC)
• Confirm from descriptions, press news, or LinkedIn.
d) Must have 50+ employees
• Based on data from get_company_info to confirm current LinkedIn-reported headcount is ≥50.
5) Expand from each valid lead
• For every validated company that meets the criteria, again use find_similar_companies_exa with its domain to discover more similar businesses.
• Continue until you reach or exceed a pool of 500 potential companies.
6) Final verification
• Re-check any questionable records for headcount or DTC/subscription business model to ensure they meet the 50+ employee threshold and that they truly offer a subscription for physical goods.
7) Write the results to a CSV
• Once you have a final list of valid companies, call write_to_csv(companies) to save them, providing relevant fields such as:
- Company name
- Domain/website
- LinkedIn URL
- Employee count
- Validated subscription-based indicator
8) Print the information and confirm completion
• After writing to CSV, print or display the final list of companies (or a summary) for review.
• Finally, call instructions_complete() once all steps are done and the CSV is saved.