productsandstartups | Неотсортированное

Telegram-канал productsandstartups - EDU

10690

Мои мысли про стартапы и продукты. Байрам Аннаков, фаундер and CEO onsa.ai - автоматизация B2B продаж Мой YouTube: https://www.youtube.com/BaykaAnnakov Мой LinkedIn: https://linkedin.com/in/bayramannakov

Подписаться на канал

EDU

Порой команды, которые делают GenAI приложения жалуются, что при использовании какого-то фреймворка LLM стала выдавать какие-то странные результаты, фреймворк сам дописывает промпты, и ломает всё; при прямой работе в playground (как я советовал выше) - все работает идеально. Но и как бы выгоды от фреймворка не хочется терять (память, например)

Один самый эффективный способ - перехватывать запросы, улетающие в LLM, и чекать, что же там происходит. Я вот до сих пор не понимаю, почему у openai/anthropic и иже с ними нет раздела logs, где можно все это смотреть. Пока у них не дошли до этого руки, делаем так, как описано в этой статье

Читать полностью…

EDU

Полгода назад мы запустили MindShare. Некоторые из вас также знают, что я планирую открыть свой университет и что EDU, название этого канала, расшифровывается как Empatika Decentralized University. Пришло время сделать следующий шаг - MVP университета.

Что это будет?
За эти полгода я провел почти 200 консультаций и десятки стримов на темы вокруг стартапов, продаж, партнерств, AI, метрик, управления продуктом и командой, тестов рынка, работы CEO, найма и управления персоналом, системного мышления и принятия решений. Пора сделать это в более системном виде, поэтому запускаю школу фаундера. Школа для фаундеров технологических стартапов на этапе от 0 до $1M.

Как это будет?
Я писал про 3E подход: что для развития навыков необходима комбинация опыта, образования и общения с экспертами, именно в таком стиле будет эта школа.

1. Мы начнем с ассессмента: персонально с каждым участником школы проведем часовую встречу, чтобы понять цели и задачи, а также текущий уровень понимания и опыта создания компаний. Это позволит задизайнить персональный план развития (PDP) для каждого, который будет состоять из этих 3E.

2. В соответствии с общими темами индивидуальных планов будут проходить групповые встречи: 1 встреча каждые 2 недели. На эти встречи я в том числе буду приглашать друзей-экспертов в заданной теме.

3. Помимо групповых, будут индивидуальные встречи, где 1:1 со мной мы будем обсуждать ваш прогресс, планы на следующие 2 недели, отвечать на вопросы, и подкручивать контент групповых встреч, когда вижу общие темы или вопросы.

4. Я заметил, что порой самые интересные разговоры проходят вне лекций и конференций - поэтому у нас будет формат зум-бара, где в непринужденной обстановке мы будем пить чай-вино-кофе и обсуждать происходящее в мире бизнеса и технологий.

Продолжительность: всей программы - 3 месяца; надо рассчитывать на минимальную занятость в 8 часов в неделю. Групповые встречи будут проходить по субботам с 16 до 18мск, индивидуальные - будем согласовывать персонально. Групповые встречи будут записываться и доступны всем участникам; индивидуальные - по желанию.

Зачем и для кого это?
Для фаундеров стартапов на этапе от 0 до $1M годовой выручки или 1M пользователей. Чтобы быстрее развивать свой стартап и продукт, и выиграть время, не совершая распространенные ошибки.
Для тех, кому важен взгляд со стороны людей, которые been there, done that и кто ощущает потребность в общении с другими фаундерами, сталкивающими с теми же задачами и трудностями на своем пути.
Для тех, кто давно уже хочет сделать свой стартап, но как-то не решался или не хватало мотивации. Идеальный вариант для заплыва в 3 месяца :)

Когда это будет?
Мы начнем с 13го июля и школа продлится до середины октября. Участие в школе возможно только с самого начала, поскольку assessment - очень важный шаг.

Сколько это будет стоить?
$1000, есть возможность оплаты помесячно (400 + 300 + 300); при оплате сразу за 3 месяца -$900. Если в ходе ассесмента я пойму, что не смогу помочь, то вернем деньги

Здесь можно оплатить за первый месяц или за всю школу сразу

В комментариях к этому посту опубликую несколько отзывов клиентов, которые берут у меня регулярные консультации.

Читать полностью…

EDU

Очень полезная серия статей про уроки разработки LLM приложений.

Вкратце ключевые мысли ниже:
1) Начинать с промптов - я писал про это как раз в посте про опытного и неопытного продакта
2) Структурировать входные и выходные данные - оборачиваем данные в markup или xml теги
3) Разбивать большие промпты на маленькие - разделяй и властвуй
4) Читать итоговые промпты, улетающие в LLM, чтобы убирать лишнее, повторения и улучшить форматирование - например, заюзав langfuse или другой подобный инструмент для логирования запросов и ответов от LLM
5) Использовать RAG, внимательно отслеживать как находятся документы, юзать поиск по ключевым словам или полнотекстовый поиск как бенчмарк или пред-поиск
6) Лучше RAG, чем finetuning, когда данные обновляются часто
7) Кэширование - на забывать кэшировать, в том числе используя семантический кэш, i.e. кэшируем не точное совпадение, а смысловую схожесть. Например, “что ты умеешь” и “расскажи что ты умеешь” это по смыслу один из тот же запрос
😍 4 полезных вопроса для работы над LLM продуктами - и ответы на них во второй части этой серии:
- данные: как часто просматривать входные/выходные данные LLM? например, следить за различиями между тестовыми и продакшн данными
- модели: как обеспечить версионность моделей и миграцию между версиями? --> понравился рефраз закона Postel-а: будьти либеральны к тому, что вы принимаете на вход, и консервативны - к выходным данным, i.e. используйте structured outputs; и хорошие предупреждения по поводу нелегкости миграции промптов между моделями
- дизайн: как должен выглядеть дизайн? (как раз на днях было полезное по теме)
- люди: кого и когда нанимать?
9) Ну и в третьей части много полезных советов а-ля “не надо покупать GPU до product-market fit”, когда стоит тренировать или хостить свою модель (build vs buy), график падения стоимости инференса

Кстати, завтра будет евент от авторов этой серии

P.S. А я сделаю апдейт всего, что происходит в Generative AI, включая наш опыт разработки и мой - консультирования и обучения - в это воскресенье

Читать полностью…

EDU

С Толей поразгоняем про b2b продажи + AI --> в эту пятницу, детали в посте ниже. до встречи!

Читать полностью…

EDU

В марте я проводил встречу по Generative AI, но кажется, что прошла уже вечность. Поэтому пора делать апдейт.

В частности и особенно про:
1) Нашумевший отчет "Situational Awareness": про AGI & SGI, про unhobbling, перспективы лабораторий, гонку вооружений, и мое мнение по всему этому
2) Alignment - в прошлой встрече я мало уделил времени этому топику, поэтому исправляюсь
3) Кто и что анонсировал за это время: новые подходы, модели, публикации, возможности и проблемы, мифы и реальность
4) Уроки и инсайты разработки своего и консультирования чужих Generative AI стартапов
5) Пропасть разочарования в GenAI? Смотрим на бизнес-кейсы
6) AI x Crypto - мои мысли по теме
7) Чего ожидать в следующие 3 месяца?

Когда?
В это воскресенье 23 июня с 16 по 18мск. Как обычно - билеты покупаем тут, запись и презентация будут доступны, если не сможете подключиться.

В качестве тизера прикладываю презентацию с прошлой встречи.

Читать полностью…

EDU

Если вы делаете агента, который работает с визуальной информацией, то посмотрите этот репо от landing.ai (Andrew Ng).

Vision Agent is a library that helps you utilize agent frameworks to generate code to solve your vision task. Many current vision problems can easily take hours or days to solve, you need to find the right model, figure out how to use it and program it to accomplish the task you want. Vision Agent aims to provide an in-seconds experience by allowing users to describe their problem in text and have the agent framework generate code to solve the task for them. Check out our discord for updates and roadmaps!


Попробовать можно тут: https://va.landing.ai/

Читать полностью…

EDU

На стримах про школы экономики (1, 2) я рассказывал про Cantillon Effect - что при эмиссии денег инфляция имеет неравномерный эффект: для тех, кто близок к эмиссии (например, бюджетники), эта инфляция не так заметна в краткосрочном периоде, цены не успели отреагировать на повышенное предложение денег.

Вчера на прогулке слушал про Кантиллона и его идеи (оказывается, он ирландец, а не француз, как я думал), и почему-то всплыл недавний вопрос друга про тапалки а-ля notcoin, которые популярны в Телеге в последние несколько месяцев. И почему-то подумал, что вот там похожий эффект: те, кто находится у начала эмиссии, имеют больше возможностей для прибыли. Очень напоминает классическую пирамиду.

Читать полностью…

EDU

a16z запустили ресурс про ценообразование для growth stage стартапов:
1) про usage based pricing - как раз вчера обсуждали с фаундером b2b приложения эту тему. У его конкурентов usage based pricing, а у него нет и он видит, что некоторые abuse-ят. Придумали как с помощью аналитики и простых экспериментов можно проверить гипотезу
2) понравилось правило, что usage based ценообразование лучше всего для кейсов, когда конечный юзер - программа (software), а не человек. Когда человек - лучше работает подписка.

Подробнее тут:
https://a16z.com/pricing-packaging/

Читать полностью…

EDU

GenAI в Корпорации

Некоторые из вас знают моего близкого Друга и CTO в Vista (частная авиация) - Мишу Кирсанова: он был в гостях на школе GenAI разработчика и иногда заглядывает на наши EDU встречи. Пришло время и ему выступить

О чем будет стрим?
В этом канале я часто пишу про GenAI с позиции стартапа и небольшой компании, а каково это внедрять это в корпорации с тысячами людей и миллиардами долларов оборота? Вот про это Миша и будет вещать.

- Vista @ 5000 сотрудников и 200 разработчиков ПО
- Историческая перспектива: команды AI/ML
- Ноябрь 2023 - момент, когда все начало меняться
- Путь трансформации разработки - семинары и хакатоны
- Путь внедрения в бизнес - презентации, поиск союзников
- Внешние платформы, текущие и будущие

Когда?
В следующее воскресенье, 16 июня с 16 по 18мск. Стартовая стоимость $20, растет на $5 каждый день - покупаем билет тут.
Если не сможете участвовать очно, то получите запись и материалы.

До встречи!

Читать полностью…

EDU

Я как-то уже писал, что важен не план, а процесс планирования. Так называемый proof of thought - что вы действительно подумали над тем, над чем должны были подумать. По мере проникновения LLM в наши рабочие процессы, велик соблазн аутсорсить важные мыслительные активности ей. Самый большой риск - как раз лишить себя пользы от этого процесса. Прося chatgpt сгенерировать план для проекта, который мы стартуем, мы не уделяем должного внимания этапам в этой плане, они не остаются на подкорке, не триггерятся вовремя, не направляют наше внимание по мере выполнения проекта.

Поэтому я придерживаюсь такого подхода:
1) Сначала набрасываем план/структуру сами.
2) Просим нашего друга (chatgpt) проревьюить и указать на то, что мы забыли/упустили
3) Просим второго друга (claude) покритиковать этот план
4) Делаем zoom out, проверяем не ушли ли мы слишком вглубь, благодаря path dependence LLM-ок

Мы сейчас делаем один проект, и я сегодня на прогулке понял, что надо пойти дальше. Надо скормить LLMке текущий план vs факт по этому проекту, и попросить ее
1) дать свое заключение, насколько реалистичны эти планы
2) обьяснить, почему мы не успеем вовремя сделать какой-то milestone и что можно сделать, чтобы успеть
3) предложить обновленный план

Я это сделал и словил парочку инсайтов, которые на ближайшем статус митинге намерен обсудить с командой. Тоже самое можно и нужно попробовать и с другими планами. Например, планом продаж 🙂

Кстати, а как проверить, что ваш коллега подумал над планом, что прислал вам?

Читать полностью…

EDU

Ретеншн бенчмарки

В недавней статье, посвященной 10 годам гроусхакинга (кстати, забавно, но вот одно из моих первых выступлений по теме), Andrew Chen запостил легендарную картинку Flurry про ретеншн и частоту использования разных приложений. Помню, что к ней еще были рекомендации по монетизации: а-ля одноразовые аппы с низким ретеншном надо делать paid, а частотные и с высоким ретеншном - зарабатывать на рекламе.

Рекомендую использовать как бенчмарки, ведь

Информация возникает, когда есть сравнение


P.S. Если захотите погенерить про монетизацию или гроусхакинг - welcome

Читать полностью…

EDU

AI тренды в стартапах YCombinator

Недавно Garry Tan, президент YC, был в гостях у Элада Гила, где в числе прочего рассказывал про тренды в стартапах, подающихся в YC. Ключевые поинты:
1) 70% стартапов - про AI, 2/3 из них - SaaS; ему не очень нравится, когда эти стартапы сравнивают с chatgpt-обертками, это как говорить, что все SaaS продукты это обертки над базой данных
2) Очень быстрый рост - в прошлом батче ARR у среднего стартапа был около $6M --> на выходе, через 3 мес, в районе $30M o__O Такого роста ARR у них не было в прошлых батчах!
3) Общее у успешных: технические фаундеры, фокус на конкретных проблемах и разработка приложений под них, а не общие вещи
4) Пока нужно хорошенько тюнить модельки под конкретные задачи, чтобы добиться достойных результатов
5) Инфраструктурные решения для AI: тестирование, совместная работа над промптами, оптимизация моделей
6) Есть некоторые, что работают над foundational моделями --> биология, робототехника
7) Инересная мысль, что 3-5 лет назад средний возраст фаундера YC стал расти, но сейчас, благодаря низким барьерам входа для использования OpenAI, Claude и др и disruptive потенциалу, возраст опять стал снижаться, так как меньше нужно скиллов и опыта в индустрии

Читать полностью…

EDU

Про массовые продажи и цифровых двойников клиента

Andrew Chen недавно сделал опрос про влияние AI на маркетинг, и ваш покорный слуга тоже поучаствовал в нем. Большинство идей на поверхности, но мне очень зашла 1 идея: про слияние маркетинга и продаж, благодаря AI

Тезисно его мысль такая:
1) Традиционно маркетинг делал часть работы продаж: массово доставлял какое-то сообщение до аудитории. Из-за массовости невозможно было обеспечивать 1:1 персонализированный мессаджинг/продажу - это было бы слишком дорого.
2) С AI это становится возможным: представьте, что запуская маркетинговую кампанию, вы запускаете миллионы AI агентов, каждый из которых ищет подходящего лида, изучает его, персонализирует сообщение для него, и продает. Может даже покупает обьявление в твиттере или фейсбуке, но таргетированное на 1го конкретного человека (сейчас это не очень возможно, кстати)
3) Представьте, миллионы диалогов, которые эти агенты ведут с вашими потенциальными покупателями, обмениваясь опытом друг с другом: какое сообщение лучше зашло, какие вопросы лучше заходят и тд и тп

Мы с командой как раз недавно обсуждали, что делая нашего AI двойника сейлза мы должны параллельно создавать и двойника потенциального клиента, которому этот сейлз пытается продать. Сейчас, для наших бета кастомеров AI агент изучает linkedin этих людей и их компаний, собирает информацию с apollo, гуглит публичную информацию, и подсказывает sdr-у или account executive-у как лучше зайти на человека в linkedin или правильно провести звонок. Но представьте, что есть двойник этого потенциального клиента - что можно было бы делать? Потренироваться в звонок до реального звонка? Спросить у двойника - что болит у него и его компании? Подобрать релевантные case studies? Рассказать onboarding команде, что важно для этого клиента, чтобы контекст не потерялся? То есть быть эдаким хранилищем контекста - каждому клиенту по агенту. Каждый агент меняет состояние и хранит контекст, и является эдаким backend-ом для агентов и людей, взаимодействующих с этим клиентом... Вам это ничего не напоминает? 😉

P.S. Как обычно, если хочется покрутить эту или другие темы из канала - welcome на консультацию

Читать полностью…

EDU

No-shot, one-shot, few-shot, many-shot 🤯

Я думаю, что большинство из вас уже знает эти термины в контексте LLM, но не исключаю, что немалое количество для 99% задач использует no-shot. А вот зря :)

Сначала про термины:
1) No-shot - просто задаем инструкцию LLM-ке и смотрим, насколько она хорошо отработает. Например:

You are an AI sales coach who assists sales managers in preparing for meetings, analyzing their sales calls, and providing feedback. Please analyze the following sales call transcript and identify areas for improvement.

Transcript: {{transcript}}


Выдает вполне интересный анализ, но иногда слишком длинно, или критерии, на которые обращает внимание, меняются с каждым прогоном. Или вообще не обращает внимание на какие-то аспекты.

2) One-shot - тогда мы уточняем свою инструкцию, подав 1 пример результата, который хотим получить. Например, хотим чтобы анализ был представлен в JSON форме с кратким резюме встречи, перечислением позитивных и негативных аспектов ведения звонка, а также подсчиталось количество вопросов, которые сейлз задал в ходе discovery звонка (считается, что 11-14 вопросов - оптимально) —> добавляем такое:


Example output:
{
"summary": "<3-5 sentences summary of call>",
"positive": "<list of positive characteristics in the way the sales manager handled the call>",
"negative": "<list of negative aspects or areas for improvement>",
"questions_asked": "<number of questions asked by the sales manager>"
}



3) Few-shot - иногда одного примера получается недостаточно. Обычно это не про формат выходного результата, а когда надо, чтобы LLM классифицировала что-то. Например, представьте, что мы хотим определить, был ли champion/economic buyer на звонке —> наличие оного повышает вероятность относительно быстрого решения.

добавим такое:
"economic_buyer_present": "<Was the economic buyer present on the call? 'True' if customer-side meeting participant's title is one of 'CEO', 'CFO', 'CRO', 'CBDO', 'VP of Sales'; otherwise 'False'>"


или можем такой же вопрос про конкурентов, перечислив в примере наших конкурентов. Тогда если в ходе звонка, когда все представляются, со стороны заказчика был кто-то из перечисленных позиций, то в выходном результате мы получим допполе economic_buyer_present со значением True.

4) Many-shot - вот тут самое интересное, пожалуй. С ростом размера контекста мы де-факто можем сделать мини-тренинг LLM-ки "налету", задав ей сильно больше, чем парочку примеров, с учетом различных edge кейсов, которые не покрываются few-shot. По сути, мини fine tuning. А представьте теперь цикл самоулучшения: когда AI ассистент понимает, каких примеров не хватает, находит их (или платит человеку, чтобы тот их нашел/сгенерировал), засовывает себе в контекст, и учится налету?! o__O

Как я писал ранее, я рекомендую последовательно двигаться от 1 к 4, и замерять прирост в качестве получаемого результата

P.S. Об этом и о том, как это всё написать в коде, поговорим на 1й встрече школы GenAI разработчика уже в эту субботу

Читать полностью…

EDU

AI Buyouts

В продолжение поста про автоматизацию сотрудников - вот вам интересная идея: AI Buyout

1) Находим сервисный бизнес, в котором AI может заменить сотрудников существенно трансформировать
2) Покупаем его а ля private equity
3) Автоматизируем все, что возможно
4) Профит

Идеальные таргеты:
1) Компании с большим количеством ручного труда: ревью документов, извлечение и ввод данных, обилие текстовых коммуникаций, написание незамысловатого текста
2) Сотрудники, исключительно обеспечивающие эти бизнес-процессы, без специальных знаний и навыков
3) Высокая доля оплаты труда в общих затратах, низкая маржинальность
4) Рынки с недостатком рабочей силы
5) Слабая рыночная позиция (дешевле купить, выше апсайд)

Что думаете? :)

Читать полностью…

EDU

Что я смотрю/слушаю - Часть 2

За последнее время открыл еще парочку очень достойных технологических подкастов - рекомендую двумя руками. Предыдущий список - тут

1) bg2pod?si=oR6OMmKSFJs0RDHg">BG2 - подкаст 2х легендарных VC: Билла Гёрли и Брэда Гёрстнера. Не требуют представления, сильно лучше All in
2) nopriorspodcast?si=n8E-wpu0GdkAx6Zk">No Priors - подкаст Элада Гила и Сары Гуо. Про Элада я много писал тут.
3) moreorlesspod?si=WkOsL3vhTKkW0cz-">More or Less - подкаст от Моринов и Лессинов (Information, Offline Ventures & Slow Ventures). Очень качественные гости и мысли
4) И, обязательно, dwarkeshpatel?si=WB4kcueSLqzlhiLK">Dwarkesh

Из рассылок добавлю лишь одну, но очень хорошую: Zvi Mowshowitz

Все ресурсы про AI и стартапы

Читать полностью…

EDU

Неожиданная статья про AI и “силу” сотрудника (worker power) --> с экономической точки зрения взгляд на эффект LLM на сотрудников и их зависимость “силу” в организации

Ключевые мысли:
1) Автор сначала разводит последствия внедрения AI в организациях на 2 группы: спрос на труд (благодаря автоматизации задач, выполняемых людьми) и власть/автономию сотрудника (из-за повышения возможностей управленческого контроля за сотрудниками, например)
2) Основной фокус большинства исследований про последствия AI - на 1й группе: как это помогает автоматизировать работу и снижает спрос на людской труд. Мы все про это много знаем, читали, слышали. Поэтому автор больше парится про 2й аспект влияния
3) Интуитивно мы чувствуем этот импакт и, мое мнение, что поэтому мы побаиваемся этих систем. Мы чувствуем как они снижают нашу автономию и агентность, ощущение смысла выполняемой работы и тп.
4) Помните, на прошлой встрече по GenAI я говорил про 2 варианта автоматизации: automation vs augmentation, и что ценность в случае первой больше достанется владельцам капитала, а второй - сотрудникам. Это в ту же степь
5) AI системы снижают переговорную позицию сотрудников: про зарплату, условия труда. Почему? Наличие альтернативы (вспоминаем, 2й принцип экономики). Особенно актуально для стран с относительно высокой стоимостью труда/социальной защитой
6) AI повышает возможности контроля/слежки за сотрудниками, увеличивает власть руководителя, тем самым смещая извлечение ценности в сторону организации, а не сотрудника. Например, вот мы делаем оценку звонков сейлзов и я, под соусом этой статьи, еще раз всерьез задумался о социальных последствиях систем, которые мы строим. Поэтому в это воскресенье хочу побольше поговорить про alignment и эту статью. Интересный вопрос: приведет ли возможность более детальной оценки работы белых воротничков к трансформации систем мотивации? Ведь более справедливые системы контроля могут снизить возможности для фаворитизма и “показухи”, что особенно актуально для knowledge workers
7) tldr всей статьи: AI очень негативно повлияют на силу/власть сотрудника.

Читал с удовольствием, хоть и не со всеми выводами согласен. Покрутим на ближайшей встрече

Читать полностью…

EDU

B2B продажи + AI = стрим 😍

Сейчас появляется много стартапов, которые позволяют автоматизировать входящую воронку продаж в B2B. Часто вижу AI SDR'ов, и это очевидно классная история. На данный момент нет готового решения из коробки. Отличная возможность для нового продукта или хака.

Ранее я писал, как мы в AppFollow работаем с продажами: почему мы используем product-sales led и зачем нам MDR. На одном из внутренних хакатонов озаботились задачей улучшения качества конверсий, а не увеличения количества лидов.

Эта работа над качеством выражается в том, что после звонка SDRs или AEs не всегда заполняют все поля в CRM, мы используем методику MEDDIC. Это приводит к тому, что не все инсайты становятся доступными команде. Из-за этого мы становимся заложниками того, кто был на звонке. И это проблема.

Одновременно с этим Байрам (CEO Mindshare, ex-CEO App in the Air) сделал на другом хакатоне — AI Sales assistant. Мы вписались в бету, AI анализирует звонки и заполняет CRM в нужном нам формате.

Об этом всём поговорим на нашем стриме с Байрамом в эту пятницу 21 июня с 18 по 20 мск.

Стартовая стоимость $20, растет на $5 каждый день, покупаем билет тут.

Если не сможете участвовать очно, то получите запись и материалы. Присылайте вопросы в тред заранее.

До встречи 👋

Читать полностью…

EDU

Выступал на прошлой неделе на Blockchain Community Day по приглашению @blockchainprofs - вот и запись подоспела (англ):

https://www.youtube.com/watch?v=S78PsgGE7Ng

Читать полностью…

EDU

вот пример работы, промпт всего лишь:

Can you detect any surfboards or sharks in the video, draw a green line between the shark and the nearest surfboard and add the distance between them in meters assuming 30 pixels is 1 meter. Make the line red if the shark is within 10 meters of a surfboard. Sample the video at 1 frames per second and save the output video as output.mp4


Прикольно, что все инструкции и код доступны, можно почитать, отредактировать и тп

Читать полностью…

EDU

Очень круто (см форвард ниже) - осталось поставить камеру на подоконнике и подкрутить промпт на распознавание, когда машина уезжает (парковочное место освобождается)

P.S. А вот про внедрение GenAI в корпорации поговорим в это воскресенье

Читать полностью…

EDU

Прикольная визуализация эссе Пола Грэма про great work: https://www.paulgraham.com/greatwork.html

Читать полностью…

EDU

Питер Тиль в Zero to One привел эту диаграмму (см. ниже), чтобы проиллюстрировать идею, что нельзя сделать стартап, ориентированный на dead zone: маркетингом не достучаться, а продажами - не окупить.

For a product priced around $1,000, there might be no good distribution channel to reach the small businesses that might buy it. Even if you have a clear value proposition, how do you get people to hear it?
The product needs a personal sales effort, but at that price point, you simply don’t have the resources to send an actual person to talk to every prospective customer. This is why so many small and medium- sized businesses don’t use tools that bigger firms take for granted. It’s not that small business proprietors are unusually backward or that good tools don’t exist: distribution is the hidden bottleneck.



С другой стороны - у него есть любимый вопрос к предпринимателям: Какую важную истину вы знаете, с которой мало кто согласится?

Я сейчас наблюдаю, как GenAI решает проблему dead zone и делает все более возможным такие продажи.

Так ему и отвечу на вопрос про истину, если встречу :-))

Читать полностью…

EDU

Сегодня 12 лет со дня релиза App in the Air. Хоть это уже не моя компания, с ней связаны самые вариабельные эмоции: взлеты/падения, победы и расставания, пьяные танцы и тяжелые разговоры, и радостные и грустные пользователи. Но главное во всем этом - Команда!

Как-то мой знакомый разводился с супругой, и стал вспоминать «негативные» стороны о ней. Я остановил его и сказал: «Чувак, не обесценивай свою любовь! Я видел, как вы были счастливы!»

Поэтому, самое теплое и важное про App in the Air у меня навсегда будет внутри!

P.S. На фото - All Hands Istanbul, 2019

Читать полностью…

EDU

Понравилась статья Элада Гила про то, как стартапам защищаться от крупняка.

TLDR: в начале - никак 🙂 Ну это реально так: в первый год работы ты никому не нужен, не заметен, непонятен. Да и ты сам не понимаешь хорошо, что же ты делаешь и будешь в итоге делать. Но постепенно начинает формироваться понимание, в чем на самом деле твой продукт и ценность, которую ты несешь; куда “заныривать”, потому что другие не хотят или не могут. Что большие ребята заявляют крутые фичи, но на самом деле они не работают. Или про них не знают, эти продукты не воспринимают как решения для этих задач. Что их капитализация падает на 20% за день, хотя по таргетам не выполнили на пру процентов --> у них другие проблемы и задачи. Что их бизнес-модель не выдержит раскатки такой фичи на всех клиентов, что они не могут себе позволить полусырой продукт.

И вот когда у тебя начинает формироваться понимание, появляются клиенты, заныриваешь глубже, то начинают проявляться механизмы защиты:
1) Эффекты масштаба - я могу снижать цену на продукт, потому что могу кэшировать результаты API-шки, размазывать затраты на большее количество клиентов, у меня ниже постоянные затраты.
2) Сетевые эффекты - для b2c компаний скорее; каждый новый пользователь повышает ценность продукты для новых и СУЩЕСТВУЮЩИХ пользователей. для b2b это обычно про платформенные эффекты, когда другой софт интегрируется с тобой, но это появляется сильно позже
3) Скорость - быстрее адаптируешь новые фичи OS, за счет чего тебя продвигают разработчики операционных систем
4) Партнерства - в некоторых случаях стартап более предпочтителен как партнер, чем крупная компания, которая может стать сильным конкурентом; а эти партнерства дают доступ к дистрибуции
5) IP - интеллектуальная собственность, но это обычно про deep tech и биотех.
6) Асимметричная бизнес-модель, которую лидеры не могут позволить себе - я писал про LiFE и про revenue sharing модель в отличие от классической подписки и поддержки.

В заключение интересные расуждения про то, почему стартапы не копируют (очень популярный вопрос от инвесторов):

Given that most startups take time to build defensibility, this raise the question of why more startup founders don’t just copy companies that are already working, but early in their journey?
Reasons may include:
1. It is sometimes hard to know what is actually working, versus hype.
2. Founders have a lot of pride in what they build, and may not want to just copy and out-execute someone. Often when a startup copies another’s idea, they put a unique spin on that approach or product versus default blankly copying it. All these tweaks and changes tend to make the product worse. 
3. Perception that “the market is over” so no one copies a company even if it might be tractable to out execute them.
4. It is harder to hire strong employees to work on what is initially a clone company. People assume more defensibility than tends to exist early, so are harder to convince to join your efforts until traction is clear.


В общем - рекомендую 🙂

Читать полностью…

EDU

Функциональная зашоренность

Фейсбук лента напомнила про такой феномен восприятия как "функциональная зашоренность". Суть в том, что нам сложно воспринимать предметы вне их привычной/устоявшейся функции.

Классический эксперимент от 1945г: испытуемым давали коробку с кнопками, коробок спичек и свечку - и просили прикрепить свечку к стенке таким образом, чтобы она не капала на стол (см. картинку). Лишь малая часть испытуемых догадывалась использовать коробку, в которой были кнопки, как подставку для свечки и прикрепить ее [коробку] к стенке. Чаще пытались прикрепить саму свечку, либо воском "приклеить" ее к стенке.

В 2003м его дали студентам Стенфорда в письменной форме, только 23% из них справились с задачей. Но они пошли дальше, и в инструкции подчеркнули существительные: "коробка", "коробок". Это вдвое повысило долю справившихся с заданием.

Я часто ловлю себя и слышу от коллег про "зашоренность" и "замыленность": мол, не увидел ошибку, так как глаз замылился и тп. Кто проводил много интервью с пользователями мог подметить аналогичное: люди видят у приложения только ту функцию, которую оно традиционно выполняет.

Как справляться с зашоренностью?
- заменять существительные: у Альтшуллера в ТРИЗ есть хороший прием, когда вместо названия предмета, который вы хотите улучшить, вы используете "штуковина". Штуковина абстрагирует мышление и отводит от зашоренного рассмотрения его возможностей
- сменить категории: у Сапольски в курсе была очень хорошая фраза

"Мы думаем в терминах категорий. Это помогает нам лучше запоминать. Но есть 3 проблемы с ними. Когда мы выделяем категории мы:
1) недооцениваем различия 2х обьектов в одной и той же категории
2) переоцениваем различия между обьектами разных категорий
3) когда мы фокусируемся на границах категориях, то мы теряем общую картинку. "


Есть еще идеи как?

Читать полностью…

EDU

Стратегия внедрения LLM в компанию

Очень понравился пост моего любимого Will Larson (автора Elegant Puzzle): он сейчас работает над новой книгой про стратегию и на злобу дня написал стратегию внедрения LLM в фиктивную ride sharing компанию. Вилл - поклонник книги Good Strategy/Bad Strategy, поэтому для этого дока взял за основу фреймворк написания стратегии из той книги: diagnose, policy etc.

Собственно, в этой стратегии 3 ключевых раздела:
1) Policy - какая политика внедрения LLM в продукт, engineering и non-engineering команды. Понравилось, что он не забыл про вторую и третью часть, а то обычно фокусируются лишь на продукте.
2) После Policy лучше читать Explore - де-факто это ресерч, подкрепляющий стратегию и диагноз
3) Diagnose - собственно, диагноз, из которого вытекает Policy. Например, понравилось

Switching across foundational models and foundational model providers is cheap. This is true both economically (low financial commitment) and from an integration cost perspective (APIs and usage is largely consistent across providers)


и поэтому в Policy

Start with Anthropic. We use Anthropic models, which are available through our existing cloud provider via AWS Bedrock. To avoid maintain multiple implementations, where we view the underlying foundational model quality to be somewhat undifferentiated, we are not looking to adopt a broad set of LLMs at this point.


В общем, имхо, каждый CTO большой организации должен такой документ написать и довести до ключевых руководителей, а малой - в голове продумать.

P.S. По теме стратегии у него есть хорошее видео - рекомендую

Читать полностью…

EDU

Техтренды 2024 от Amy Webb

Понимаю, что с заметным опозданием (2хмесячным, если быть точным), но хочу поделиться очередным ежегодным отчетом от Amy Webb и Future Today Institute с SXSW конференции.

Вообще, в отчетах этих самое интересное лично для меня это:
1) Сценарии (стр 149) - мне нравится читать эти гипотетические и не очень сценарии развития будущего. Я - фанат сценарного планирования еще со времен изучения системной динамики и прочтения интереснейшей книги “The Art of the Long View” Питера Шварца из Shell. В отчете этого года есть сценарии про дипфейк мафию, маленькие языковые модели (SLM) и AI игрушки для детей. Мне напоминает учебу в Singularity University, когда мы проигрывали сценарии а-ля “робот обратился в суд, что его права ущемляют и хотять накатить апгрейд” или “робот видел, как его хозяин убил другого; имеет ли право хозяин стереть это из его памяти?”

2) Люди - после каждого большого тренда есть список ключевых людей, кого следует фолловить, чтобы держать руку на пульсе. К примеру, страница 69 про людей из AI, или стр. 177 про web3.

3) Индустрии - ну и, конечно, описание того, как тренды могут повлиять на различные индустрии. В аттаче общая картинка, а в самом отчете уже можно детальнее почитать про интересующую индустрию.

в общем, рекомендую, но дозированно: даже не пытайтесь прочитать в один присест ;-)

P.S. Эх, квантовые компьютеры по-прежнему в long term relevance :-)

Читать полностью…

EDU

Про конформизм

Зачастую конформизм (подражание другим) подается как какой-то баг, нежелательное поведение, высмеивается. И, действительно, есть много негативных последствий. Но, в лучших традициях системного мышления, у каждой проблемы есть функция. Чем же это хорошо в коллективе?

Разберемся сначала почему этто происходит?
1) мы хотим ощущать себя частью группы. Как в мультике “Остров сокровищ: “Лучше быть одноногим, чем быть одиноким”
2) мы думаем, что другие обладают бОльшей информацией, поэтому имеет смысл вести себя как другие.

Полезные свойства:
1) Можно прививать желаемое поведение и ценности - зачастую, корпкультура как раз про это
2) Снижать текучку через создание ощущения общности цели и принадлежности к группе
3) Новичкам проще адаптироваться, наблюдая за нормами и поведением других
4) Легче внедрять изменения (но тут надо очень аккуратно и последовательно)
5) Ну и, конечно, снижение конфликтов 🙂

Пара моих любимых роликов по теме:
1) Конформизм у детей
2) Знаменитые эксперимента Эша (длина линии и ситуация в лифте)

Поговорим об этом и других ключевых принципах социальной психологии в это воскресенье, ну и видео посмотрим смешные и не очень 🙂

Читать полностью…

EDU

6) Про ценообразование от ценности, а не от себестоимости; хороший тест для стартапа: можете ли вы чарджить таким образом, или ваш продукт - тонкая обертка, и весь разговор - кто еще и как быстро ее сделает
7) Ну и любимый вопрос зевак - зачем такие большие бабки VC вкладывают в GenAI стартапы, которые в ближайшее время не будут profitable? Особенно, если все эти GitHub копилоты помогают очень дешево писать софт. Неожиданно - именно AI стартапы из всего a16z портфеля, по словам Хоровитца, быстрее всего выходят на окупаемость. Обычно в таких стартапах высокие капзатраты, но headcount достаточно низкие, поэтому быстрее выходят на прибыльность. Узнал в связи с вопросом про Jevons Paradox - парадокс, что повышение эффективности использования ресурса снизит общее потребление ресурса, но реально это приводит к росту спроса на ресурс, и росту потребеления ресурса. Грубо говоря, да, стоимость разработки софта становится ниже, но вырастет спрос на софт, поэтому общее потребление софта будет выше. В общем, опасаться нечего 🙂
😍 Ожидаемо, поговорили про data moats, ведь у a16z была статья даже по этому поводу пару лет назад, что они overhyped. tldr: они по-прежнему так считают. Хотя немного не бьется с пунктом 3 выше. почему? потому что, мол, в инете слишком больше данных, и ваши proprietary данные не так важны. То есть важно правильно их отбирать, очищать, процессить и тюнить?! Поэтому нет больших марктеплейсов данных. Прямо выстрел по AI x crypto стартапам по теме 😉
9) Прикольно про сравнение Интернет и AI бумов: что аналогия не совсем хорошая, поскольку Интернет это сеть (network), а AI - это про компьютер (эра микропроцессоров/PC). Собственно, поэтому большинство интернет-стартапов базировались на network эффектах; но это не совсем кейс про AI. AI это просто про обработку данных, новый тип компьютера, если хотите.
10) Ну и в заключение предикшн про AI индустрию:
- продолжая аналогию, что AI это новый вид PC, можно ожидать много разных “компьютеров”, не будет только “god” модели (i.e. мейнфрейма), будут “компьютеры” разных размеров, способностей и характеристик. Mainframe --> PC --> smartphone
- будет перепроизводство чипов, датацентров и AI компаний, будет bust, но это важно для будущего. В связи с этим, ожидаемо упомянули про мою любимую работу Carlota Perez, я рассказывал на GenAI семинаре

Читать полностью…
Подписаться на канал