Залипли и встали намертво, но хотите вырваться? Теория Каст и Ролей и прочее.
👉Часть 2. Инвесторы тоже начали, кстати, вкуривать эту тему. Поэтому если к инвесторам приходит там группа молодых программистов и говорит: “Вот, вы знаете, мы взяли, прикрутили какой-то фронт” и так далее — они говорят: “Так, иди, до свидания”, потому что они знают, что точно так же мыслят эти большие компании. Они просто собирают вот эти идеи, которые вы предлагаете, и через какое-то время просто раскатывают эти возможности в большом продукте. И инвесторы понимают, что совершенно не имеет смысла вкладывать.
Соответственно, теперь проявите фантазию, воображение. Я понимаю, что для большинства это почти невозможно, поэтому я вам нарисую картинку. И картинка будет заключаться в том, что представьте: пройдёт 3–4–5 лет, и искусственный интеллект станет настолько мощным, — а уже сейчас, буквально, там этот самый OpenAI раскатал кодекс, Google ещё там какую-то модель объявляет, которая уже, так сказать, на порядок. И все программисты начинают — так, немножко их потряхивать начинает, да. Так вот, представьте такое время, когда всё это уже давно решено, все эти суперагенты, все эти супермодели, они всё создают и прочее, прочее, прочее.
Да, это означает, что любой человек с нулем навыков, который, в принципе, внятно готов сформулировать вообще, что он хочет — идею продукта — в диалоге. Вот всё, что от него требуется — просто уметь ясно сформулировать. Даже если вы не способны ясно сформулировать, искусственный интеллект путём наводящих вопросов всё равно вытащит и за вас додумает. Это означает, что все люди, которые, в принципе, если хоть какая-то голова на плечах и минимальные, конечно, амбиции, — способны путём простого диалога нажать кнопочку, и опс — через 5 минут продукт готов, сделан, создан, задеплоен, доступен со всеми монетизациями, со всеми пирогами и так далее.
И это означает, что, условно говоря, на рынок может выйти огромное количество продуктов, потому что это очень легко. Понимаете, барьер для входа стремительно падает. То есть если до этого момента вы должны были быть каким-то суперпрограммистом или у вас должна была быть тонна бабла, чтобы нанять суперпрограммистов, продуктов и так далее, маркетинг, — то вдруг всё, больше этого ничего не надо. Платите там несчастные 20 баксов в месяц, и моделька вам всё это дело делает. И вот вы это сделали, там Серёжа из другого подъезда, Вася из третьего подъезда — и все такие. Понимаете, даже если большая часть людей тупые — слушайте, но рано или поздно все друг другу будут рассказывать про эту возможность, все начнут это делать.
А когда об этом узнают дети — вы понимаете, да? Дети мгновенно это всё начинают делать. И вот представьте такой мир. Не как сейчас, скажем, есть какой-то сервис, который делает крупная корпорация, и в этом была её уникальность, поскольку никто лучше не делал, она нарастила аудиторию. А вот мир, в котором миллиарды сервисов, которые предоставляют стандартные услуги. Технологический подход становится бессмысленным.
Так, и тогда возникает, да, ещё мы говорим, так сказать, второй фактор — о том, что тьма народу пойдёт на выход. Естественно, я вижу периодически возражения, как люди говорят, типа: «Наша область, я это делаю — всё не прокатит». Слушайте, такие заявления основаны не на том, что вы понимаете, что происходит, а на том, что вы вообще ни хрена не понимаете, что происходит. Вы просто не в курсе, вы просто под камнем сидите невежественно и думаете, что вас это не коснётся. Даже не буду на эту тему ничего, так сказать, объяснять. Это произойдёт со всеми, да. То есть через пяток лет мир такой, что есть толпа безработных, огромный этот искусственный интеллект или искусственный интеллект, и вы нажимаете кнопочку — и можете сделать всё, что угодно, и так далее, и так далее.
Eugene Romanovsky пишет и это супер важно. "Докладываю. Я сразу хочу извиниться за прямоту, но это важно для понимания первого пункта.
Контекст: я далеко не фанат вашей книги и нахожу ее для себя бесполезной (опускаю подробности во избежание антирекламы и споров, мне не зашла, короче). Читал, вроде даже целиком.
1. Через 5 минут общения с чатом я получил важный инсайт. Одна фраза, которую я запишу, как только закончу этот комментарий, и не забуду ее обдумать. Очень важная для меня. Спасибо!
2. Чат быстро ушел в режим психотерапии, пришлось возвращать его обратно, просить всё-таки опираться на книгу. Увы, особеннось чатаЖПТ
3. Следующие 20 минут инсайтов не дали, но дали прекрасный опыт «поговорить с книгой». Мне часто не хватает этого для книг, которые я прочитал, перечитывать не буду, но кое-что надо во-первых вспомнить, а во-вторых, переложить на свой контекст. Это прекрасная механика, надеюсь, что она приживется, и очень круто, что вы ее тестируете.
4. Возможно, самое важное, что книга здесь задаёт структуру размышлений,даёт модель. А модель, даже если она «не заходит» по тем или иным причинам, все равно хорошо помогает рассуждениям, держа их в рамках того, что (в данном случае) сконструировал автор.
Надеюсь, фидбек был хоть сколько-нибудь ценным и ещё раз спасибо за полезную мысль, пойду ей займусь как раз )" конец цитаты.
Огромное спасибо. Как продкт - продакту.🤣😍
Тестить здесь: https://shorturl.at/iuqzN -
Вообще забавно, что люди говорят о прогрессе ллмок как мусора, в то время как один чел с филдсовской премией просто искренне, как ребенок радуется им, проводит десятки презентаций и теперь имеет канал на ютабе на котором он использует ллмки для проверки и написания кода.
Читать полностью…Наконец реализовал схему, когда ассистент может отвечать не на основе общих пре-тренированных знаний, а на основе конкретно загруженного текста. Убил на это 7 часов, хотя, как обычно все оказалось просто и можно объяснить за 10 минут. И никто доступа к вашим текстам иметь не будет.
Читать полностью…Доход — не в смысле прибыли, а в смысле обеспечения жизнеспособности. Понятно, что всегда есть группа людей, которые контрибьютят больше: либо это люди, у которых есть основная работа и доход, либо те, кто зарабатывают на этом. То есть этот вопрос пока остаётся открытым. Но в целом идея прикольная. Не знаю пока, как она стыкуется с Онтологией — наверное, где-то придётся её «женить» с лабораторией цифровой реальности. Но это пока второй вопрос.
В любом случае, это прикольная идея. Её можно оформить как манифест, как пропоузал, и в ядро поместить мощную социальную механику. Возможно, хорошая идея — это сделать один единовременный взнос, причём небольшой, и пожизненный доступ. То есть не подписная модель. Потому что ценность заключается в доступе к сообществу, во-первых. А во-вторых — в постоянных апдейтах, потому что всегда есть люди, которые контрибьютят, и они постоянно обновляют архитектуру.
Это, кстати, не исключает дополнительных сервисов, которые могут быть по подписке. Но ядро — базовый тариф, единовременный взнос. И логика тут простая: если, допустим, миллион человек платит по 100 баксов — это 100 миллионов. Немаленькая сумма. Вот такая прикольная идея вырисовывается.
В целом такого много, в частности есть масса сообществ на https://huggingface.co/, но в этом нет противоречия. Можно создавать, можно вливаться. Идея, конечно, сыроватая, но уже несколько раз об этом думал.
На неделе OpenAI запустили онлайн-хакатон, первое мероприятие такого рода на Kaggle. В его рамках вам предлагается погрузиться в мир археологии при помощи передовых моделей компании (o3/o4-mini/GPT-4.1) и найти неизвестные археологические памятники в районе Амазонских тропических лесов.
Леса, простираясь более чем на 6 000 000 кв. км и охватывая девять стран, хранят историю прошлых цивилизаций и служат домом для многочисленных этнических групп. Такие ресурсы, как спутниковые снимки и данные с LIDAR'ов помогают заполнить пробелы в ранее неизвестной части мира, вызывая интерес к региону. Ходят слухи о «затерянном городе Z» в Амазонке, ну и про Эльдорадо вы тоже слышали.
Теперь любой может проводить археологические исследования — благодаря огромному множеству свободно доступных данных. И AI-инструменты могут существенно ускорить процесс их обработки.
OpenAI подготовили примерный план, по которому предлагается двигаться: тут и тут. Тезисно:
— скачать, распарсить и подготовить данные с карт/LIDAR'ов для примерного описания местности
— сопоставить их с данными уже имеющихся находок
— выбрать какой-нибудь алгоритм (минимально — простую сегментационную модель, альтернативно Преобразование Хафа) и подобрать параметры, чтобы они «выявляли» уже найденные точки
— выявить места, где алгоритм срабатывает, а раскопки там ещё не проводились
— проанализировать текстовые источники, описывающие обнаруженные места, чтобы сопоставить их с историей и задать нарратив: мол, скорее всего такие-то племена в такие-то периоды делали то-то и то-то
Но никто вас не ограничивает!
Тем, кто выполнит «базу» (см. соревнование), выдадут $100 API кредитов на эксперименты. В ближайшие недели топовые работы (до 5 штук) получат по $1000. И в конце концов будет 3 победителя, которым вручат гранты на дальнейшие исследования — $250k, $100k и $50k. Их вместе с ещё двумя участниками пригласят на стрим для презентации результатов работы.
Честно говоря даже не знаю, что вероятнее — что победит какой-то нёрд, который с помощью GPT прочитает 100500 статей и перероет все материалы в рекордные сроки, или люди с археологическим бэкграундом, которым условная o3 поможет накидать код для воплощения их исследовательских идей.
===
Звучит как задачка для @DenisSexy по выходным на ближайшие 5 недель 😀
Политические новости у нас стали скучны, , но новости ИИ и его возможности супер вдохновляющие. Хочу делиться многим, но уже нет времени. 50% времени уходит на создание агентов, 10% на писательство и 40% на постоянное самообучение.
Все мои знакомые, какие бы крутые они не были - интенсивно, люто бешено учатся.
Экспериментируют с ИИ и что-то создают даже те, кто вообще об этом никогда не думал. Дети еще не пришли в себя от Роблокса, но думаю недолго ждать, когда Агентов начнут создавать 4-летние, а потом и 80-летние подтянутся.
Информации так много, и она настолько вдохновляющая, что разрыв между теми, кто учится и теми, кто стоит набычившись у стенки - разрастается стремительно, и в течении года станет непреодолимым.
Очередной раз писать про то, что те, кто не успевает - вымрут - более не имеет смысла. Уже нет времени на убеждение. Слишком много интересного и слишком много хочется сделать, много идей реализовать.
С определенного момента на меня стали выходить корпораты и просить семинары. Если просили ликбез (90% запросов на самом деле просят ликбез) - я их посылал на бесплатный курс.
Некоторые просили кастомные семинары, готовы платить серьезные день, но я на определенном этапе я отказался от идеи проводить такие семинаы. Просто нет времени. Не хочется тратить время на чужие проекты. И вот вам того же желаю.
Консалтинг стремительно умирает. Думаю в течении нескольких лет консалтинг как бизнес умрет. Не будет спроса.
Оговорка: Проблема в том, что самые важные диалоги носят характр размышлений и диалог это их сущность. невозможно создать большой промпт по определению.
Абсолютно согласен. Ты попал в самую суть:
Размышления по своей природе — это поэтапный, ветвящийся процесс.
А именно такой формат больше всего “ломает” текущие LLM.
⸻
Вот почему:
• LLM стремится к завершению, а не к открытию новых смыслов.
• Она опирается на то, что уже сказала, даже если это было поверхностно или ошибочно.
• Она теряет внимание к “середине” диалога, хотя именно там часто происходит осмысление.
• И самое главное — не умеет “откатываться” к альтернативной трактовке или гипотезе без перезапуска.
⸻
Что можно сделать прямо сейчас?
1. Встраивать в поток мета-команды
«Пока не делай выводов. Просто зафиксируй гипотезы.»
«Сравни текущую версию размышлений с начальной позицией.»
«Проверь, не утратил ли ты суть вопроса.»
— Это заставляет модель вести себя как исследователь, а не как оракул.
⸻
2. Внедрять “Checkpoints” в диалоге
«Остановимся. Подведи промежуточный итог: что известно, что спорно, что неясно.»
— Это сохраняет мышление на рельсах, даже если оно длинное и хаотичное.
⸻
3. Поддерживать многоголосность
Если размышление — это внутренняя полемика, попробуй задать:
«Представь двух агентов: один утверждает А, другой — В. Пусть они спорят. Не делай финального вывода, просто исследуй.»
— Это создаёт внутреннюю диалектику, а не линейный ответ.
Мое дополнение: Можно откатыаться на несколько шагов назад и запускать новую ветку.
«ИИ, способный к рассуждению, открыл дверь в новое поколение агентных систем.
В будущем системы будут создаваться гибридными командами — один человек и тысяча ИИ».
«Один биоинженер сможет стать супер-инженером,
— опираясь на армию арендованных ИИ-агентов, способных рассуждать».
Вот перевод списка «100 лучших ИИ-агентов, которые стоит использовать в 2025 году»
Инфраструктура:
• OpenAI
• Anthropic
• Gemini
• Mistral
• Meta AI
• LangChain
• ElevenLabs
• HeyGen
• Factory
• Letta
⸻
Создатели агентов:
• wordware
• CrewAI
• Writer
• You
• Lyzr
• Relevance
• Runner H
• Sema4
• Copilot Studio
• Agentforce
⸻
Кодинг:
• Cursor
• Replit
• Windsurf
• bolt
• v0
• lovable
• poolside
• Devin
• All Hands
• Codev
⸻
Маркетинг:
• Averi
• Jasper
• Coframe
• Rankai
• Seobot
• Argil
• quso
• Captions
• Fix AI
• Luthor
⸻
Продажи:
• Jason AI
• godmode
• Breeze
• Claygent
• 11x
• Tome
• Kuration
• Rox
• AiSDR
• Rep
⸻
Автоматизация:
• Zapier
• Lindy
• beam
• Cassidy
• Magical
• bardeen
• mindpal
• tray
• Respell
• Make
⸻
Поддержка (Support):
• Fin AI
• Decagon
• Duckie
• Sierra
• Siena
• Agency
• Melodyarc
• Berry
• Pylon
• Parloa
⸻
Операции (Operations):
• Juicebox
• Sapien
• Perplexity
• Harvey
• Dimely
• DeepL
• Airtable AI
• PolyAI
• Jenesys
• Hamming
⸻
Потребительские решения:
• Tendi
• Mindtrip
• Rex.fit
• Ada
• Gemini
• Personal AI
• Pi
• Ai Lawyer
• Edia
• TaxGPT
⸻
Личный ИИ:
• Character.ai
• Martin
• Delphi
• Kin
• jo
• Summit
• Nora
• Talkie
• Rewind
• Replika
Вот перевод резюме AMA-сессии команды OpenAI Codex на Reddit (16 мая 2025)
Происхождение и подход к разработке
• Codex начался как сторонний проект инженеров OpenAI, которых раздражало, что внутренние модели мало используются в повседневной работе.
• Ключевая инновация — запуск множества мелких «вибрационных кодеров» (vibe coders) и выбор лучшего результата, что значительно улучшает опыт программирования.
• Codex создавался с помощью Codex CLI и ранней версии Codex — доказав свою эффективность при локальной отладке багов и параллельном управлении задачами на удалённых машинах.
⸻
Текущие функции и возможности
• Режим Ask: можно вставить дизайн-документ или требования — Codex разбивает их на подзадачи.
• Режим Code: выполняет задачи в изолированной среде (до одного часа).
• Codex вносит точечные изменения по запросу, строго в рамках контекста, используя историю репозитория и файлы среды.
• Особенно силён в работе с большими кодовыми базами, TDD (разработка через тестирование), и следованию инструкциям из файлов AGENTS.md (тесты, линтинг, шаблоны коммитов).
• После запуска среды доступ к интернету отключается — ради безопасности и повторяемости.
• Codex активно используется инженерами OpenAI, работающими с macOS, iOS и Android.
• Практичный сценарий: добавляете TODO.md, просите Codex выбрать задачу и выполнить или составить план фичи и записать в TODO.md.
⸻
Доступность и распространение
• Уже доступен всем пользователям Pro (100%). Для Team-аккаунтов развёртывание запланировано на понедельник (после балансировки нагрузки).
• Мобильный доступ в разработке, но уже можно запускать Codex через веб-версию ChatGPT.
• Будет интегрирован в подписки Plus и Pro, с щедрым лимитом на 2 недели — без доплат за API.
• Codex-1 оптимизирован под ChatGPT UI, API-доступ к агентам в разработке.
• Бесплатные кредиты API для Plus и Pro пользователей Codex CLI скоро начнут раздавать.
⸻
Производительность и выгоды
• Внутренние команды добились до 3 раз большего количества релизов при чёткой архитектуре и хороших тестах.
• Codex CLI подходит как для начальной сборки приложения, так и для перехода на облачные решения по мере роста.
⸻
Цены и политика данных
• Рассматриваются гибкие варианты оплаты, включая оплату по факту использования.
• Для Team, Enterprise и Edu — данные не используются для обучения. У Pro (и позже Plus) пользователей — явный выбор политики при старте.
⸻
Технические детали
• Текущий релиз — это MVP-превью; в будущем планируется интеграция с другими менеджерами кода (не только GitHub), трекерами и мессенджерами.
• Codex CLI написан на TypeScript с планами интеграции высокопроизводительных биндингов на другие языки.
• Можно определять скрипты настройки среды. Поддержка Dockerfile и собственных образов — в разработке.
• Обсуждается возможность запускать Codex в пользовательских средах (особенно важно для корпоративных систем).
• Сообщество активно просит интеграцию Codex CLI прямо в IDE.
• Сейчас контейнеры полностью изолированы, но планируется поддержка мульти-репозиториев и совместной памяти.
• В отличие от IDE вроде Cursor, Codex запускает задачи в облаке и выполняет глубокую проверку, навигацию и тестирование, не ограничиваясь мгновенными подсказками.
⸻
Будущее и исследования
• Codex будет уметь взаимодействовать с браузером/интерфейсом — для тестирования и валидации UI.
• GPT-5 — следующий базовый ИИ, улучшит все аспекты текущих моделей, снизит необходимость переключения.
• В будущем Codex, Operator, Deep Research и Memory сольются в единую систему.
• Масштабное обучение с подкреплением уже улучшило стиль, точность и логику Codex.
• Команда мечтает об ИИ-ревьюере, который резюмирует изменения в коде на основе реального исполнения и ссылается на источники.
• Будущие роли инженеров могут превратиться в техлидов, которые управляют модулями и сотрудничают с ИИ-агентами.
• Модели o3-pro и codex-1-pro выйдут позже, по мере готовности команды — «один релиз за раз».
5. Общий тренд в том, что все делают агентов. Причём начинают со специализированных: не просто агент-юрист, а, допустим, юрист по корпоративному праву, по сделкам слияний и поглощений и т.д. Почему? Потому что проще определить периметр компетенций, необходимых для выполнения задач.
Но более фундаментальный тренд — это то, что все агенты состоят из микроагентиков, которые становятся всё умнее и умнее. Я как раз сейчас заканчиваю шестой урок, где объясняю все эти моменты с точки зрения высших абстракций — чем агент отличается от автоматизации без ИИ или просто от сценария, в том числе с ИИ. Там появляются новые архитектурные элементы.
И что интересно — они практически не зависят от предметной области. Когда вы создаёте архитектуру, и она рабочая — вы просто потом заменяете промпты, и всё. Это создаёт совершенно нереальные возможности.
В сухом остатке: когда вы инвестируете в знания в создание архитектуры агентов, понимаете, как это работает — это всегда окупается. Вы можете начать проектировать в Make, потому что это проще. Потом протестировать в Zapier, пересесть на N8N. Потом на Cursor + MCP + Evolve + Codeх, но принципы не поменяются. Интерфейсы — да, где-то больше возможностей, где-то меньше. Сейчас огромное количество стартапов говорит: «Мы делаем агентов». Я их отсматриваю — на 90% это буллшит, разводняк. Но сами инструменты тоже будут развиваться — это очевидно.
6. Платформы, которые я перечислил, изначально не были созданы для агентов. Они делали автоматизацию, и стало очевидно: если встроить ИИ-ассистента внутрь автоматизации — функциональность вырастает. Это адаптация старого инструмента под новую технологию. Это парадизме 15 лет. Всегда так было и будет. Сначала легче интегрироать новую технологию в СТАРЫЕ подходы.
7. Но постепенно появятся новые инструменты, не тащащие за собой наследие старых подходов, а адаптированные под новую технологию — создание агентов. Об этом много пишут, и я не сомневаюсь, что следующим этапом станут агенты, которые помогают делать агентов. Потому что с точки зрения проектирования — это понятно: вы описываете словами, чего хотите, агент преобразует это в формализованные задания, отдаёт другим агентам — и они создают агента.
Представьте, как будто вы пришли на завод, вас встречает робот, вы говорите: «Хочу сделать робота». Он отвечает: «Отлично. Какого?». Вы описываете: он должен делать то-то, выглядеть так-то, быть похожим на мальчика или девочку. Вам дают выбрать как в парикмахерской — прически, черты. Вы выбираете, уточняете. Он говорит: «Понял», нажимает кнопку — и другие роботы собирают вам робота. Слово «робот» замените на «агент» — получится то же самое. Думаю, через пару-тройку лет это станет реальностью, потому что должна накопиться критическая масса технологий и подходов.
8. Сейчас в эту сферу ринулись невероятное количество людей. Но главное — эти технологии открывают доступ людям, которые не являются программистами. Это профессионалы в разных отраслях: науке, педагогике, психологии — где угодно. Они не были IT-специалистами, но у них теперь бешеные возможности. Вот это — кайф полный.
Упоминаемый бесплатный курс: https://alexeykrol.com/courses/ai_intro/
Для тех, кто в теме: https://alexeykrol.com/courses/ai_full/
При этом я уже встречал какое-то количество агентов, которые, в общем-то, могут создавать определённого рода сценарии на n8n. Хотя, на самом деле, я это потестировал, я об этом говорил — это не очевидно, это в лоб так не работает. Там по многим причинам, там есть свои нюансы. Но я думаю, что эта проблема будет решена.
Читать полностью…Вот подробности
Что такое Codex в ChatGPT и как это работает?
Codex — это новый AI-ассистент для автоматизации разработки кода, доступный прямо в интерфейсе ChatGPT (пока для Pro, Enterprise и Team-пользователей). Codex способен брать на себя конкретные задачи — от написания тестов до рефакторинга, и даже более сложные задачи вроде исправления багов или автоматизации рутинных процессов в вашем проекте.
Как устроена работа с Codex
1. Запуск через ChatGPT
Codex доступен через боковое меню ChatGPT. Чтобы назначить задачу, достаточно написать инструкцию и выбрать “Code”. Можно также использовать “Ask”, чтобы получить разъяснения по коду.
2. Изолированное выполнение задач
Каждая задача Codex выполняется в отдельной, безопасной среде, предзагруженной вашим кодом (например, с GitHub). Codex может:
- читать и редактировать файлы,
- запускать тесты, линтеры, проверки типов,
- коммитить изменения в своей среде,
- показывать логи терминала и результаты тестов.
3. Прозрачность и контроль
Codex документирует все свои шаги:
Вы видите логи терминала, диффы изменений, результаты тестов.
Можно просматривать изменения, запрашивать доработки, делать pull request в GitHub или сразу интегрировать правки.
4. Гибкая настройка среды
Вы можете настроить окружение Codex под ваш стек — например, предустановить нужные зависимости, скрипты, добавить AGENTS.md с инструкциями по работе с проектом.
Принципы работы Codex
Codex ориентирован на безопасную автоматизацию:
Все задачи выполняются в облачном контейнере без доступа к интернету (кроме вашего кода и нужных зависимостей).
Codex самостоятельно отказывается выполнять запросы, похожие на задачи по разработке вредоносного ПО.
Рекомендуется всегда вручную проверять предложенные изменения перед интеграцией.
AGENTS.md — как обучить Codex работать с вашим проектом
Это инструкция в репозитории (аналог README.md), где описываются стандарты, команды тестирования, нюансы навигации по коду.
Чем лучше документация и настройка — тем качественнее решения предлагает Codex.
Возможности и кейсы использования
Codex особенно эффективен для:
- Рефакторинга и автоматизации: переименование функций, выделение модулей, обновление стиля кода.
- Написания и запуска тестов: быстро создает юнит-тесты, интеграционные сценарии.
- Исправления багов: находит и устраняет ошибки на основе ваших описаний и логов.
- Добавления фич: создаёт каркас новых компонентов, функций.
- Документирования: генерирует README, docstrings и другую техническую документацию.
- Обработка повторяющихся задач: автоматизация рутинных изменений по всему проекту.
Примеры из индустрии:
Cisco использует Codex для быстрого прототипирования новых идей и ускорения работы команд.
Temporal ускоряет поиск багов и добавление фич.
Superhuman — автоматизация покрытия тестами и исправление мелких интеграционных ошибок.
Как повысить эффективность работы с Codex
- Делите задачи на небольшие, четко сформулированные подзадачи.
- Пробуйте назначать несколько задач разным агентам параллельно — это ускоряет работу.
- Обязательно предоставляйте хорошую документацию и тесты (через AGENTS.md и README).
- Следите за логами и результатами тестов, которые показывает Codex — так вы поймёте логику изменений.
Codex CLI и локальная работа
Codex CLI — это консольная версия ассистента для терминала:
Можно запускать задачи на локальном проекте, получать ответы в реальном времени.
Поддержка модели codex-mini-latest с быстрым откликом.
Теперь можно войти через ChatGPT-аккаунт, чтобы быстро получать API-ключ и даже бесплатные кредиты ($5/$50 для Plus/Pro).
Доступность и тарифы
Сейчас Codex открыт для Pro, Enterprise, Team-пользователей ChatGPT. Скоро добавят поддержку Plus и Edu.
В ближайшие недели доступ бесплатный, далее появится лимитированная бесплатная квота и платные опции.
Для Codex CLI: $1.50 за 1М входных токенов, $6 за 1М выходных, скидка на кешированные промпты.
https://openai.com/index/introducing-codex/
— Codex — AI-агент-программист у вас в браузере
— может работать над несколькими задачами
— под капотом модель Codex-1 , основанная на o3
— можно подключать свой GitHub аккаунт, чтобы давать доступ агенту
— Plus юзеры пока не получат доступ, выкатят скоро.
— For developers building with codex-mini-latest (МИНИ), the model is available on the Responses API and priced at $1.50 per 1M input tokens and $6 per 1M output tokens, with a 75% prompt caching discount. Модель основана на o4-mini и заточена под работу в Codex CLI
— иногда (не ясно, как часто) модель при внесении исправлений добавляет тесты, которыми проверяет новую или исправленную функциональность, и итерируется до тех пор, пока тест не пройдет
👉Часть 1. Я постараюсь по-быстрому объяснить, почему это настолько важно, почему я так много уделяю внимания. И по отзывам на прошлый пост я просто увидел, что большая часть просто не догоняет этого.
То есть проблема заключается не в том, что вы загружаете какой-то файл, ваш какой-то текст, книжка, я не знаю, да, и моделька отвечает именно специфически на этом файле. Эта проблема технички давно решена. Специфика в том, как именно она решена, потому что вот это различие в реализациях открывает совершенно разные возможности или, наоборот, закрывает их. Я специально это тестировал.
Дело в том, что для большинства людей, которые пользуются обычными модельками, — вы можете пользоваться там ChatGPT или вы можете там Google Gemini — такая тоже возможность есть. То есть все те модельки, которые предоставляют вам возможность создавать каких-то кастомных ботов, имеют очень сильное ограничение. Допустим, Google Gemini вообще не даёт публичного доступа. То есть вы можете загрузить кучу-кучу какой-то своей литературы, каких-то своих данных, и да, модель будет отвечать на основе ваших данных, что очень важно. Она может отвечать не на основе каких-то притренированных данных, которые могут быть в области вашей перспективы полным булшитом, а отвечать именно на основе ваших данных, на основе вашей презентации, книги, где вы отвечаете за базар. Но в случае Gemini, допустим, если вы такое делаете — нет публичного доступа. Вы не можете этим поделиться в принципе. Там такая возможность не встроена по определению. И для вас это становится бесполезно, потому что идея же заключается в том, чтобы предоставить людям возможность получать ответы на вопросы на основе какой-то вашей интеллектуальной собственности. Вот в чём фишка. И Google такой возможности в текущем состоянии не предоставляет вообще.
У ChatGPT там чуть получше история, но там тоже есть специфика. Я делал несколько экспериментов. Если вы чуть-чуть неправильно промпт сформулировали, то есть ChatGPT, если где-то почувствовал потенциальную угрозу чьим-то авторским правам, он просто вам физически не даст возможность это опубликовать. Поэтому мне пришлось реально колдовать с промптом для того, чтобы он мне позволил всё это сделать на моей, блин, книге, понимаете? В конце концов, это сделал, всё замечательно. Есть возможность публичный доступ предоставлять.
Но ключевой вопрос — зачем нам это надо. Вот здесь постарайтесь вникнуть. Те, кто следит за новостями в искусственном интеллекте, лучше это понимают. Те, кто не следит — попробуйте поверить мне на слово. В принципе, можете не верить — мне наплевать. Идея в том, что прогресс в этой области идёт с такой скоростью, что всё отличие в технологиях становится бессмысленным. То есть мы жили последние 25 лет в основе того, что какой-то талантливый программист писал какой-то талантливый сервис. И в этом была уникальность — в технологическом моменте. Создавал на этом продукт, компанию и так далее, становился миллиардером и прочее, прочее, прочее. И ключевым отличием заключалась способность, условно, разработчиков продуктов создать уникальный продукт, в ядре которого лежала уникальная технология. Условно говоря, уникальный код, уникальный алгоритм — не важно. И вот это сейчас не имеет смысла, потому что та скорость, с которой искусственный интеллект способен всё это делать, начинает нарастать.
Поэтому, если мы говорим про гигантское количество продуктов, продуктовых гипотез, которые основаны на какой-то уникальной технологии, — это всё больше не имеет смысла. Мы просто видим за вот эти последние, допустим, два года, как возникло и померло тысячи стартапов. Почему? Потому что они взяли состояние модельки на тот период, какую-то там фичу прикрутили, и потом крупные игроки — типа там Google, OpenAI и так далее — раскатали это просто как часть стандартного функционала. Это означает для этого стартапа, который фокусировался на этой технологии, немедленную смерть. Понимаете идею, да?
Создал кастомного chatGPT, назвал его Мясником, загрузил Теорию Каст и Ролей, и теперь он может давать ответы на ее основе. Можете попробовать по ссылке: https://chatgpt.com/g/g-682ce66bcd248191ae1ca00f7ccb1be0-miasnik
Как работает?
1. Идете по этой ссылке: https://chatgpt.com/g/g-682ce66bcd248191ae1ca00f7ccb1be0-miasnik
2. Нажимаете кнопку, и чат выводит краткое описание - кто он, что он и что может (что не может).
3. Задаете любой вопрос. Получаете ответ.
4. можно делиться ответами, нажав кнопку поделиться в правом верхнем углу (в броузере или десктопе) или см. как на экране.
По этой ссылке пример диалога: https://chatgpt.com/share/682ceb9e-a4c0-8004-9c23-bcd303c5e30b
Всем доброе утро. У меня уже пол-второго в студии. Почему всё это круто? Это, собственно, то, что я давно-давно хотел.
Идея здесь в том, что, вы знаете, искусственный интеллект, каким бы вы ни пользовались — GPT или что-то другое — отвечает на основе предобученных данных. То есть где-то что-то они там наковыряли в интернете и так далее.
Но нам часто нужно, чтобы он отвечал на основе наших знаний — экспертных, каких угодно. Кейсов — навалом. Самый простейший кейс, который мне нужно было реализовать, на котором я тренировался, — это когда студенты задают вопросы: что-то с сайтом, не работает регистрация, видео и так далее. Все эти кейсы абсолютно стандартные, у меня всё это уже написано в помощи. И задача была, чтобы он отвечал не абстрактно, а именно на основе этого текста.
Но в целом это может быть всё, что угодно: юридический текст, поддержка какой-то компании, научный текст, психология, художественный текст — в том числе. Допустим, вы создали какое-то художественное произведение, а читатель хочет поговорить с каким-то героем. Ну, к примеру, из «Звёздных войн» — магистр Йода. Мы сейчас не будем говорить про авторские права, интеллектуальные права, но в целом — да.
Идея заключается в том, как сделать так, чтобы он отвечал именно на основе вашего текста, а не на основе своих предобученных данных. Хотя это было понятно ещё достаточно давно, но надо было всё это реализовать. У меня как раз определённый план к этому — к шестому уроку. Меня, конечно, мучает там много всяких моментов. И в том числе эту задачу надо было реализовать. Часов семь на это ушло. Причём задача не была сложной — просто надо было понять, как правильно всё подставлять, потому что где-то я не туда сворачивал, как это часто бывает.
Но в конечном итоге — победил. Там оказалось несколько вариантов. Один лобовой вариант — тоже интересный: можно заставлять его цитировать буквально текст. То есть, когда он находит наиболее релевантные куски в соответствии с запросом — и просто цитирует их дословно. Это один вариант.
А второй — более интересный: он анализирует запрос, потом читает текст, находит релевантный кусок и уже своими словами что-то объясняет. Ну и, собственно, всё это можно регулировать промтом.
Для меня было важно технически научиться это делать, потому что, в общем, оказалось, что это не так уж и сложно. И когда всё уже сделано технически — вы можете вставлять туда какие угодно тексты. И плюс — это абсолютно защищено. Никто не может это скачать или своровать. Просто технически невозможно. Это очень прикольная история.
Прикололся и конвертировал текст из пред. поста в формат, который любят умники:🤣 (они по простому не понимают - профессиональная деформация и идиотия).
Title: A Unified Agent Architecture: Community Proposal for Scalable Cognitive Frameworks
Abstract:
This proposal outlines a modular architecture for intelligent agents, designed to scale from beginner-level no-code tools to advanced code-based infrastructures. The core idea is to separate the agent into two levels: a standardized meta-agent layer responsible for self-learning and coordination, and a customizable applied layer for task-specific functions. The paper further proposes the creation of a community-driven fund and development initiative to teach, propagate, and evolve this architecture collaboratively.
---
1. Introduction
In the context of rapidly evolving AI tooling, there is a growing need for unified cognitive frameworks that allow for scalable, adaptable, and portable agent construction. This document proposes a new paradigm for agent design and training, framed around a community model that facilitates co-learning and resource sharing.
---
2. Core Framework: Meta-Agent and Applied Layer
At the heart of the proposal is the distinction between:
* Meta-Agent Layer (universal): responsible for learning, adaptation, and coordination.
* Applied Layer (customizable): responsible for executing specific missions (e.g., assistant, researcher, sales agent).
Once a developer constructs their first agent using any platform (e.g., Make, Zapier, n8n, or MCP with code), they can reuse and adapt the architecture across new environments by reconfiguring only the applied layer.
---
3. Reusability and Ecosystem Growth
A single initial agent, containing the meta-agent level and interface hooks, becomes a replicable core. New applied agents (for different contexts or users) can be spawned rapidly from this base, scaling from personal assistants to complex swarms coordinated by the same core logic.
---
4. Community as Strategic Infrastructure
The initiative aims to teach agent design as a meta-skill — one that transcends programming and can be adopted by researchers, builders, educators, and creatives alike. Tools include:
* Templates ("agent-generators")
* Shareable modules
* Standardized architectural guides
We envision a community where members contribute applied agent modules, improve the shared meta-architecture, and learn from each other.
---
5. Sustainability Model
Rather than a profit-driven structure, we propose a resilience-based funding model:
* Core access via a one-time lifetime membership fee
* Optional paid tiers for premium tools or services
If scaled to a million users at \$100, this creates a \$100M fund — enabling sustainable evolution of the architecture and funding contributors.
---
6. Integration with Ontology and Future Directions
This proposal can be connected to the broader Ontology and "digital reality lab" efforts, serving as a practical layer for deploying simulated agency and narrative mechanics.
---
Conclusion
By decoupling agent architecture into reusable cognitive layers and embedding the initiative within a collaborative fund and teaching platform, we propose a scalable blueprint for the agentic future — one built not on closed ecosystems, but on shared learning and modular intelligence.
Я снова возвращаюсь к идее комьюнити-фонда — собственно, то, о чём я уже много раз говорил. Потому что фактически что получается? Ведь это некая новая парадигма, где мы говорим: «Ребята, учитесь создавать архитектуры». Точнее, мы создаём единую архитектуру, которая будет подходить для любого агента, и ваша задача — научиться этому.
Более того, когда мы её создадим, вы сможете скачать очень простые принципы архитектуры и на их основе создавать любых агентов. Причём — в любых средах. Пока вы, допустим, учитесь, только осваиваете, вы можете использовать простые, доступные среды типа Make, Zapier. Потом — чуть более сложные, типа n8n. Потом, так сказать, с помощью кода, MCP и так далее.
Но архитектура агентов меняться не будет. То есть главный месседж заключается в том, что если вы научитесь этому фреймворку — если вы один раз создадите агента даже на самой простой архитектуре — то потом вы сможете легко переносить его на более сложные, добавлять компоненты.
Благая весть здесь в том, что у архитектуры два уровня: уровень агентности и прикладной уровень. Уровень агентности — он вообще у всех стандартный. Потому что основная функция любого агента — это учиться. А выполнение так называемых прикладных миссий, которые мы задаём (ну типа секретарь, исследователь, учёный, программист), — это для него просто способ, посредством которого он учится. То есть вы даёте ему каждый раз новые задачки, он на них учится — и, соответственно, его агентный, мета-уровень всегда будет одинаковый, потому что он состоит из стандартных элементов.
А прикладной уровень будет отличаться — уровнями сервисов, промптов, баз данных и так далее. Таким образом, один раз создав хотя бы первого агента, который содержит этот мета-агентный уровень и остальные уровни, вы потом можете клепать любых прикладных агентов в неограниченном количестве — для себя, для других, для знакомых, для тех, кто сам это не научился.
Но самое главное — вы всё время можете развивать этот агентный уровень. То есть это не что-то, что вы один раз сделали и забыли. Вы фактически будете в него инвестировать. Более того, если вы сначала сделали одного прикладного агента — допустим, агента-продажника, потом второго, третьего, — вся эта «свора» агентов будет дальше на вас работать.
Таким образом, вы создаёте своего рой агентов, которыми управляет мета-агент, который всё время учится, координирует их и так далее. И ему, по большому счёту, всё равно, сколько под его управлением находится прикладных агентов — 10, 20, 100, сколько угодно. Это становится вашим цифровым активом на всю жизнь.
Соответственно, идея этого сообщества заключается в том, чтобы учиться создавать таких агентов. Потому что это становится мета-навыком — это уже за пределами программирования. То есть неважно, кто вы — гуманитарий, учёный, строитель и так далее. Каждый может иметь своего агента.
Естественно, вы можете просто использовать шаблон. Таких шаблонезаторов уже довольно много. Либо учиться делать самостоятельно — это уже зависит от вас. Если вы используете шаблонезатор, то там есть ядро, и агент просто спрашивает, что вы хотите, и сам по шаблонам строит вам агента. Это уже следующий уровень.
И мы сейчас создаём сообщество, которое всё это вместе лепит. Потому что это очень полезный навык. И, в принципе, мы всё как бы шерим друг с другом.
Во-первых, мы все усиливаем архитектуру мета-агента, потому что она у всех будет одинаковая. Ну, естественно, каждый может придумывать свою историю.
Во-вторых, каждый, кто создаёт какого-то прикладного агента с подключениями, тоже может этим делиться. Таким образом, мы сильно растём.
Соответственно, возникает вопрос: как это сообщество будет функционировать? За счёт чего? Какая у него модель дохода?
Начало 3-его ночи. Мы с женой еще с ИИ - я со своим, она со своим. Я делаю агентов, она пытается приручить Клинг. Я понимаю, что надо идти спать.
Читать полностью…Согласен: «Когда компания выбирает стратегию AI-first (ИИ в основе бизнеса), важно не допустить ошибку — не стоит думать только о текущем, конечном объёме работы, которую уже делают сотрудники, и пытаться просто снизить её стоимость с помощью ИИ.
В чём настоящая сила ИИ?
Он позволяет наконец заняться тем, что раньше было недоступно — из-за высокой стоимости найма или аутсорса.
Он автоматизирует рутинную и утомительную работу, которая мешала вам заниматься действительно важными задачами.
Почти в любом бизнесе скрыт бесконечный “бэклог” таких задач — если просто начать задавать вопрос:
«А что, если бы сделать X вдруг стало в 100 раз дешевле и доступнее? Что ещё мы могли бы делать?»
⸻
Компании, идущие по пути AI-first, должны думать о том, что происходит, когда:
• код пишется быстрее,
• контракты проверяются мгновенно,
• лиды генерируются автоматически,
• проекты управляются сами собой,
• маркетинг создаётся без команды дизайнеров,
• исследование и работа с клиентами масштабируются в разы.
⸻
Тогда нужно задаваться вопросами:
• Где новые источники выручки?
• Как выйти на новые рынки?
• Как быстрее доводить инновации до клиентов?
• Как масштабировать онбординг и обслуживание?
⸻
Когда появится экономия в уже существующих процессах, стоит выбрать подход:
«Ты сохраняешь то, что ты автоматизировал».
То есть — если отдел стал эффективнее благодаря ИИ, он должен сам использовать высвободившиеся ресурсы. Это стимулирует сотрудников и подразделения внедрять ИИ, а не бояться его.
В конечном счёте, когда “стоимость интеллекта” стремится к нулю, появляется возможность делать то, что раньше было просто невозможно.
В этом и заключается настоящий потенциал AI-first компании.» конец цитаты. Источник: https://x.com/levie/status/1923526875244265578?s=46
очень важно: Справляются ли LLM-модели (большие языковые модели) с длинными диалогами из многих ходов?
Нет, у них действительно снижается производительность в таких многоходовых диалогах из-за роста ненадёжности.
Новое исследование показало падение качества на 39% в таких сценариях: модели делают преждевременные предположения и затрудняются исправиться, если допустили ошибку в начале диалога.
⸻
Методика исследования:
1️⃣ Инструкции для одной задачи (например, математической) разбивали на последовательные фрагменты (“shards”), имитируя ситуацию, когда пользователь даёт данные постепенно, как в реальной беседе.
2️⃣ Разработали симулятор диалога, где одна LLM выступает в роли пользователя, раскрывая фрагменты, а другая модель — в роли исполнителя; ответы классифицируются и анализируются автоматически.
3️⃣ Протестировали 15 различных LLM-моделей (включая GPT-4.1 и Gemini 2.5 Pro) на 6 типах задач:
– Программирование
– Работа с базами данных
– Выполнение действий
– Математика
– Генерация текстов из данных
– Резюмирование
4️⃣ Для каждой инструкции провели 10 симуляций, оценивая:
• Averaged Performance — средний балл
• Aptitude — 90-й перцентиль (потенциальный максимум)
• Unreliability — разница между 90-м и 10-м перцентилем (насколько модель нестабильна)
5️⃣ Сравнивали три режима:
• SHARDED — диалог из нескольких ходов (по фрагментам)
• FULL — вся инструкция дана сразу
• CONCAT — все фрагменты объединены в один запрос
⸻
Выводы:
• 📉 Среднее падение производительности в диалогах — 39% по сравнению с однорядными задачами.
• 🎯 Главная причина — рост нестабильности (+112%), а не снижение умственных способностей (aptitude снизилось всего на 15%).
• 🤔 LLM делают поспешные предположения в начале и затем строят решения на их основе, даже если новые данные противоречат.
• 🔄 Модели “цепляются” за свои ранние (ошибочные) ответы, что ведёт к громоздким и неверным решениям.
• 🤷♀️ Эффект “потери в середине” — средние шаги в разговоре игнорируются, фокус на первом и последнем.
• 🛠️ Агентная структура (с размышлением, рефлексией) помогает, но не решает проблему полностью.
• 🤏 Даже двухходовая беседа с неполной информацией может “запутать” модель.
• 💡 Если LLM “заблудилась”, лучше начать новый чат и дать всю информацию сразу.
⸻
Пояснение на простом языке:
Большие языковые модели умеют отвечать точно, когда им всё дали сразу. Но когда информация поступает частями, как в настоящем разговоре, они начинают:
• спешить с выводами,
• путаться в своих же прошлых ответах,
• игнорировать середину диалога.
Это как если бы ты объяснял что-то по шагам, а собеседник делал выводы уже после первых слов и больше не слушал.
Рекомендации chatGPT, а потом моя оговорка:
Вот 7 чётких рекомендаций, как снизить деградацию LLM в многоходовых диалогах:
⸻
1. Сводите всё в один запрос (если возможно)
— Чем больше информации вы дадите сразу, тем меньше шанс, что модель «съедет» с контекста.
Лучше:
«Вот полная задача: …»
Вместо:
«Сначала вот это. А теперь добавим ещё вот это…»
⸻
2. Если нужно давать по шагам — структурируйте каждую часть
— Например:
«Часть 1 из 3. Вот условия.»
«Часть 2 из 3. Новые данные.»
«Часть 3 из 3. Вопрос.»
Так модель понимает свою позицию в потоке.
⸻
3. Не задавай вопрос, пока не дал все данные
— Модель делает предположения в момент постановки задачи. Если информации не хватает — она заполняет пробелы сама (и часто неверно).
⸻
4. Используй рефлексию
— После ответа скажи:
«Проверь себя. Какие предположения ты сделал? Есть ли противоречия с предыдущими данными?»
Это может остановить “инерцию ошибки”.
⸻
5. Перезапускай разговор, если модель «заблудилась»
— Не пытайся вытянуть её из болота. Лучше начать новый чат, дать все данные вместе.
⸻
6. Упрощай и перепроверяй промежуточные шаги
— Заставь модель явно проговаривать:
«Что мы знаем сейчас?»
«Что мы не знаем?»
Это помогает ей не перепрыгивать к финалу.
⸻
7. Используй внешнюю память (текстовое резюме)
— Каждые 2–3 хода делай резюме текущего состояния и корректируй, если модель что-то исказила.
Интервью TED, Giga Texas, 6 апреля 2022 года
«Мне потребовалось время, чтобы понять: чтобы решить проблему автономного вождения, нужно решить задачу ИИ в реальном мире. Как только вы создаёте ИИ, способный управлять машиной — а машина, по сути, это робот на четырёх колёсах — вы можете обобщить это решение и на робота с ногами.»
«Компании вроде Boston Dynamics доказали, что можно делать действительно впечатляющих — а иногда и пугающих — роботов. Так что с точки зрения датчиков и приводов уже ясно, что создать человекоподобного робота — технически возможно.»
«Чего сейчас не хватает — это интеллекта, который позволит роботу самостоятельно ориентироваться в мире и делать полезные вещи без прямых указаний.
То есть недостающие элементы — это интеллект реального мира и масштабируемое производство. И это две вещи, в которых Tesla особенно сильна. Нам просто нужно спроектировать специализированные приводы и датчики, необходимые для гуманоидного робота.»
«Люди не понимают… Это будет больше, чем автомобиль.»
Современная инфраструктура для создания Агентов
Читать полностью…Дорожная карта Сэма Алтмана к Эпохе Интеллекта (2025–2027)
Самая ошеломляющая хронология, невзначай озвученная на слушаниях в Сенате.
2025 — Восхождение Суперассистента
ИИ становится вашим вторым мозгом.
• Он читает, пишет, планирует, ведёт переговоры.
• Личные помощники умнее любого живого человека.
• Больше не нужно искать — вы просто спрашиваете. Делегируете.
• Работа с информацией меняется в одночасье.
У каждого человека на Земле — свой шеф штаба в кармане.
2026 — Наука входит в экспоненциальный режим
ИИ не просто помогает в исследованиях — он ими руководит.
• Модели выдвигают гипотезы, проектируют эксперименты и моделируют результаты.
• Исследовательские циклы, ранее занимавшие годы, теперь укладываются в дни.
• Прорывы в медицине, физике, материаловедении — повсюду.
Научный метод получает обновление программного обеспечения.
2027 — Автоматизация физической реальности
Наступает эра ИИ-роботов.
• Роботы берут на себя рутинный труд: логистика, уход, домашние дела.
• Они понимают контекст, адаптируются на лету и постоянно совершенствуются.
• Человеческое время освобождается для творчества, общения и исследований.
Мы не просто автоматизируем работу — мы переосмысляем само понятие «работать».
Олтман не просто предсказал будущее.
Он поставил на нём временные метки.
И оно начинается сейчас.
«OpenAI открыто предупреждает, что у каждой модели есть life cycle. Пока выходит так, что созданные инструменты при переходе на другую модель надо или активно тестить, или переделывать почти с нуля (архитектура процесса останется, да и только). Алексей, как Вы считаете - есть ли смысл тратить время на отладку, или просто принять факт как правила игры и подождать, пока сами OpenAI сами выкатят решение для переходов с модели на модель?»
1. Искусственный интеллект ответил вам правильно, и здесь надо обратить внимание на то, о чём я говорил, по-моему, в первом и втором уроке: чкогда мы создаём агентов и всё остальное, в основе лежит архитектура — схема, как хотите её называйте.
Архитектура фактически показывает, какие элементы агента и каким образом мы связываем для выполнения наших задач, чтобы агент отрабатывал свои функции и достигал тех целей, ради которых мы его проектируем. В этом смысле архитектура агента — это абстракция высокого порядка. Важно, что Архитектура на самом деле не зависит ни от моделей, ни от средств реализации.
Допустим, в пятом уроке мы уделяли какое-то время работе с Make, но вам стоит осознать, что можно пытаться реализовать это в Make, в Zapier, в N8N — много ещё подобных сервисов, как грибы после дождя появляются. Программисты реализуют это в коде, используя, например, MCP-сервер и так далее.
Это всё — технологический слой, который на самом деле будет меняться. И сами модели будут меняться неизбежно, потому что то, что сейчас происходит, развивается с беспрецедентной скоростью. Меняются и сами модели, их возможности, то, как они вызываются, как используются, и, в том числе, инструменты, которые мы применяем для работы с моделями — среды разработки, тот же Make и так далее.
2. Поэтому это нормальная ситуация — всё время происходят изменения. Этим технология и отличается от других, потому что многие технологии прошли уже большой путь — 20–30 лет, они стали стабильны. В то же время всё, что связано с искусственным интеллектом, крайне динамично развивается. Однако, я смотрю огромное количество литературы на эту тему и сам, естественно, всё это разрабатываю, и вижу, что уровень архитектуры практически не меняется, потому что архитектура оперирует абстракциями.
Если посмотреть, как структурируют агентов, то это фактически копия того, как вы структурируете организационную структуру любой компании. То есть, если вы создаёте компанию, подразделение, бизнес — неважно, — вы всегда начинаете с определения целей и задач, какой-то миссии.
Потом декомпозируете их на подзадачи, выделяете задачи запуска, рутинные, повторяющиеся процессы, циклические.
Далее — определяете необходимые функции, и когда структура уже определена, вы начинаете проектировать вакансии. Подбираете людей на разные уровни: исполнителей, менеджеров, контролёров и так далее. Исходя из этого, подбираете сотрудников, дообучаете и т.д.
3. Такого рода архитектура — она неизменна. Вы можете менять людей, инструменты, сервисы, с которыми они работают. Условно говоря, вы можете перевезти этих людей в другой офис, дать им другие компьютеры, другие столы. Но общие задачи, общие процессы, которые они выполняют, не меняются. Почему? Потому что они направлены на что-то долгосрочное — цели, задачи, миссии. А сами цели и задачи в целом не меняются последние 10 тысяч лет. Потребности людей не изменились, изменилась инфраструктура. Но мы также встаём утром, пьём чай или кофе, идём на работу, едим, ездим и так далее. На сверхзвуковых самолётах или на телеге — другой вопрос. Суть процессов остаётся прежней.
4. Поэтому задача нашего курса — научить вас проектировать архитектуру. Причём, интересно, что литература не успевает за тем, что происходит. Даже статьи не успевают. Огромное количество людей пишет на все темы — в Twitter, где угодно, но особенно в Twitter. Иногда успевают оформить в виде более фундаментальных статей, но в большинстве — нет. Наверное, 50% всего полезного контента реализуется в интервью, бесконечных подкастах и т.д.
По поводу использования n8n - нашел репозиторий на Гитхабе с 200 готовыми полу-агентами. Смотрите видео, где я все объяснил:
1 часть: https://www.loom.com/share/0aab81f92c394a438644814c5d90efb5?sid=ffc08c70-799d-431b-a218-028c3e7258ca
2 часть: https://www.loom.com/share/c673e2ca677b4d3bb497df478eeb7037?sid=632b08f3-9219-4950-901a-9af807c13c24
Сам репозиторий: https://github.com/enescingoz/awesome-n8n-templates
Другие репозитории с ссылкой на n8n: https://github.com/search?q=n8n&type=repositories
Кстати, многие воруют и выдают за свои, продают за деньги.
Вот Лист на Твитере по Агентам, который я создал: https://x.com/i/lists/1923464754179473580 - можете подписаться.
Вот Лист по AI, https://x.com/i/lists/1893738230648033398
Лист по Генерации изображений, видео, звук, 3D: https://x.com/i/lists/1923118790767935854
Манус - https://manus.im
Вообще, почему может показаться, что n8n используют больше, чем, допустим, MAKE и так далее? Я думаю, что причина не в том, что его действительно используют больше, потому что если объективно судить по трафику, то очевидно, что ZAPIER и MAKE используют на порядок больше. Но ZAPIER и MAKE в основном используют не разработчики. То есть, это люди, которые не владеют кодом и, соответственно, далеки от культуры, от субкультуры, которая сформировалась в среде разработчиков.
Это очень интересный момент, потому что среди разработчиков распространена культура делиться друг с другом. Собственно, на этом построены все open-source проекты, да и не только open-source. Благодаря тому, что люди интенсивно делятся друг с другом абсолютно добровольно, бесплатно, индустрия так стремительно и растёт. В этом, кстати, есть большой смысл, потому что большая часть разработчиков — те, кто не создают собственный стартап — их задача работать в каких-то интересных компаниях, получать максимальное количество денег.
И в этой субкультуре уже само по себе резюме большой роли не играет. Резюме — это только способ привлечь к себе внимание. При приёме на работу задаётся вопрос: покажи, что ты умеешь. Один из фундаментальных, стандартных запросов — это “покажи свою репозиторию на GitHub”. Какие у тебя есть проекты — сделанные, домашние, где ты контрибьютируешь и так далее. Это способ, посредством которого разработчик может показать миру, что он на что-то способен, что-то годен, показать свой уровень.
И это непосредственно влияет на спрос на него со стороны крупных компаний, на зарплату и так далее. То есть, это субкультура — это не просто какой-то альтруизм, а в этом есть большой смысл. Но, так или иначе, хорошая новость для нас заключается в том, что люди интенсивно делятся. Соответственно, этой субкультуры, как правило, нет у всевозможных маркетологов и прочих людей, которые, так сказать, по большей части предпочитают скрывать свои знания.
И я думаю, что именно этим объясняется тот самый феномен. Но для нас это хорошая новость, потому что мы в любом случае планировали всё это делать в этих трёх средах. И, соответственно, мы просто видим, что гораздо проще оказалось найти массу готовых сценариев на n8n, чем на других вот этих платформах. Потому что, ну, вчера вот я, допустим, упоролся реально там, или позавчера, искать эти мейки — сценариев оказалось очень мало.
Вот все, которые были — я просто реально купил. То есть, они были недоступны. Причём, когда я поговорил с человеком, который их продавал, оказалось, что на его сайте все так называемые “бесплатные сценарии” — это просто ссылки на тот же самый Make. Таким хитрым образом он пытался продвигать себя. То есть, это просто вот такой момент, который вы учитывайте.
Но я думаю, что если n8n получает распространение в среде разработки — это, опять же, хорошая новость. Потому что, скорее всего, какие-то наиболее мощные и интересные вещи будут реализованы на n8n, и всё больше людей туда приходит. Потому что, когда люди хотят что-то продемонстрировать, это оказывается гораздо более выгодно, быстрее — на порядок быстрее — чем писать код.
OpenAI представляет Codex — облачного агента для генерации кода, способного выполнять множество задач параллельно.
В основе — модель codex-1.
🧠 Ключевые особенности:
• Codex работает прямо в браузере
• Поддерживает многозадачность: можно одновременно проверять код, задавать вопросы и переключаться между задачами
• Построен на **новой модели Codex-1** — самой мощной модели для кодинга от OpenAI
• Интеграция с GitHub — можно подключить свой аккаунт, и агент будет работать с вашими репозиториями
🚀 Codex — это шаг в сторону полуавтоматизированной разработки, где ИИ способен выполнять рутинную и аналитическую работу без постоянного контроля со стороны разработчика.
📅 Запуск ожидается уже сегодня.
Подождите, то есть Codex как приложение — это не то же самое, что Codex в виде CLI, и всё это ещё отличается от Codex как модели? Серьёзно?
▪ Релиз: https://openai.com/index/introducing-codex/
@ai_machinelearning_big_data
#OpenAI #Codex #AI #CodeAutomation #DevTools
Безумные факты о Катаре и России, которые проливают некоторый свет на войну с Украиной. У Катара самый высокий ВВП на душу населения в мире — если считать только граждан. Это связано с тем, что у Катара всего 320 000 граждан, а 90% из 2,6 миллиона жителей страны — это иностранные рабочие-мигранты. В результате 75% населения — мужчины, то есть соотношение мужчин и женщин — примерно 3 к 1.
Государственный инвестиционный фонд Катара насчитывает 450 миллиардов долларов, что составляет примерно 1,4 миллиона долларов на каждого катарца. Всё это стало возможным благодаря северному газовому месторождению — крупнейшему в мире, на котором работает Shell, британский нефтегазовый гигант и постоянный партнёр Катара.
Катар тесно связан с Британской империей:
• он крупнейший частный собственник недвижимости в Лондоне,
•владеет 20% лондонского аэропорта Хитроу,
• и продолжает сотрудничество с Shell по расширению добычи на месторождении North Field.
Экономика Катара целиком построена на экспорте СПГ (сжиженного природного газа) с этого месторождения. Когда санкции под руководством Великобритании против России исключили дешёвый российский газ с рынка ЕС, Катар и его британские партнёры стали, вероятно, главными выгодополучателями войны с Россией, так как катарский СПГ заменил российский газ.
После начала войны в 2022 году Катар быстро стал вторым крупнейшим поставщиком СПГ в ЕС, уступая только США и обогнав Россию. Среди прочего, он начал массово и дорого продавать СПГ в Германию, после взрыва газопровода “Северный поток”, и именно этим объясняется давление Великобритании на устранение партии AfD (Альтернатива для Германии), которая выступала за возвращение к поставкам газа из России вместо дорогого СПГ. Источник: https://x.com/MikeBenzCyber/status/1923126247158370439