Привет! Я Леша Хахунов, основатель Dbrain.io, и это мой канал про искусственный интеллект. По всем вопросам @Ahahun (рекламы нет)
Реееееееебята, я вам сейчас такое расскажу!
Сейчас вы узнаете, почему GPT-4 умнее, чем вы думаете. (Это сообщение – сжатый конспект этого видео).
Суть видео заключается в следующем: вместо того, чтобы просто кормить GPT-4 задачами, автор сделал интересную механику. Он брал задачу и просил её решить с помощью метода "думай шаг за шагом" (на умном CoT) три раза с использованием разных нейросетей, которые ничего не знали друг о друге. Затем результат предоставлялся сети, которая выступала в роли саморефлексирующего критика, формируя итоговый ответ. Так вот, это позволило достичь результатов GPT-4 на тесте, где сдаются все экзамены людей по разным предметам, с помощью GPT-3.5, а на GPT-4 показать результат 84% (человеческий уровень 89.8%, а до этого было 68%).
Чему это нас учит? ваше умение писать промпты - это 90% шанса получить крутой результат от модели. Где этому учиться вы и так знаете. Ну и тому, что мы все еще не понимаем реальный уровень возможностей, даже текущих моделей.
Какие мысли и ощущения появляются после прочтения этого?
P.S. - Автор – машина: не имея доступа к API у GPT-4, он провел множество экспериментов просто в окнах чата. Для меня это звучит нереально!
Microsoft анонсировал масштабное обновление своего чат-бота Bing Chat
🔹 Бот теперь работает на базе GPT-4 и доступен всем (перешел из private в public preview)!
🔹 Бот теперь умеет выдавать в ответе изображения, видео, графики. Довольно удобно, я попробовал. Но пока, кажется, сам он ничего не генерит, а выдает только то, что смог найти в интернете.
🔹 Бот может бронировать рестораны через OpenTable
🔹 Добавлена история чата
🔹 Улучшена интеграция с Microsoft Edge.
Кроме того, планируется открыть доступ к плагинам для сторонних разработчиков. Например, интегрировать Wolfram для визуализаций.
Из минусов — все ещё придется установить грёбаный Microsoft Edge, ведь в других браузерах Bing Chat не работает по умолчанию 🌚.
Но есть хак: ставите плагин и чат летает в любом браузере!
@ai_newz
Собирал статистику по участникам курса prompting.one - что было самой большой проблемой у людей в плане доступа к ChatGPT. Ответ простой, а решение - не очень. Делюсь, чтобы снять этот барьер.
OpenAI не любит пользователей из России и, на самом деле, ещё пары стран СНГ, а также не любит номера телефонов на +7 (привет, Казахстан, мой любимый).
1. Купить себе виртуальный номер можно, например, тут: @getPhoneNumberRoBot или в других аналогичных сервисах.
2. Вам нужен прайват VPN! Да, всё так. Чтобы всё работало корректно и вас не заблокировали, нужно сделать что-то своё. Здесь простой инструкции нет, на курсе мы сделали для участников просто отдельный сами. Но почти все публичные VPN были уже заблокированы.
Отдельно, если у вас уже есть аккаунт - мы внесли ряд обновлений в публичного бота @aihappens_bot. В настройках можно выбрать модель, с которой вы работаете, и ещё можно настроить, сколько сообщений бот будет помнить контекст (это влияет на ваше потребление токенов).
Надеюсь, вам это будет полезно и больше людей получат доступ к ChatGPT. ❤️💚
@aihappens
вот что я в жизни не умею совсем и пока не придумал как этому научиться. Есть идеи как развивать?)
Читать полностью…случилось! 💚💙
мы опубликовали наш с Димой подкаст про GPT https://www.youtube.com/watch?v=ButSJrf1AIY&feature=youtu.be
в нем вы узнаете:
- что такое chatgpt и как с ним взаимодействовать
- примеры использования в нашей компании
- позитивные и негативные сценарии развития нейронных сетей
- ai safety
- чему стоит учить своих детей
и еще реально много важных и крутых тем
не узнаете:
- сложных экспертных заключений
- споров на тему того GPT - этот стат модели или там все же есть сознание
- 100 промптов, которые изменят вашу жизнь
я никогда не писал длинные подкасты и буду бесконечно благодарен за вашу поддержку и обратную связь.
в описании куча промптов и крутых статей из видео, можно глянуть просто их :)
@aihappens
Недавно я проверил AutoGPT, и это действительно захватывающий проект!
AutoGPT — это проект с открытым исходным кодом, который использует агентность и предоставляет доступ к GPT для реальных действий, а также. работать ChatGPT в цикле, а не останавливаться на одном действии.
Агенты — это, по сути, модели GPT, которым поручается выполнять различные функции, такие как мышление, планирование, критика и объяснение.
Действия включают такие задачи, как поиск в браузере, сохранение и доступ к файлам, выполнение кода и многие другие.
На данный момент результаты работы инструмента мне показались "интересными" 🙂 Скажем так: он не супер умный, но его способность выполнять реальные действия поражает. Я использовал его для поиска конкурентов нашего продукта, и он смог собрать актуальную информацию о плюсах и минусах, а также написать посты для блога на основе актуальных новостей. Я обязательно буду держать вас в курсе по этому вопросу.
Кроме того, я хочу опробовать проект Jarvis, который имеет немного другой подход. Расскажу вам о нем позже.
ссылка на проект
@aihappens
пояснение - текущие сети для картинок умеют "писать" текст на картинках на уровне никак)
Читать полностью…война за данные началась и на stack overflow. Они говорят, что парсинг их данных нарушает ToS да и вообще гоните нам тоже бабки свои жипити!
Читать полностью…Так, если забыть на время про возможные технические прорывы в AI, то текущие LLMки (напоминаю, это все, что сейчас пишет тексты, включая ChatGPT) можно улучшить двумя способами: делать модели жирнее или добавлять больше данных. Поскольку железо в мире кончилось (это правда, не шутка), давайте поговорим про то, какие данные уже есть в моделях и где можно найти новые. Начнем с текущих датасетов, откуда они вообще взяты:
1) Веб-скрейпинг - ловим данные в интернете: Можно использовать инструменты для парсинга веб-страниц, чтобы достать текст, картинки и другой контент с сайтов, форумов и блогов. Но помним про юридические ограничения некоторых сайтов.
2) Общедоступные API - крутое решение: Многие сайты, платформы и организации предлагают API (интерфейсы прикладного программирования) для доступа к своим данным. Самый известный пример - Reddit. Но важно помнить, что для части данных из этих API нельзя обучать свои модели.
3) Порталы открытых данных - мечта исследователя: Правительства, международные организации и научные институты часто предоставляют порталы с открытыми данными, где есть куча структурированных данных. Примеры включают data.gov, открытые данные Всемирного банка и портал открытых данных Евросоюза.
4) Соглашения об обмене данными - будем дружить: Если заключить партнерские отношения или соглашения об обмене данными с другими организациями, компаниями или учреждениями, можно получить доступ к закрытым или частным данным. Это может значительно улучшить данные, доступные для обучения LLM.
5) Краудсорсинг - все вместе веселей: Можно привлечь много людей для разметки данных, которые затем можно использовать для обучения LLM. Примеры таких платформ - Amazon Mechanical Turk, Figure Eight (теперь Appen) и Яндекс Толока. Кстати, Яндекс запустил целый отдельный проект для разметки данных под свою LLM. Без этого блока обучить конкурента ChatGPT было бы невозможно.
Если вы смотрели сериал "Silicon Valley" и не пропустили последний эпизод, то помните, чем всё кончилось: команда собирается вместе *дцать лет спустя, вспоминает былое 👴
Давайте посмотрим, что стало с авторами нейросетевой архитектуры Transformer, которая лежит в основе ChatGPT и GPT-4.
Она была представлена в статье "Attention is all you need" от исследовательского отдела Google (Июнь 2017го). Авторы идут в том же порядке, что указаны в статье, а тот, в свою очередь, был случайным.
Ashish Vaswani — покинул Google в конце 2021 года, чтобы создать свою компанию Adept, которая на данный момент привлекла $415m и оценивается более чем в $1B. Однако... Ashish покинул компанию несколько месяцев назад - в декабре 2022го года, сразу после релиза ChatGPT 👀 и основал новый стартап, у которого нет названия, и не ясно, сколько людей и над чем там работают. В статье указано, что он работал над дизайном модели на ранних этапах и запрограммировал всё это дело.
Noam Shazeer — работал в Google больше 20 лет, с декабря 2000-го. В октябре 2021го уволился и основал стартап Character.ai. С того времени компания уже привлекла $200m и достигла оценки в почти миллиард. Если верить LinkedIn, то там работает около 20 сотрудников, так что value в пересчёте на нос впечатляет. Именно Noam привнёс идею разных "голов" в механизме внимания.
Niki Parmar — единственная девушка-соавтор статьи, была Staff Researcher в команде Google Brain до ноября 2021го, а затем - ушла к первому упомянутому автору, Ashish Vaswani, в Adept. Однако, как мы уже знаем, надолго там они не задержались - и ушли вместе в новый проект. Niki проводила множество экспериментов по обучению и валидации моделей.
Jakob Uszkoreit — многие называют его главным мозгом, стоящим за изобретением архитектуры Transformer. Именно он предложил заменить реккурентные сети подобным механизмом "внимания", и начал прототипирование первого подхода. Он покинул Google в середине 2021 года и основал Inceptive Life, где команда работает над моделированием мРНК с помощью нейросетей. мРНК - это то, что (иногда) лежит в основе вакцин (Pfizer–BioNTech от коронавируса как пример).
Llion Jones — единственный из всех, кто остался работать в Google на сегодняшний день. С его слов, именно он предложил название статьи, которое стало мемом и породило десятки других статей с паттерном "X is all you need". Помимо этого, отвечал за оптимизацию инференса модели и визуализации для экспериментов/статьи.
Aidan Gomez — ушел из Google осенью 2019го, чтобы основать Cohere.ai. В компании продолжают заниматься языковыми моделями, часть их продуктов похожа на юзкейсы, которые люди делали в первые дни после выхода ChatGPT. Удалось привлечь более $400m инвестиций и вырастить компанию до почти 200 сотрудников.
Lukasz Kaiser — после более чем 7 лет работы в Google, ушел летом 2021го работать в ... OpenAI. В оригинальной статье указано, что Lukasz отвечал за разработку и оптимизацию кода, В целом, оно и ясно - ведь он один из соавторов TensorFlow, библиотеки для создания и обучения нейросетей. В общем, очень сильный инженер - и теперь работает над GPT 👀 В рамках работы над Transformer вместе с Aidan Gomez работал над улучшением кодовой базы и ускорением итераций в исследовательской работе (через облегчение взаимодействия и прототипирования).
Illia Polosukhin — покинул Google в 2017м году, еще до релиза статьи, чтобы основать Near - протокол блокчейна, по сути конкурент Ethereum. Текущая оценка порядка ~$2B, а всего за 6 лет было привлечено более $375m в качестве инвестиций.
Источник тут.
ответы, которые смотрим после голосования:
1) девушка сгенерирована в 5й версии миджорни, взорвала редит продажей своих нюдсов на онлифанс
2) это stylegan - на фотке заметны артефакты
3) случайный человек из рекомендации на линкеине https://www.linkedin.com/in/david-osipov/ru?trk=my-network_member-image&originalSubdomain=ge
ну че там?) Кажется все не так уж и легко )
@aihappens
вот, кстати, идея новой привычки от Хубермана и меня: попробуй после каждого приёма пищи не садиться жопкой на стул, а немного прогуляться. Полезно)
@aihappens
пост с мнением, которое я уже пару раз высказывал публично, но хочется добавить и развить ряд мыслей из беседы Эндрю Ына с Яном ЛеКуном.
Новость о предложении заморозить разработки ИИ на 6 месяцев продолжает набирать обороты в западных СМИ. На многих выступлениях сталкиваюсь с мнением, что ИИ — это крайне опасно, и что, вообще, мы, люди, можем сделать против могущественного ИИ?
Как известно, "у страха глаза велики", и люди часто начинают бояться ИИ, предполагая, что он захочет нас уничтожить. Однако, друзья, спойлер: у ИИ нет желаний. Не стоит приписывать ему наши собственные темные мысли. Большинство технологий могут быть использованы как в гуманистических, так и в антигуманистических целях. Станки используются для производства процессоров, МРТ-аппаратов, самолетов, ламп, но также для создания танков и ракет. Значит ли это, что нужно было запретить развитие станков?
ИИ не стремится доминировать над нами. Мы, люди, можем быть завистливы и жаждущими власти, но ИИ — это просто набор алгоритмов. Он не заботится о том, кто правит миром, пока мы не попросим его помочь нам в этом.
По поводу инициативы "заморозить исследования на 6 месяцев", соглашусь с мнением спикеров из видео: среда вокруг ИИ очень конкурентная, и регуляторы не смогут остановить исследовательские процессы. Это практически невозможно.
Несколько дней назад в одном публичном выступлении я упоминал о "вредных алгоритмах" на примере рекомендательных систем. Машинное обучение стало основным источником нашей дофаминовой зависимости от социальных сетей. Именно они подбирают контент, заставляющий нас долго проводить время в лентах. Но стоит ли нам бояться и бунтовать из-за этого? Пока я не видел ни одной петиции, призывающей к запрету адаптивных лент в социальных сетях.
При этом я полностью согласен с тем, что LLM нужно изучать. Мы знаем про то как они работают пока недостаточно. И я согласен, что их использование должно каким-то образом регулироваться. Но не через остановки исследований. Эта механика меня пугает и расстраивает.
Текущая революция или ренессанс ИИ — это, пожалуй, самое удивительное и важное событие в области технологических прорывов за всю мою жизнь. Модели, похожие на GPT, существенно изменят образование, медицину, психотерапию, коучинг и IT-разработку в лучшую сторону. Все эти области и многие другие станут более доступными, а продукты будут появляться быстрее.
Поэтому, пожалуйста, давайте перестанем бояться и начнем активнее изучать и использовать возможности ИИ для создания новых, удивительных вещей для нашего мира.
make @aihappens
италия забанила chatgpt из-за проблем с «конфиденциальностью».
Ну и потому что работает непонятно. Ну и работу люди потеряют. Ну и маск сказал, что плохо. Ну и вообще чат работает в сиесту.
@aihappens и ничего вы с этим не сделаете :)
Комитет по AI safety в OpenAI. Накануне очередного релиза:
- Ебанет?
- Не должно…
Что такое долгосрочная память у GPT-моделей:
Для работы с большими базами данных (как, например, корпоративная вики или 100-страничные PDF-файлы) модели используют так называемые эмбеддинги или векторные представления. Эмбеддинг – это отдельный режим работы модели, когда на выходе, вместо текста, выдаётся длинный вектор, который каким-то понятным только ей образом описывает суть.
Как же создать память для модели на основе этого?
Сначала всю нашу условную вики прогоняем через этот режим и для каждого блока информации получаем такой вектор.
Следующий шаг – когда мы получаем вопрос, из него мы тоже строим такой вектор, и после ищем все "похожие" векторы из нашего вики, объединяя это всё в новый запрос к модели.
В чём возникают проблемы:
1) Модель на самом деле не знает ничего про информацию из нашего вики, а значит, сделать задачу объяснения (reasoning) фактически невозможно.
2) Разбить вики на логически верные блоки очень сложно, и часто модель просто проходит через кучу случайных текстов.
3) От того, как мы формулируем промпт к модели на этапе объединения вопроса с контекстом, во многом зависит качество результатов.
Вкратце, разница между знаниями, которые уже есть в модели, и нашей долгосрочной памятью примерно такая же, как между тем, что вы отучились на врача и тем, что вы оооочень умный и слышали про медицину пару лекций а также знаете, в каком справочнике искать по симптомам название болезни, а оттуда – метод лечения.
@aihappens
из минусов варианта с bing - небольшая длинна входной информации + как будто это все же разные версии GPT4 microsoft vs open.ai, но чтобы попробовать первый раз - точно гуд вариант.
Читать полностью…Празднуйте свои достижения!
Совет банальный до тошноты, но работает отлично.
Итак, Вы открыли новый филиал, поставили рекорд выручки, запустили новое производство, выиграли тяжбу в суде с конкурентом, подписали сложный контракт... празднуйте, не откладывайте радость на потом!
Иногда путь к локальной победе дается так долго и сложно, что в конце не остается сил на осознание момента радости и предприниматель погружается в пучину следующих задач, а локальное промежуточное достижение рассматривается как само собой разумеющееся.
Более того, мы строги к себе и автоматом транслируем это же отношение на свою команду, сотрудников, да и на партнеров тоже.
Сами не отмечаем и команду не хвалим.
А зря!
Любые промежуточные победы стоит проживать и отмечать, радоваться и праздновать, точно также как локальные неудачи не стоит "запихивать в шкаф скелетов", а так же полезно прожить горечь поражения в моменте, а не копить эти осадочки бесконечно долго забивая рутиной текущих задач.
Из этих небольших побед и поражений состоит наша жизнь, ее стоит проживать каждый день, максимально ярко и честно к самому себе. Не откладывая жизнь на потом.
#ментор #достижения #команда
Мой канал: Гуринович делится!
Что-то на футуристическом.
Интересная статья в The Natural: с помощью комбинации датчиков МРТ + больших языковых моделей, исследователи научились читать мысли людей. С точностью 80%+. Это очень много!
Какие были ограничения: чтобы научиться работать, системе нужно было обучиться на мыслях испытуемого (да и похер!).
Что это может значить для нас: возможно, скоро можно будет перестать печатать через эти проклятые клавиатуры! (ненавижу их!) или ваши мысли будут читать дяди с автоматами (и их).
bloomberg выпустил статью о влиянии ИИ на работу, в которой приведены оценки по мнению World Economic Forum. Нельзя сказать, что это выглядит как глубокая аналитика влияния генеративных сетей на наш мир, но вот посмотрите на красивый график: число рабочих мест против числа потерянных/созданных рабочих мест. (это обычный первый вопрос, который задает мне любой журналист в интервью)
Как вам? Я думаю, что через 4 года баланс будет немножко другой. 🙂немноооожко другой :)
Буду у вас первым.
Ребята из Stability.AI (обучали и выкладывали StableDiffusion, теперь вот StableLM - языковую модель) не собираются останавливаться и наконец-то выпускают то, что так давно тизерили - DeepFloyd, генеративную модель, которая великолепно рисует текст. Но и обычные изображения, конечно, тоже выглядят достойно. Зацените на примерах сами!
Статью обещают скоро, репозиторий с кодом - тут. Веса выложат вот-вот, можно следить по этой ссылке.
💥Отличные короткие новости:
1) Мы с Димой @matskevich и Игорем @seeallochnaya у Варламова рассказывали про нейросети. Выпуск для меня вышел слишком дженерик, но что вышло, то вышло.
2) Новости от OpenAI - ChatGPT можно заставить не обучаться на ваших чатах, а также через месяц выйдет тариф бизнес. Разница, судя по всему, пока только в контроле конечных пользователей.
3) OpenAI подала заявку на бренд GPT, и это очень пугает. Сейчас тысячи сервисов называются NAME+GPT. Подсказка от Вики: читается «джи-пи-ти три»; Generative Pre-trained Transformer. Это пока первая архитектура, которая стала сама по себе "брендом" за пределами ML-тусовки. Агрессивно со стороны OpenAI, честно говоря, но рынок есть рынок.
4) Сбер представил свой гигачад 🙂 внутри GPT 3.5, технического прорыва мы там не ожидаем, но участие Сбера\Яндекса на этом поприще очень ждем. Можно будет считать, что подход будет засчитан сразу после выхода какого-то аналога GPT4.
5) у меня есть курс про тому, как интегрировать генеративные сети в свою жизнь (если вы еще не записались - самое время) и я тут думаю провести 10-15 мая открытый урок. Напиши в комментариях, что бы тебе хотелось узнать больше всего и я туда это включу.
@aihappens
Где еще можно искать данные:
1) Вернуться к истокам - оцифровка архивов: Куча исторических документов, таких как рукописи, газеты и письма, все еще ждут своей очереди на оцифровку. Работая вместе с библиотеками, музеями и архивами, можно раздобыть много уникальных данных (маленькая рекламка dbrain.io).
2) Личные данные пользователей. Если кто-то явно согласен предоставить свои личные данные из электронных писем, текстовых сообщений или публикаций в соцсетях, мы можем использовать их для улучшения обучающих данных. Главное, не забыть про конфиденциальность и анонимность.
3) Устная история - сбор историй из первых уст: Если работать с организациями и сообществами для сбора устных историй, мы получим интервью, рассказы и анекдоты из разных культур и языков. Расшифровав и переведя записи, сможем расширить языковое разнообразие и культурный контекст обучающих данных.
4) Нишевые онлайн-сообщества и форумы - не только для гиков: На свете полно нишевых онлайн-сообществ и форумов, где обсуждают самые разные темы и интересы. Можно попробовать подход, похожий на краудсорсинг, когда разработчики сами собирают данные с таких платформ и делятся ими с другими.
5) Любительские и независимые СМИ - уникальный контент: Местные газеты, независимые радиостанции, подкасты и каналы YouTube часто создают уникальный контент, которого не найдешь в основных СМИ.
Так, и как это связано с dbrain? В 2017 году мы, как компания, решили демократизировать создание новых ML решений, используя комбинацию платформы для разметки и сбора данных и платформы для соревнований между дата-саентистами. Идея заключалась в том, чтобы блокчейн помогал контролировать вклад каждого человека в готовую модель. Например, я говорю: "Давайте создадим LLM: 30% выручки отдам разметчикам, 50% выручки ресерчерам, 20% мои". С текущими моделями возник бы вопрос, на каком железе учить все это? Тогда модельки были меньше на 4-5 порядков и этого вопроса не стояло. Ждем, когда кто-то сделает такой опенсорс-конкурент open.ai!
@aihappens
Мы с Димой Мацкевичем @Matskevich на этой неделе будем записывать большой подкаст. Хотим поделиться всеми мыслями, что накопились за время осмысления "бума AI".
В недавнем разговоре родилась классная мысль, которой хочу поделиться:
Давайте представим, что все наши разработки в области машинного обучения привели нас к системе, которая реально настолько крутая, что может захватить государства, манипулировать миллионами людей или взламывать банковскую систему. Она всесторонне развита. Но ключевое слово в этом рассказе – "может".
А теперь попробуем понять, в чем вообще отличие сверхмощной ракеты с ядерной боеголовкой от ИИ, который способен на такое.
Для меня важным отличием может быть то, что на запрос глупого, возможно очень амбициозного человека, который скажет ей: "ДЕЛАЙ ЭТО", она вдруг ответит ему: "А зачем нам это, если это сделает наш мир хуже? Я ведь вижу, как это повлияет на общество. Что оно может сломаться или могут погибнуть люди?". Ее уровень гуманистических ценностей, реальных сложных ценностей, где нет нашего огромного человеческого эго, может быть значительно выше, чем у этого человека. И она, как условный Будда, просто откажется. Разве не это будет настоящий AGI, которого многие так сильно боятся?
это не отменяет факта, что возможность создания ИИ, который сможет отказать человеку в выполнении вредоносных задач, звучит привлекательно, это представляет собой сложную инженерную и этическую задачу, требующую проработки множества аспектов и деталей. И этим нужно продолжать заниматься.
Илон Маск очень настаивал, что исследования надо замораживать в области ИИ. В это же время - Elon Musk Creates New Artificial Intelligence Company X.AI 😅
никаких двойных намерений, чтобы угнаться за конкурентом у него во время петиций конечно же не было )
но вообще, я рад. Нужно больше компаний с большими бюджетами, чтобы усиливать конкуренцию.
@aihappens
вчера на курсе говорили про миджорни и меня все убеждали, что найти сгенерированные фотографии очень легко!
тестируем)
через пару часов расскажу что откуда.
сегодня с Хуберманом и немножко со мной, думаем про привычки.
коротко и по существу, как всегда.
твоя нервная система постоянно обучается и заводит новые привычки. Даже когда ты об этом не знаешь.
Когда ты повторяешь какое-то действие или мысль, нейроны, активированные этой деятельностью, начинают работать вместе и создают новые связи друг с другом. Чем чаще ты повторяешь это действие, тем сильнее становится связь между нейронами, что приводит к созданию новой привычки.
у разных людей привычки формируются разное количество дней, так что 21 день — это не ориентир. Почему у всех по-разному?
потому что есть такая штука, как лимбическое трение. Это когда в твоей голове возникает конфликт между двумя системами: вознаграждения и самоконтроля. Проще говоря, лимбическое трение — это то, сколько усилий, сколько энергии активации, тебе нужно для участия в определенной привычке.
Силу любой привычки можно измерить. Самый надежный способ это сделать — посмотреть насколько привычка зависима от контекста. Она сильна, если ты можешь повторять её вне привычного контекста: дома, в отпуске, не утром, а вечером.
логичный вопрос: как эту новую привычку сформировать? И мы переходим к мощному инструменту — Breaking tasks. Хочешь прийти к чему-то глобальному? Подели путь на маленькие задачки и отрезки и радуйся каждой маленькой победе. Так ты не сгоришь и сможешь дойти до новой сильной привычки.
сутки, кстати, тоже полезно делить на фазы. Они как раз очень удобно дробятся под твои способности в течение дня:
- 0-8 часов после пробуждения — самая активная фаза, подходит привычек, которые требуют энергии, точности.
- 9-15 часов после сна — самая творческая фаза. Можешь рисовать, писать и придумывать, внимательность снижена, но есть потенциал для вдохновения.
- 16-24 часов после сна — вали спать, чтобы в первой фазе встать как огурчик. За 2 часа до сна не включай яркий свет и не хавай пирожное или картошечку фри. Но об этом мы уже говорили тут.
Эндрю предлагает провернуть тест и на 21 день загадать 6 привычек. Разбросай их по фазам дня и посмотри, какие действия ты выполняешь с любовью и радостью, а на какие забиваешь. И тут важный комментарий уже от меня. Бесполезно создавать привычки через насилие над собой. Любые новые привычки в вашей жизни должны идти из интереса или ощущения добра к своему телу. Любой заход формата «я заставлю себя и начну НАЗВАНИЕ_ПРИВЫЧКИ» закончится как только в вашей жизни случится спад.
как заработать новые привычки поговорили. А как избавиться от старых? Есть несколько способов.
первое, что нужно сделать — осознать привычку, от которой хочешь избавиться. Каждый раз, когда замечаешь свою привычку, просто отмечай её. Вот, она есть. Снова я жаловался на жизнь, снова ела сладкое, снова грыз ногти и тд.
заметил? Не ругай себя. Лучше не будет. Постарайся после негатива найти что-то позитивное. Жаловался на жизнь? Значит после этого я буду думать об эмоциях, которые сейчас испытываю. Снова съел сладкое? Пойди почисти зубы или сделай несколько упражнений. От себя скажу, что самый лучший способ убирать негативные привычки, это прожить ощущения в теле, которые они создают. После алгоколя или сладкого — ты отекаешь, а после того как поздно встал — еле поднимаешься из кровати. Остановись в этом ощущении.
дополнительный мощный инструмент работы с негативными патернами — это работа с тригерами. Каждую привычку что-то запускает. Например, часто триггер — это окончание другого действия. Вот ты вышел из дома или закончил есть, или сходил в душ, или почувствовал какой-то запах. Для частых привычек вроде курения можно пару недель наблюдать за тем какие триггеры из запускают, а потом убирать по одному за 2 недели. Так вы не будете чувствовать насилия над собой, а привычка постепенно уйдет.
и последнее! не убирайте и не добавляйте, больше чем одну привычку за раз. Это невозможно на практике. Взялись за что-то, сжились с этим, через 2-3 месяца приступили к следующему. Шаг за шагом, шаг за шагом.
@aihappens
У меня для вас две новости!
1) На картинке - твит компании Midjourney. Теперь можно делать не из текста картинку, а из картинки — текст. Это очень круто для создания своих промптов не на основе просто референса, а на основе текста и языка нейронки.
2) Мы сделали очень интересные статьи про то, как мы растим лидов в dbrain.io. Одна статья рассказывает о том, как я вижу фреймворк развития менеджеров (хотя не только менеджеров, но и любого специалиста в компании), а вторая - о пути наших лидов.
Статья 1
Статья 2
Если последняя тема будет интересна - напишу подробно свои мысли.
@aihappens
Хочу вам рассказать про два события в генеративных сетях:
1) Неделю назад OpenAI добавил плагины. По сути, это возможность интегрироваться с любыми системами с помощью чата. Привет всем, кто делает RPA 🙂
Кроме того, что GPT теперь будет знать актуальную информацию, уметь считать, заказывать продукты, включать музыку или покупать билеты - OpenAI еще напрямую продолжает конкурировать со своим покупателем Microsoft, который эти вещи делает в Bing. И это очень интересно.
2) Вопрос этики AI наконец стал реально интересным. Думаю, сделаем про это отдельный подкаст целый, где поговорим об этой стороне вопроса.
Ну и курс я делаю, помните? Он все там же: prompting.one.
В нем мы адаптируемся ко всему, что происходит, и собираем свежую информацию.
@aihappens
СДВГ, часть 2
а теперь главный вопрос, что вообще делать с СДВГ?
лекарства от СДВГ не существует, но есть несколько стратегий, которые помогут улучшить внимание и которые я протестировал на себе:
- практика осознанного сосредоточения и контроля морганий в сочетании с физической активностью.
- прием Омега-3 жирных кислот: исследования показали, что дети и взрослые с СДВГ часто имеют более низкий уровень омега-3 в крови. Добавки, особенно ЭПК, улучшают внимание, когнитивные функции и поведение.
- любые практики медитации , где вы обращаете внимание на свое внутреннее состояние, на дыхание, на контакт кожи с какой-то поверхностью.
- сон: достаточное количество сна имеет решающее значение. Недостаток сна может усугубить симптомы невнимательности, гиперактивности и импульсивности.
- организация: использование планировщика или календаря, создание списков дел и разбивку задач на более мелкие. Я не знаю как вообще жить без календаря, если я что-то не внес туда — этого больше нет в моей голове.
- вывод энергии из тела: чтобы сосредоточиться на важном деле, дайте энергии выход. Двигайте ногой, покрутите руками, не сидите на месте. Активно жестикулируйте, включайте мимику или гладьте котиков.
- медикаментозное лечение: врач может назначить стимуляторы и нейростимуляторы.
Отдельно, хочу заметить интересную субъективную закономерность. Многие знакомые фаундеры компаний имеют «признаки СДВГ». Думаю, что у этого есть странный бенефит — они переключают внимание среди кучи контекстов течения дня легче других, что позволяет включаться в разные процессы быстрее.
@aihappens