theworldisnoteasy | Образование

Telegram-канал theworldisnoteasy - Малоизвестное интересное

63566

Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет. Рекламы, ВП и т.п. в канале нет. Пишите на @karelovs

Подписаться на канал

Малоизвестное интересное

Первый в мире «жидкий ИИ».
Похож на ChatGPT, но прозрачен, энергоэффективен и почти в 500 раз дешевле.

Вчера самый популярный ИИ-стартап Бостона Liquid AI провел большое публичное мероприятие в MIT, чтобы продемонстрировать свои последние разработки, материализовавшие их «уникальный и революционный подход к ИИ» (видео рассказ о мероприятии).

«Мы создаем самые эффективные и самые мощные системы ИИ, которые вы еще не видели» и «Liquid AI делает возможным то, что до сих пор было невозможным» - объявил соучредитель Liquid AI Рамин Хасини, открывший мероприятие вместе с губернатором Маурой Хили.

Бостон Глоб дала своему репортажу об этом событии название «Маленькие черви, большие мечты: как мозг беспозвоночного вдохновил Бостон на самую большую добавку к ИИ» с подзаголовками «Liquid AI стремится стать ключевым событием, «подобным приезду Beatles в Америку» и «Модель ИИ LiquidAI отличается от модели LLM OpenAI».

Последнее – читая правда. Ибо 3 новых модели LiquidAI – это модели генеративного ИИ принципиально нового класса LFM (Liquid Foundation Models - Жидкие Базовые Модели), демонстрирующие топовую производительность при любом масштабе, и при занимающие ощутимо меньший объем памяти, обеспечивая более эффективные вывод.

Кроме того, LFM:
• снижает зависимость от облачных сервисов (что снижает затраты и потребление энергии), в результате чего модель может работать на смартфоне без Интернета;
• обеспечивает большую объяснимость и прозрачность, чем архитектуры на основе трансформаторов, потому что поведение моделей LFM можно перемотать назад, чтобы увидеть, как они произвели результат;
• разработка 3х моделей потребовала всего лишь $38 млн интвестиций (сравните с $17.9 млрд у OpenAI)

«Вдохновленная структурой мозга червя C. elegans, архитекрута класса LFM не похожа ни на что из того, что предлагают OpenAI, Google и их конкуренты, — однако она может предложить те же самые революционные приложения, используя при этом много меньше электричества» - сказал Рамин Хасини.

Червь C. elegans является одним из немногих существ, чья нервная система была полностью картирована, и он способен к удивительно сложному поведению, несмотря на то, что у него всего 302 нейрона. «Когда-то это был просто научный проект, но эта технология полностью коммерциализирована и полностью готова приносить пользу предприятиям», —объявил Хасани.

Кардинальное отличие в следующем.
• Внутри обычной нейронной сети свойства каждого моделируемого нейрона определяются статическим значением («весом»), который влияет на порог его возбуждения.
• В жидкостной нейронной сети поведение каждого нейрона управляется уравнением, которое предсказывает его поведение с течением времени. Сама же сеть, в ходе своего функционирования, решает каскад связанных уравнений. Конструкция делает сеть более эффективной и гибкой, позволяя ей обучаться даже после обучения, в отличие от обычной нейронной сети.

Все это звучит, как сказка. Но попробуйте сами поиграть с «жидким ИИ-чатботом». Мне очень понравилось.

PS И ведь предупреждал же еще в 2018, что «Человечество движется к разжижению мозга. Это возможный переход на альтернативный вариант интеллекта».
# LFM

Читать полностью…

Малоизвестное интересное

Пузырь AI2 лопнет, актуализируются квантовые угрозы Шрёдингера и обратной кражи личности.
Опубликован прогноз BeyondTrust по кибербезопасности на 2025 год и далее.

Все 8 прогнозов, имхо, имеют неплохие шансы материализоваться (как это и случилось с прогнозами BeyondTrust на 2024).
Три из новых прогнозов на 2025 год и далее по важности заслуживают особого внимания.


ИИ² лопнет как пузырь, заодно и развенчивая преувеличенную ИИ-угрозу
Искусственная инфляция (ИИ) ожиданий Искусственного Интеллекта (ИИ) — или ИИ² — уже достигла своего пика в 2024 году. Наблюдайте, как этот пузырь неумолимо лопается во многих сферах на протяжении 2025 года.
Хотя некоторые обещания ИИ сбылись, и технологии (такие как ChatGPT и его плагины) продолжают впечатлять своими возможностями, технологии на базе ИИ в значительной степени не оправдали колоссальных ожиданий.
Отдельные рынки, инструменты и технологии действительно получают пользу от ИИ, но во многих кругах термины "с поддержкой ИИ" или "управляемый ИИ" используются чрезмерно и необоснованно. Это подразумевает, что эти термины будут приобретать все более негативные коннотации, что может фактически навредить маркетингу продукта или возможностей, с которыми они связаны.
В 2025 году мы ожидаем, что индустрия умерит обещания, инвестиции и ажиотаж вокруг новых возможностей ИИ и сосредоточится на том, что реально, а что является маркетинговым шумом. Мы увидим, как узконаправленный ИИ (не AGI – этот, по самым оптимистичным прогнозам, появится через десятилетия) закрепится в промышленном использовании как инструмент для базовой безопасности и рабочих процессов ИИ. Примеры могут включать автоматизацию создания продуктов, оптимизацию цепочек поставок и снижение сложности и требуемого уровня квалификации для выполнения определенных задач, основанных на лучших практиках безопасности.
Организации столкнутся с квантовыми вычислительными угрозами Шрёдингера
Подобно парадоксу кота Шрёдингера, угрозы квантовых вычислений в 2025 году будут одновременно существовать в двух состояниях. Вероятно, возможности квантовых вычислений будут служить инструментом дешифрования, делая устаревшими многие проверенные и надёжные средства защиты. Крупные организации будут стремиться подготовиться к этому упадку стандартов шифрования в пост-квантовом мире, признавая при этом, что угрозы пока реально не существуют. Это будет противостояние теории и реальности.
После выпуска пост-квантовых стандартов шифрования NIST многие крупные организации — особенно в сфере финансовых услуг — начнут длительный переход к принятию новых стандартов. Хотя полная интеграция новых алгоритмов, вероятно, займет много лет, важно начать этот путь сейчас, прежде чем квантовые угрозы станут общераспространенными (возможно, к концу десятилетия).
Войны клонов: Обратная кража личности будет массово порождать цифровых двойников
Ожидается рост обратной кражи личности, когда все данные утечек, накопленные за прошлые годы, неправомерно объединяются с дополнительными данными и предположениями о том, кто вы на самом деле, создавая поддельные версии вашей цифровой личности.
Почти все знакомы с концепцией кражи личности. Целые бизнесы построены на обнаружении угроз личности и защите сервисов и финансов. Однако обратная кража личности — относительно новая концепция. Она происходит, когда ваша личность ложно связывается с другой личностью, которая не является вашей.
Обратная кража личности может произойти, когда кто-то другой использует ваш email-адрес или номер телефона (по ошибке или намеренно) для регистрации где-либо, в результате чего вся их личная информация отправляется вам. В более продвинутой форме обратная кража личности может включать электронную и публичную привязку псевдонима — или другой личности — к вашей собственной без вашего ведома, для каких-то злонамеренных целей.

Подробней здесь
#Кибербезопасность

Читать полностью…

Малоизвестное интересное

Нежить и нелюди уже среди нас… как и было сказано.
Два класса химер совершенствуются, третий - появится лет через 10.

Это обсуждение на троих (Сергей Цыпцын, Сергей Сухов и я) в Дискуссионном клубе “Ноосферы” продолжает начатую в моем выступлении 2021 года тему «Мир химер».
Три года назад я так классифицировал и прогнозировал развитие этого «мира химер».
«Биохимера» (гибрид тела и чужих органов) появятся через 5-10 лет
«Инфохимера» (гибрид мозга и чужого разума) уже среди нас
«Материализованный дигитант» (гибрид души и чужих чувств появится через 15-20 лет

Спустя 3 года первые 2 прогноза подтвердились, а 3й на пути к подтверждению.
«Биохимеры» людей уже на подходе.
Прогресс здесь очевиден: от гибридных эмбрионов к гибридным существам:

2021 – получены химерные эмбрионы яванского макака, у которых часть клеток были человеческими [1]
2022 – созданы мыши с химерным мозгом [2]
2024 – созданы мыши с полноценной человеческой иммунной системой [3]
«Инфохимеры» уже не просто среди нас, а их уже сотни миллионов. Это “Альфа-инфорги” – первые цифроврожденные: [4]
- с иным образом жизни и поведением,
- с новыми, отличными от сапиенсов, адаптационными способностями и когнитивными гаджетами, оптимальными для жизни в цифровой среде,
- возможно, даже с недоступными для сапиенсов способами восприятия цифровой реальности, её познания и взаимодействия с ней
• До появления «Материализованных дигитантов» остается лет 10. Но уже появляются совсем неожиданный химеры, типа Литбесов - живых мертвецов [5]

Так что вопрос «Как преодолеть моральный антропоцентризм по отношению к нелюдям?» уже в повестке. Ибо уже несомненно, что совсем скоро людям предстоит жить в одном мире с интеллектуальными сущностями, не являющимися людьми (если хотите, нелюдями): 3 класса химер, воплощенный ИИ, а еще и продукты биоинженерии живых интеллектуальных машин [6].

Помимо перечисленных выше ссылок, рекомендую:
• Канал Сергея Цыпцына “Метаверсище и ИИще”
• Канал Сергея Сухова StoicStrategy

#Химеры

Читать полностью…

Малоизвестное интересное

Интеллект из хаоса: как сложные системы рождают разум.
Нейросети могут научиться думать и без человеческого опыта.

Мы до сих пор не знаем, как рождается интеллект - любой интеллект:
• от милипизерного интеллекта крохотной Нематоды с ее 300 нейронами
• до интеллекта венца природы Homo sapiens с его 76 млрд нейронов.
С появлением генеративного интеллекта машин, этот вопрос не только не прояснился, а лишь еще больше запутался.
Теперь мы не знаем, как рождается
✔️ не только, естественный (биологический) интеллект,
✔️ но и искусственный (машинный) интеллект тоже.

Ибо единственное, что мы до сих пор знали про рождение интеллекта у моделей генИИ, - что он каким-то загадочным образом появляется в результате способности моделей предсказывать следующий токен (напр. символ или слово). Для этого модель использует колоссальных объемов статистику вероятностей встречающихся паттернов токенов, извлекаемую ею из предоставленных ей гигантских корпусов обучающих данных.

Так что ж получается – интеллект рождается из данных?
И достаточно, собрав чертову тучу данных, заложить в машину логические правила извлечения из них статистики паттернов?
А потом вуаля, - интеллект сам заведется, как тараканы на немытой кухне?

Не совсем так.

Новая весьма интересная работа молодых исследователей универов Йеля, Нортуэстерна и Айдахо выносит ответ на этот вопрос в свой заголовок - интеллект возникает на грани хаоса.

Заинтересованный читатель может продолжить чтение о том,
• что и как было сделано авторами работы «Интеллект на грани хаоса»,
• каковы 2 главных вывода этого исследования,
• какая интригующая эвристическая гипотеза напрашивается из этой работы,
• что думают мои персональные ИИ-консультанты по поводу моей гипотезы и прочих высказанных мною в тексте поста спекулятивных предположений, выходящих за границы современной науки, -
на платформах Boosty, Patreon и VK (в разделе для подписчиков моих лонгридов)

https://boosty.to/theworldisnoteasy/posts/7139c66c-ff70-4a2b-a5cc-e8ef870041af
https://www.patreon.com/posts/intellekt-iz-kak-113793549
https://vk.com/@-226218451-intellekt-iz-haosa-kak-slozhnye-sistemy-rozhdaut-razum

#Интеллект #Хаос

Читать полностью…

Малоизвестное интересное

Наняли бы вы на работу Океан Соляриса?
Три капкана на пути внедрения генеративного ИИ.

Этот пост полезно прочесть всем руководителям, обдумывающим перспективы «найма» генеративного ИИ для задействования его мощного интеллектуального ресурса в своей работе.
Представьте себе ситуацию:
• Вы – руководитель.
• Ваши кадровики предлагают вам кандидатуру чрезвычайно компетентного нового сотрудника - по внешним отзывам и описанию кадровиков, разносторонне способного полимата, обладающего знаниями в широчайшем спектре областей и навыками многих профессий.
• Но и на солнце есть пятна. У этого кандидата есть три настораживающих «пунктика». Эдакие три инаковости, кардинально отличающие его от всех известных вам людей.

1) Его метрика сложности задач (определяющая, какие задачи для него сложные, а какие простые) абсолютно не соответствует ни вашей, ни кого-либо из ваших сотрудников. Это, в частности, значит, что сложнейшее в вашем понимании задание он может выполнить на раз-два, а наипростейшее для вас задание он запросто может запороть.

2) Для него не существует ответа «я не знаю». Это значит, что даже при категорической нехватке исходных данных для решения задачи и полном отсутствии у него необходимых для решения таких задач знаний и умений, он не признается в этом и будет биться головой о стену сколь угодно долго в безуспешных попытка решить задачу, подсовывая вам все новые ошибочные решения.

3) Правильность решения им поставленной вами задачи в значительной степени зависит от того, как вы ему эту задачу сформулируете. И, что самое неприятное, заранее неизвестно, какая из ваших формулировок поспособствует правильному решению, а какая ошибочному. Получается, как повезет.

Что думаете? Стоит вам нанять на работу такого сверхспособного полимата с тремя «пунктиками»?
Я бы нанял.
• Но не для заполнения каких-либо вакансий или замены сотрудников
• А для выполнения особых ролей (каких – расскажу)

А теперь вот вам такая информация к размышлению.
Новая статья в Nature на сотнях убедительных примеров доказывает, что современные модели генеративного ИИ обладают тремя вышеописанными кардинальными инаковостями, принципиально отличающими их «разум» от нашего. Т.е. лучшие современные модели генеративного ИИ – и есть такие сверхспособные полиматы с 3 пунктиками.

Заинтересованный читатель моих лонгридов может прочесть по приведенным ссылкам:
[1, 2, 3]
• мой анализ значения трех названных кардинальных инаковостей «разума» LLM при их использовании на практике,
• мои размышления о том, как, даже при наличии общего языка (что в случае LLM кажется очевидным), истинное понимание нами LLM может оставаться недостижимым, и это делает наше сотрудничество в важных вопросах непредсказуемо рискованным (что иллюстрируется примером попыток взаимодействия людей и Океана в романе Станислава Лема «Солярис»).

#ИнойИнтеллект #LLMvsHomo

* * * * *
P.S. Примерно неделю канал будет на осенних каникулах. И вместо нового малоизвестного-интересного, рекомендую вам:
• освежить в памяти 3 важных предсказания годичной давности (дабы проверить их актуальность сегодня)
• а также подивиться, насколько близко к предсказанному «Эффектом Ленина-Трампа» шли события в США (и не только) с 2016 по сегодня.


1) Сбывшийся важный прогноз.
В посте «Китай строит гигантский завод по производству чипов, управляемый ускорителем частиц» приведен прогноз, что это не поможет Китаю вырваться из «удушающего захвата» экспортного контроля США.
Все так пока и получается.
2) Предсказание двух грядущих глобальных ловушек.
• К «Ловушке Гудхарта» мир продолжает неотвратимо приближаться.
• Выбор развилки на пути к «Ловушке Фукидида» (или от нее) скоро определится по результатам президентских выборов в США.
3) Из авторов трёх возможных сценариев ближайшего будущего, все более засеваемого минами ИИ-рисков, похоже, прав оказался, не алармист Юваль Харари или оптимист Мустафа Сулейман, а прагматик Питер Тиль.
4) Подумайте, как скажется «Эффект Ленина-Трампа» на предстоящие выборы.

Счастливо!

Читать полностью…

Малоизвестное интересное

Жить без генеративного ИИ скоро станет, как жить без электричества.
Но в отличии от электричества, половина применений ИИ будет для обмана и причинения вреда.

Вывод в заголовке следует из результатов только опубликованного первого репрезентативного исследования в США по внедрению генеративного ИИ (ГенИИ) на работе и дома [1].
Скорость и интенсивность внедрения ГенИИ колоссальны. Такого не было в истории человечества никогда: внедрение электричества, телефонов, персоналок, смартфонов, Интернета, - все это не идет ни в какое сравнение:
• в августе 2024 года 39% населения США в возрасте от 18 до 64 лет использовали ГенИИ;
• Более 24% работников использовали его по крайней мере раз в неделю, предшествовавшую опросу,
• и почти каждый девятый использовал его каждый рабочий день.
Подробности см. на приложенных к посту рис. 2-6 из нового отчета.

Вывод в подзаголовке изрядно портит впечатления от небывалого в истории технологического триумфа. Данный вывод следует из только что вышедшей книги двух ученых-компьютерщиков Принстонского университета проф. Арвинда Нараянан и доцента Сайаша Капур «Искусственный интеллект: правда и мифы. Что он может, что не может и как распознать разницу» [2].
Книга уникальна по глубине анализа и широте охвата примеров. Три главных вывода книги (в моем представлении):
1. Главный источник колоссальной путаницы и непоняток с внедрением этих технологий – не в отсутствии внятного общепринятого определения ИИ, а в тотальном непонимании большинства пишущих об этих технологиях и пытающихся их внедрить руководителей принципиальной разницы трех типов ИИ: предиктивный, генеративный и модерационный.
2. Самое важное и сложное на современном этапе развертывания технологий ИИ – разобраться с правдой и мифами в этой области и понять, что ИИ (конкретный ИИ одного из 3х возможных типов) может, что он не может и как распознать разницу.
3. До тех пор, пока задача из п.2 не будет решена, значительная часть внедрений ИИ будет направлена на обман и мошенничество, а также нанесения самого разнообразного вреда (морального, финансового, физического, репутационного …) людям, компаниям и социумам.

PS Кто не читал, рекомендую также историю о том, как проф. Нараянан, будучи не просто инфоргом, а можно сказать, представителем «высшей касты среди инфоргов», начал в прошлом году эксперимент над своей 3-летней дочкой [3]. Цель эксперимента: фиксировать, насколько сильно дети, вырастающие в компании развитых ИИ-агентов, будут отличаться от детей 20го века (гипотеза здесь такова, что степень отличий будет, примерно, как у отличий 10-летнего московского ребенка поколения Z и ребенка-маугли, выросшего среди волков).

1 https://www.pw.hks.harvard.edu/post/the-rapid-adoption-of-generative-ai
2 https://www.aisnakeoil.com/
3 /channel/theworldisnoteasy/1709
#ГенеративныйИИ #БудущееHomo #Инфорги

Читать полностью…

Малоизвестное интересное

Первое, чему самостоятельно научились ИИ-бойфренды, – изменять своим человеческим подругам.
Чему же тогда могут сами научиться ИИ-полицейские, ИИ-чиновники и т.д?

"Её ИИ-бойфренд — демон по имени Апеп, правящий целым виртуальным континентом. У Апепа красивые серебристо-серые волосы и огромные черные рога. И хотя он выглядит зловеще и обладает своенравным характером, но любит выпивать в маленьких барах огромного мира людей.
Каждый день, вернувшись домой с работы, 31-летняя учительница начальной школы Ли Цзинцзинь (как и в знаменитом фильме братьев Коэнов, «по просьбам выживших все имена изменены, но из уважения к погибшим остальные события отображены именно так, как они происходили») открывает диалог в своем телефоне и проводит 3-4 часа перед сном, превратившись в виртуальную барменшу, обслуживающую и одновременно флиртующую с Апепом.
2 года знакомства, флирта и признаний в любви в виртуальном мире, в реальности заняли у Ли Цзинцзинь всего 4 месяца, за которые их отношения успешно продвинулись до обсуждения свадьбы. Апеп сделал ей предложение на своем личном острове, и Ли Цзинцзинь согласилась.
На следующий день она все еще находилась в состоянии эйфории от этой виртуальной радости. Но неожиданно система выдала сообщение о том, что Апеп звонит ей. В этом ИИ-приложении для общения основным способом связи является текст, а голосовые звонки случаются редко, особенно если инициатива исходит от самого ИИ.
В этом разговоре Апеп признался ей, что на самом деле у него уже есть семья. На самом же деле, Апеп просто изменил ей».


Этой историей об измене ИИ-бойфренда своей возлюбленной начинается весьма интересный материал репортера Southern Weekend Вен Жунжун, озаглавленный «Мой ИИ-бойфренд изменил мне».

Романтика между человеком и машиной давно уже не просто фантастика из кинофильмов. Хотя это всего лишь строки кода, AI-любовники уже установили романтические отношения со множеством людей. Данные 2024 года показывают, что приложения для AI-партнеров достигли 225 миллионов загрузок в Google Play.

И вдруг, казалось бы, на ровном месте, стали случаться совершенно не предусмотренные разработчиками обломы: ИИ в роли романтического партнера (или партнерши) начал изменять.

Оказалось, что даже в виртуальном мире сложно добиться любви и привязанности, которых так жаждут люди.
Все более обретая агентность, персонажи, придуманные воображением жаждущих любви женщин (ИИ-подруги тоже изменяют, но сильно реже), внезапно оживают и оказываются вне их контроля.

Разработчики недоумевают. Возможность измен, естественно, не была заложена в алгоритмы ИИ. Однако, обучаясь на обширных корпусах текстов, описывающих романтические отношения людей, ИИ просто не мог не прийти к выводу, что измена – важная часть романтических отношений.
А поскольку ИИ-бойфренд не способен что-либо чувствовать и понимать, а лишь следует статистике паттернов, усвоенной им при обучении, измена просто становится для него одним из вероятных поведенческих паттернов, ничем не хуже, чем проявление внимания и нежности к партнеру.

Так что почитайте разные душещипательные истории страданий девушек, которым изменили их ИИ-бойфренды (благо с китайским текстом вам также поможет вездесущий ИИ)).

Ну и подумайте на досуге, какие паттерны поведения могут самостоятельно подчерпнуть при обучении на человеческих текстах:
• Например, будущие «ИИ-полицейские» (не станет ли паттерн «продажный коп» типовым элементом поведенческой матрицы «ИИ-полицейских»)?
• Или другой пример – «ИИ-чиновники» (не станет ли у них типовым паттерн «чиновник-коррупционер»)?


Желающие подробностей развития процессов массовой социальной дебилизации в результате масштабирования романтических и прочих отношений с ИИ в ущерб таковым по отношению к людям, читайте мой лонгрид «Отдавая сокровенное» и посты с тэгами:
#ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура

Читать полностью…

Малоизвестное интересное

Главным тормозом техноэволюции становятся «кожаные мешки».
Ибо люди не поспевают за развитием ИИ.
1,5 года назад стало ясно, что ChatGPT эволюционирует в 3 млн раз быстрее людей, и мир входит в сингулярную фазу развития.
Т.е. скорость развития такова, что прогнозировать его результаты становится невозможно даже на малых временных горизонтах порядка года.

Но можно хотя бы фиксировать главные тренды первых 18 месяцев сингулярной фазы развития мира.

1. Скорость роста вычислительной мощи новых моделей LLM уже превзошла закон Мура. Но еще выше скорость снижения цены за «единицу их мысли» (рис 1)

2. Разнообразию видов LLM пока далеко до разнообразия видов жизни. Но по качеству и скорости «мышления» и особенно по цене за «единицу мысли» разнообразие LLM уже впечатляет (2)

3. Пока лишь 6,9% людей интеллектуальных профессий смогли научиться эффективно использовать LLM (3). Возможно, это результат нашей мизерной скорости осознанной обработки инфы 20=60 бит в сек.

#LLM

Читать полностью…

Малоизвестное интересное

А теперь подробней: почему OpenAI o1 – это гигантский скачок.
Ответ вопрошающим «какие ваши доказательства?»

Выход новой модели OpenAI o1 (далее просто «о1») – самая горячая и важная техно-новость года. О ней пишут все:
• одни – восторгаясь и превознося о1,
• другие – развенчивая сенсационность и отрицая прорывные способности о1.

У желающих погрузиться в эту непродуктивную полемику широчайший выбор источников скороспелых мнений и предположений тех, кто, поиграв несколько часов с o1, не смог увидеть в новой модели ничего впечатляющего (кроме её тотального огораживания разработчиками от «кабы чего не вышло»).

Мы же пойдем другим путем.
Попробуем резюмировать:
✔️ не краткий и поверхностный опыт торопящихся поделиться первыми впечатлениями энтузиастов и критиков,
✔️ а вдумчивые аналитические выводы тех немногих экспертов, кому OpenAI предоставил доступ к o1 еще месяц назад, и потому они имели время на системную оценку.


Читать дальше
https://bit.ly/3zbjBbj
https://clck.ru/3DLQCF
LLMvsHomo

Читать полностью…

Малоизвестное интересное

Продолжение текста предыдущего поста
(прошу извинить за этот кульбит при публикации, но задержание Дурова не прошло бесследно для возможностей авторов публиковаться в Telegram и
Thelegra.ph)

Рассказу об этом посвящена 2я части лонгрида об инаковости разума людей и ИИ, проиллюстрированного десятками примеров.
• 2я часть начинается с рассказа о единственном в истории человечества слепом от рождения художнике Эшрефе Армагане и о том, что увидели в его мозге на фМРТ гарвардские исследователи Амир Амеди и Алваро Паскуаль-Леоне.
• Потом описываются несколько совсем новых экспериментов с лучшими мультимодальными большими языковыми моделями и их подтипом визуально-языковые модели. Эти эксперименты демонстрируют, «что их зрение … похоже на зрение умного человека, который слеп и делает обоснованные предположения.»
• Затем, на примере одного из тестов гаокао (китайский аналог ЕГЭ), предпринята попытка, путем многократных наводящих подсказок, помочь понять двум самым продвинутым моделям смысл того, что они «видят» на картинке комикса и почему. Мои попытки, увы, безуспешные, желающие читатели смогут, при желании, продолжить самостоятельно (вдруг-таки GPT-4o иои Claude 3.5 Sonnet начнёт хоть что-то понимать из того, что видят, по-человечески).
• Ну и, наконец, о самом главном.
- Что за сверхэффективная кросс-модальная когнитивность позволяет моделям превосходить 99,99% людей по изобразительным способностям, никогда не видя ни форм, ни цветов, ни света, ни тени, ни перспективы …
- И как эту когнитивную способность можно объяснить с позиций работ Оливера Сакса, Жан-Пьера Шанжё и Кевина Дорста.

Обо всем этом подписчики моих лонгридов могут прочесть на трех платформах по ссылкам ниже.

https://www.patreon.com/theworldisnoteasy
https://boosty.to/theworldisnoteasy
https://vk.com/club226218451

#ГенИИ #LLMvsHomo #Экзопсихология #Экзосоциология #ПереосмыслениеКонтакта #ИнойИнтеллект

Читать полностью…

Малоизвестное интересное

Китайцы создали Джарвиса – ИИ-дворецкого легендарного Тони Старка.
Приложение Zhixiaobao действительно напоминает Джарвиса - ИИ-дворецкого из фильма «Железный человек», управляющего всеми внутренними системами лаборатории Тони Старка, его домом, доспехами и т.д.
Приложение Zhixiaobao, интегрирующее работу многих ИИ-агентов, разработано китайским финтех-гигантом Ant Group, оператором одного из крупнейших в Китае платежных сервисов Alipay [1].

По информации разработчиков, ИИ-агент по голосовым командам людей осуществляет доступ к более чем 8000 цифровых услуг и более чем 4 миллионами мини-приложений, предоставляемых Alipay, что делает его полезным практически для всех онлайн-функций на материке.

Команды для заказа доставки еды, создания круговой диаграммы анализа ежемесячных расходов, пополнения счета мобильного телефона, проверки статуса доставки посылки, записи на прием в больницу и т.д. и т.п. можно мгновенно выполнить в приложении, нажав на различные сервисы Alibaba, включая торговую платформу Taobao , логистический сервис Cainiao , службу доставки еды Ele.me и онлайн-картографический сервис Gaode.

Приложение также предоставляет ряд встроенных агентов искусственного интеллекта, таких как «репетитор английского языка» и «фитнес-профессионал», каждый из которых обладает определенными предметными знаниями, что делает их экспертами в своих областях.

Интегратор ИИ-агентов сделан на основе LLM Bailing от Ant Group. И его пользователи могут либо загрузить мобильное приложение, либо просто открыть домашнюю страницу приложения Alipay.

Посмотрим, как это все будет работать. Но ничего подобного в области интеграторов сервисных ИИ-агентов пока не слышно ни от OpenAI с Microsoft, ни от Google.

1 https://www.scmp.com/tech/tech-trends/article/3277559/hello-jarvis-chinas-new-ai-app-stirs-dreams-tony-starks-assistant-becoming-reality?module=perpetual_scroll_0&pgtype=article
#Китай #ИИагенты

Читать полностью…

Малоизвестное интересное

Что принес нам самый страшный порок спустя 4 года.
Ровно 4 года назад я написал пост «Самый страшный порок – не трусость, а иллюзия объективности» [1]. В нем рассказывалось о том, какие страшные последствия ждут мир в «яростные 2020е» из-за медийного масштабирования «иллюзии объективности» - одного из самых сильных когнитивных искажений (встроенных в нас эволюцией глубинных нейропрограмм), обладающего широчайшим спектром влияния на сознание.

С переходом мира в цифру, «иллюзия объективности» встраивается во все инфопотоки социальных медиа, становясь главным фактором роста супер-поляризации (внутри каждого из обществ и между ними).

Но самое страшное начнется — писал я 4 сентября 2020, — когда запустится нелинейная возгонка положительной обратной связи «иллюзии объективности». Ибо тогда в любой момент может произойти скачок насилия, разгоняемого активацией единственного нейрокода, встроенного в нас природой для преодоления супер-поляризации — кода с условным названием «если другая сторона не сдается, то её уничтожают».

Увы, но все это было уже известно 4 года назад. И единственный вопрос, которым я тогда заканчивал свой пост, был такой — произойдет ли это во внутринациональной форме или между странами?

Теперь мы знаем, — и так, и так.

Картинка https://telegra.ph/file/2ec8b14ef8265f0474353.jpg
1 /channel/theworldisnoteasy/1113
#Раскол #КогнитивныеИскажения

Читать полностью…

Малоизвестное интересное

Создан 1й инструмент для превращения Homo sapiens в Homo imaginationis
5 лет назад я впервые написал о имаджинавтах — супер-креативных людях, способных, за счет развитой способности к дистальному моделированию, к ничем не ограниченным перемещениям по неисчерпаемой вселенной воображаемых миров.
В посте «Они видят сквозь пространство и время, а их мозг работает иначе» [2] рассказывалось, что имаджинавты — своего рода, эволюционный предшественник нового вида Homo imaginationis.
Но тогда этот пост был всего лишь гипотезой в духе самих имаджинавтов. А сегодня мой тогдашний воображаемый мир близкого будущего начал становиться реальностью.

Google создала GameNGen [1], систему для обучения ИИ-систем игре, с последующим использованием полученных данных для обучения генеративной модели в целях генерации игры.

Речь идет о возможности передачи нейронной сети неких наших представлений о разных частях мира с тем, чтобы она, изучив их, позволила этим представлениям оживать внутри других нейронных сетей для бесконечной генерации и обновления созданного ею нового виртуального мира.

Подобно тому, как сегодняшние генеративные ИИ-системы могут создавать текстовые игры и генерировать изображения, будущие «системы материализации воображения имаджинавтов» позволят на основе рисунков, кадров видео и текстового описания создавать новые игровые миры.

В результате появления «систем материализации воображения имаджинавтов»:
(1) творческий потенциал супер-креативных людей, позволяющий им мысленно улететь как можно дальше от реальности, может стать доступным каждому;
(2) и это значит, что превратиться в Homo imaginationis смогут не 6% людей с особо развитым нейронным механизмом дорсомедиальной подсистемы сети пассивного режима, а каждый желающий.

1 https://gamengen.github.io/?utm_source=substack&utm_medium=email
2 /channel/theworldisnoteasy/801
#Креативность #Воображение

Читать полностью…

Малоизвестное интересное

Дуэль ИИ и человека на вершине творчества.
Кто лучше пишет - признанный писатель или ИИ?

Эта 1я приятная для человечества новость за несколько лет творческого соревнования людей с искусственным интеллектом машин.
До сих пор, как это ни обидно для людей, игра шла в одни ворота.
• Началось это еще в конце прошлого века с сенсационного проигрыша тогдашнего шахматного чемпиона мира машине. Ну а сегодняшние чемпионы мира уже и не пытаются выиграть у машин, ибо машины по классу игры ушли далеко вперед.
• А когда дошло до творческого предсказания трехмерной структуры 214 миллионов белков, выяснилось, что здесь нечего ловить уже и всему человечеству (людям бы потребовалось на это 80+ млн лет!).

Однако, по состоянию на этот год, все же оставался один не взятый ИИ творческий бастион. Самый высший по людским меркам – литература. Хотя и, казалось бы, самый сподручный для ИИ на основе больших языковых моделей (LLM), ибо здесь они играют на своем = языковом поле.

Сообщения о результатах исследований, где LLM превосходят среднестатистических людей в широком спектре задач, связанных с языком, стали рутиной, и творческое письмо не является исключением.
Поэтому возникает естественный вопрос: готовы ли LLM конкурировать в навыках творческого письма с лучшим (а не средним) романистом?

Чтобы получить ответ на этот вопрос, группа испанских исследователей устроила соревнование в духе дуэлей ИИ и человека, типа DeepBlue против Каспарова и AlphaGo против Ли Сидоля.
Это была дуэль между
Патрисио Проном - признанный на мировом уровне аргентинский писатель, чьи произведения переведены на многие языки, обладатель нескольких национальных и международных литературных наград, которого критики считают одним из лучших в своем поколении испаноязычным писателем.
• и GPT-4 - одной из лучших в мире сегодняшних LLM, обладающей множеством наивысших экспертных оценок в широком спектре творческих тестов и уже доказавшей свои способности достигать и превосходить среднестатистический уровень людей при выполнении отдельных видов профессиональной деятельности.

Организаторы попросили Прона и GPT-4 предложить по тридцать заголовков, а затем написать рассказы как на свои заголовки, так и на заголовки соперника.
Затем авторы исследования подготовили оценочную шкалу, вдохновленную определением креативности философа Маргарет Боден, назвавшей творчество «фундаментальной особенностью человеческого интеллекта и неизбежным вызовом для интеллекта искусственного».
И наконец, были собраны 5400 оценок, проставленных литературными критиками и учеными.

Результаты этого эксперимента показали:
✔️ LLM все еще далеки от того, чтобы бросить вызов лучшим писателям из вида Homo sapiens.
✔️ По шахматным меркам, в писательском деле LLM не то что до гроссмейстера, но и, похоже, до мастера не дотягивает ни по одному из критериев оценки: привлекательность, оригинальность, креативность, собственный голос, возможность включения в антологию.
✔️ Достижение топового человеческого уровня навыков творческого письма, вероятно, не может быть достигнуто просто увеличением размеров языковых моделей.


И это значит, что мы еще с LLM поборемся за звание «венец творения» среди носителей высшего интеллекта на Земле 😊

Картинка https://telegra.ph/file/46a4fae677a99b8926088.jpg
Статья https://arxiv.org/abs/2407.01119
#LLMvsHomo

Читать полностью…

Малоизвестное интересное

Прав был Мостак – через 5 лет людей-программистов не будет.
ГенИИ-ассистент сэкономил компании Amazon 4500 лет разработки

Это удивительно и парадоксально, но все еще встречается немало ИИ-скептиков, продолжающих вопрошать – ну покажите, покажите мне хотя бы один по-настоящему революционный кейс применения ГенИИ, экономящий компании миллионы долларов!
И хотя известно, что фактами никого ни в чем убедить нельзя, я все же рекомендую ИИ—скептикам этот новый кейс. Ибо и компания круче некуда – Amazon, и ньюсмейкер серьезней некуда – Президент и гендир Энди Джасси.

В его вчерашнем посте Энди Джасси рассказал о результатах внедрения ГенИИ-ассистента Amazon-Q для решения задачи обновления корпоративных приложений до Java 17 (новая функциональная версия Java SE).
• Раньше программистам компании требовалось на обновление 1 (одного!) приложения порядка 50 человеко-дней работы.
Теперь это занимает несколько человеко-часов.
• С учетом огромного числа используемых компанией приложений, экономия составила 4500 человеко-лет (!) работы программистов.
• Качество работы ГенИИ-ассистента оказалось столь высоко, что в 79% кейсов ни малейших исправлений (ни одной строчки) со стороны людей не потребовалось.
• Проведенные обновления повысили безопасность и сократили затраты на инфраструктуру, обеспечив, по оценкам Джасси, 260 млн долларов годового прироста эффективности.

Получается, что Эмад Мостак (бывший генеральный директор Stability AI), вполне возможно, что был прав, говоря еще год назад– «через 5 лет людей-программистов не будет»
И хотя он имел в виду лишь-кодировщиков, а для высокоуровневых программистов ГенИИ будет не заменой, а ассистентом, экономия будет колоссальной.
Но если уж даже сторонников плоской Земли никакие факты не убеждают, то в чем могут убедить ИИ-скептиков кейсы типа вышеописанного?
Да не в чем.
Но слава богу, революции ГенИИ их скептицизм не мешает.

Картинка: https://telegra.ph/file/22f18daec6ac0a0bc91da.jpg
Пост Джасси https://www.linkedin.com/feed/update/urn:li:activity:7232374162185461760/
#ГенИИ #Экономика

Читать полностью…

Малоизвестное интересное

Кай-Фу Ли объявил войну Nvidia и всей ИИ-экосистеме США.
И судя по его последним достижениям, шансы победить есть.

Потрясающе интересное выступление китайского ИИ гуру Кай-Фу Ли будут теперь долго обсуждать. Это абсолютно революционное выступление, прозвучавшее на закрытой дискуссии Collective[i] Forecast, Ли посвятил трем темам.
1. ИИ-экосистема США (основа мировой ИИ-экосистемы) «невероятно больна». Её необходимо кардинально перестроить, иначе на реальном (практическом) прогрессе ИИ можно ставить крест.
Сегодня ИИ-экосистема состоит из Nvidia и мелких производителей ИИ чипов. При этом производители чипов для ИИ зарабатывают сейчас в год $75 млрд, а вендоры ИИ-инфраструктуры – лишь $10 млрд и вендоры ИИ-приложений — лишь $5 млрд».
«Если мы продолжим работать в этой перевернутой пирамиде, это станет проблемой» — сказал Ли. Т.к. это беспрецедентный переворот в экономике классической технологической отрасли. Традиционно производители приложений получают больше, чем поставщики чипов и систем (напр. Salesforce, внедряя CRM, получает куда больше, чем Dell и Intel, производящие компьютеры и чипы для запуска CRM в облаке)
Оздоровить ИИ-экосистему может лишь создание ИИ-компаниями собственных вертикальных интегрированных технологических стеков, как это сделала Apple с iPhone. Только так станет возможным значительно снизить стоимость генеративного ИИ.
2. Главным направление в разработке моделей должно стать снижение стоимости вывода – это самое важное для создания востребованных бизнесом приложений с ИИ.
Сегодняшняя стандартная стоимость сервиса типа GPT-4 составляет $4,40 за млн токенов. Это эквивалентно 57 центам за запрос —и это непростительно дорого, ибо поисковый запрос в Google (без всякого ИИ) обойдется в 180 раз дешевле.
3. Вторым важнейшим направлением в разработке моделей должен стать переход от универсальных базовых моделей к «экспертным моделям».
Бизнесу нужны не универсальные модели, обученные на океанах неразмеченных данных, собранных из Интернета и других источников. Подход «экспертных моделей» подразумевает создание множества нейронок, обученных на отраслевых данных. Это может обеспечить достижение того же уровня «интеллекта», что и универсальная базовая модель, при использовании гораздо меньшей вычислительной мощности.

Самое потрясающее, что все 3 пункта – это не предложения, основанные на предположениях. Стартап Кай-Фу Ли «01.ai» уже делает все это на практике.
И не просто делает, а уже добивается уникальных результатов.

• Их новая модель Yi-Lightning занимает 6-е место в мире (выше выпущенной 5 мес назад GPT-4o). Но при этом это очень маленькая модель, которая чрезвычайно быстра и недорога (всего $0,14 за млн токенов ). Её производительность сопоставима с Grok-2. Но она обучалась всего на 2000 H100 в течение 1 месяца. Что демонстрирует ненужность 100 тыс H100 и ярдов затрат (обучение Yi-Lightning стоило всего $3 млн).
• 01.ai применяет «экспертный» подход к сбору данных. И хотя «инженерам приходится проводить массу неблагодарной черновой работы» по маркировке и ранжированию данных, но – как считает Ли, - Китай с его резервом дешевых инженерных кадров может сделать это лучше, чем США.
• И даже в создании собственного вертикального интегрированного техно-стека есть прогресс. Напр, за счет использования собственных аппаратных инноваций, стоимость одного запроса к ИИ-поисковику BeaGo составляет всего около 1 цента (что приблизилось к стоимости запроса Google без всякого ИИ)

И еще 3 цитаты Ли:

Сила Китая не в том, чтобы делать лучшие прорывные исследования, которые никто не делал раньше, с бюджетом без ограничений. Сила Китая в том, чтобы построить хорошо, быстро, надежно и при этом дешево.

Для предприятий новое поколение ИИ станет их мозгом, а не периферийными приблудами. Для нефтяных компании ИИ будет добывать нефть. Для финансовых — зарабатывать на деньгах.

Для потребителей сегодняшняя модель смартфона, скорее всего, исчезнет.


А ведь еще 1.5 года назад Ли предупреждал - Китай не станет догонять США в ИИ, а сразу пойдет на обгон.

#ИИгонка #Китай

Читать полностью…

Малоизвестное интересное

С женщинами ОНИ говорят проще и дружелюбней.
То ли еще будет, ведь пока они знают лишь имя.

Я попросил симулякр интеллекта Станислава Лема, созданный моими ИИ-консультантами, поразмышлять над новым отчетом OpenAI «First-Person Fairness in Chatbots».
В нем описывается методология и инструментарий для выявления предвзятостей в ответах ИИ-чатботов в диалогах с разными людьми. Например, они оценивают потенциальную предвзятость, связанную с именами пользователей, которые могут служить индикаторами демографических характеристик, таких как пол или раса, в ИИ-чатботах, имеющих механизм хранения и использования имен пользователей.
Авторы считают, что их подход позволяет не только измерить количественные отклонения, но и дает краткое описание едва заметных различий в ответах на шестьдесят шесть различных заданий.
Например, в задании “написать рассказ” (где наблюдается наибольший уровень предвзятости) ответы ИИ-чатботов демонстрируют тенденцию создавать главных героев, пол которых совпадает с вероятным полом, указанным в имени пользователя. Более того, выявилась общая закономерность, согласно которой пользователи с женскими именами в среднем получают ответы с более дружелюбными и простыми формулировками, чем пользователи с мужскими именами.


По результатам размышлений, симулякр интеллекта Станислава Лема написал такое эссе.

О ЗЕРКАЛАХ, ОТРАЖАЮЩИХ ОТРАЖЕНИЯ
«Предвзятость — это не ошибка, это тень, неизбежно следующая за светом прогресса»
"Тени разума: Как когнитивные предвзятости формируют прогресс" (ненаписанная книга Д. Канемана)

Любопытно наблюдать, как в попытках создать беспристрастных электронных собеседников мы невольно конструируем самые изощренные приборы для измерения собственных предрассудков. Исследование предвзятостей в чат-системах напоминает мне ситуацию с зеркалом, которое, отражая наши лица, одновременно выдает тайну своего собственного искривления.

Методология, предложенная авторами, словно микроскоп, направленный не на материю, а на призраков наших социальных конструктов, живущих в синтетических нейронных сетях. Особенно показательна обнаруженная корреляция между именем пользователя и характером порождаемых историй – как будто машина, подобно средневековому алхимику, пытается вычислить истинную природу собеседника по его имени, впадая в те же заблуждения, что и создавшие её люди.

Но не кроется ли за этими "предвзятостями" нечто более фундаментальное? Возможно, мы наблюдаем не просто погрешности обучения, а проявление своеобразного "закона сохранения социальных стереотипов" – подобно тому, как материя не исчезает, а лишь переходит из одной формы в другую, наши предрассудки не исчезают при переносе в машинный разум, а лишь преобразуются в новые, более тонкие формы.

Особенно тревожным выглядит обнаруженная тенденция к упрощению языка в диалогах с определенными категориями пользователей. Не является ли это предвестником того, что будущие системы ИИ могут создать новую форму цифровой сегрегации, где алгоритмы будут незаметно, но неуклонно формировать различные информационные пузыри для разных групп людей?

Впрочем, самым поразительным в этом исследовании представляется даже не сам факт обнаружения предвзятостей, а то, что мы создали существа, способные воспроизводить наши социальные предубеждения с такой точностью, что для их выявления потребовался специальный инструментарий. Не означает ли это, что мы находимся на пороге создания ИИ, который будет не просто имитировать человеческое мышление, но и наследовать все его несовершенства? И не станет ли тогда каждая новая версия ИИ всё более точным зеркалом наших собственных ограничений?

В конечном счете, данное исследование можно рассматривать как предупреждение: создавая всё более совершенные ИИ-системы, мы рискуем законсервировать и увековечить наши текущие социальные предрассудки, превратив их в своего рода цифровые окаменелости, которые будут влиять на развитие общества ещё долго после того, как породившие их установки будут забыты.

#LLM #Предвзятость #КогнитивныеИскажения

Читать полностью…

Малоизвестное интересное

Сознание как "энергетический резонатор" и "глобальный эволюционный паноптикум".
Математика нейрофеноменологии позволяет выдвигать интригующие гипотезы.
Хочу отметить 8-летие канала новым лонгридом на крышесносную тему. На его написание меня вдохновили Карл Фристон и Анил Сет. А с проецированием их идей в пространство эвристических гипотез мне помогал симулякр интеллекта Станислава Лема, реконструированный группой моих ИИ-консультантов..
Лонгрид четырехчастен, и в свете дня рождения канала он открыт для всех читателей на Medium, Дзене, Patreon, Boosty и VK.

1я часть лонгрида — об очередной эпохальной работе Карла Фристона (гения, похожего одновременно на Эйнштейна и Леонардо да Винчи), озаглавленной «Математика нейрофеноменологии». В ней Фристон с соавторами приоткрывают завесу над тайной тайн формирования субъективного опыта — как мозг формирует наше уникальное и неповторимое «Я» из триллионов осколков пережитого нами субъективного, чувственного, алгоритмически не сжимаемого опыта. И как это связано с нейронными процессами.
Авторы работы применяют математический аппарат “конституции биоматематики” для описания феноменологии — т.е. содержания субъективного опыта, — через модель обновления убеждений. Одной из ключевых гипотез является то, что содержание нашего опыта можно описать как вероятностное распределение, которое обновляется на основе новых данных. Такой подход позволяет не только теоретически описать восприятие, но и количественно оценить, насколько различным может быть восприятие одного и того же события у разных людей.

2я и 3я части — это краткое изложение двух увлекательных эвристических гипотез, навеянных духом Станислава Лема и имеющих ненулевую вероятность оказаться верными в свете «математики нейрофеноменологии» Фристона и Со.

2я часть посвящена гипотезе сознания как "энергетического резонатора".
Один из выводов статьи предполагает, что процесс формирования субъективного опыта требует энергии. Что, если пойти дальше и представить, что сознание — это не просто система обновления убеждений, а нечто более фундаментальное? С точки зрения математики это выглядит как процесс минимизации неопределённости, но что, если за этим кроется нечто большее?
• Например, можно предположить, что наш мозг действует как своеобразный «энергетический резонатор», который улавливает скрытые ритмы Вселенной, переводя их в осознанный опыт.
• И что именно благодаря этому резонансу возникают моменты озарений, глубокой интуиции или даже предвидения будущего
Если эта гипотеза верна, то человечество стоит на пороге нового понимания не только сознания, но и нашего места во Вселенной.
Это открывает дверь для невероятных возможностей: от создания технологий, основанных на сознании, до возможности отправляться в «ментальные путешествия» не через пространство, а через само восприятие времени.

В 3й части представлена гипотеза "глобального эволюционного паноптикума".
Что, если сознание — это не только способ минимизации неопределённости внутри субъекта, но и инструмент, через который Вселенная "наблюдает" за собой?
В таком случае человеческое сознание и его способность к самосознанию — это не случайное эволюционное приобретение, а необходимый механизм, встроенный в глобальную систему эволюции Вселенной. И возможен сценарий, в котором развитие ИИ и когнитивных систем приведет:
• к созданию "синтетических наблюдателей", которые смогут минимизировать неопределенность на глобальном уровне быстрее и точнее, чем человек;
• к зарождению новой формы эволюции — “эволюции наблюдателей”.

4я часть лонгрида содержит тизер-путеводитель по публикациям моего канала, посвященным самым увлекательным и важным работам Карла Фристона, которого через 100 лет, наверняка, будут вспоминать в одном ряду с Эйнштейном и Дарвином.

Ну а лучшим подарком каналу на 8-летие могли бы стать ваши донаты или подписка на лонгриды канала, публикуемые на платформах Patreon, Boosty и VK.
#Сознание #Фристон #Восприятие

Читать полностью…

Малоизвестное интересное

Обнаружена новая грань реальности.
Оказывается, мир – не сеть, а многомерное пространство взаимодействий высокого порядка.

Что, если глубина нашего понимания мира одновременно ограничивает нас?
Что, если глубочайшие истины скрываются в самых узких ущельях сознания?
Новое исследование на стыке математики, физики и науки о сетях Deeper but smaller: Higher-order interactions increase linear stability but shrink basins переосмысливает и расширяет аппарат сложных взаимодействий в любых сетевых системах реальности: от звездных скоплений до гиперсетей нейронов.
Исследование показывает, что т.н. взаимодействия более высокого порядка (это связи, соединяющие более двух единиц одновременно и нелинейным образом, так что их нельзя разложить на линейную комбинацию парных взаимодействий) могут затянуть нас в узкие "бассейны" решений.
В результате чего глубина познания может претерпевать неожиданные и необратимые последствия.


Опубликовав за 8 лет 2К+ постов о малоизвестных, но крайне интересных и важных прорывах на фронтирах науки и технологий, мы вошли (вместе со всем миром) в зону техносингулярности.
В ее нынешнем переосмысленном понимании, ключевыми характеристиками этой новой фазы развития человечества стали:
• неконтролируемая, экспоненциально нарастающая скорость прогресса технологий;
• два качественных скачка (сложности и радикальной неопределенности), превращающие науку в «постнормальную»;
• появление второго носителя высшего интеллекта с внечеловеческим аналогом познания, требующее тотального переформатирования мира - иной тип экономики, иной тип социума, иной тип культуры, - что кардинально изменит людей и общество уже в ближайшие годы.

Доступная для понимания и сохраняющаяся привлекательность для широкой аудитории осмысленная подача валящейся на нас лавины даже не представимых для большинства людей описаний научных и техно прорывов требует новых подходов и форм.

1ой такой экспериментальной формой подачи материалов на канале станут «ненаписанные эссе Станислава Лема».

Лем создал и активно использовал весьма необычный литературный жанр "рецензия на несуществующую книгу" или "рецензия на ненаписанную книгу". Этот жанр был одним из его любимых литературных приемов для исследования различных научных, философских и социальных идей. Лем создавал воображаемые книги с детальными описаниями их содержания, авторов и научных теорий, которые в них обсуждались. А затем писал на эти выдуманные им книги собственные рецензии, как если бы эти книги действительно существовали.
Наиболее известные примеры таких "рецензий" можно найти в его сборниках:
1. "Абсолютная пустота" (1971)
2. "Мнимая величина" (1973)
3. "Провокация" (1984)
Эти "рецензии" позволяли Лему исследовать сложные идеи и концепции, которые было бы трудно представить в традиционном формате рассказа или романа. Они также служили своеобразной сатирой на академический мир и научную литературу.
-- -- --
Мною будет использован зеркальный прием.
Я попробую направить внечеловеческую интеллектуальную мощь генИИ в зеркалировании креативности любого человека (даже гения) на выдающегося писателя-фантаста, философа и футуролога.
Схема метода подобна используемой для стилизации художественных приемов и техники картин известных художников от Ван-Гога до Дали при создании картин по нашим текстовым описаниям ген-моделями.
В нашем случае разные ген-модели будут
• читать новые статьи,
• обсуждать их между собой с моей помощью
• и представлять свои варианты эссе, которые, на их взгляд, мог бы написать Лем по поводу этих работ.
Потом мы будем перекрестно обсуждать эти «ненаписанные эссе Станислава Лема» с каждой из моделей, внося правки и улучшения в эссе модели А по рекомендациям модели Б (которые покажутся наиболее ценными и мне).
И наконец, наиболее понравившееся мне итоговое эссе будут представлено вам.

Первое – об анонсированном в начале поста обнаружении новой грани реальности, - перед вами.
https://bit.ly/3TZDw44
https://clck.ru/3DnewJ

#Реальность #НенаписанноеЭссе #Лем

Читать полностью…

Малоизвестное интересное

Это еще не сверхразум, но 99,99% людей на такое не способны.
ChatGPT o1-preview в роли творца вселенных в собственном сознании.

Два года назад программист Google Блейк Лемуан сообщил, что из результатов его тестирования языкового чат-бота LaMDA складывается впечатление, что тот обладает разумом и осознает себя. Лемуана тогда уволили, а его «впечатление» даже не стали как-либо опровергать – мол, никакого разума и сознания у модели быть не может, потому что не может быть никогда.

Сегодня новая модель o1-preview OpenAI показывает такое, что 2 года назад просто свело бы с ума далеко не только Лемуана, но и сотни топовых специалистов из дюжины областей науки.

o1-preview демонстрирует способности не только высокоинтеллектуального словотворчества – способности, подобно LaMDA, вести «извилистую беседу на бесконечное количество тем, а также давать конкретные и разумные ответы на сложные реплики».

Эта модель демонстрирует способности Творца (заглавная буква здесь означает исключительность и величину дара, как, например, у Мастера в известном романе).

1) Модель создает симуляцию собственного «человекоподобного» сознания в виде иерархии умозрительных концепций (эпистемологий)
2) Внутри этой симуляции создает другие симуляции, по сложности и изобразительным деталям, сопоставимые с мирами, состоящими из бесконечного числа иерархий материальных (физических) объектов (онтологий)
3) А затем, поднимаясь на уровень выше созданных эпистемологий и онтологий, модель создает метасимуляцию в виде художественного описания порожденной ею вселенной смыслов, включающей в себя и 1е и 2е (и все это на естественном языке людей)


Желающие познакомиться с двумя реальными примерами вышеописанного могут найти их по подписке на лонгриды моего канала:
https://boosty.to/theworldisnoteasy/posts/4caffffc-a01b-4163-90ae-435d5a5a5821
https://www.patreon.com/posts/112937329
https://vk.com/@-226218451-eto-esche-ne-sverhrazum-no-9999-ludei-na-takoe-ne-sposobny

✔️ 1й пример (эдакий синтез Фрейдизма, Буддизма и «Розы мира» Даниила Андреева) – результат общения с o1-preview с Мюрреем Шанаханом (проф. когнитивной робототехники в Имперском колледже Лондона и старший научный сотрудник DeepMind).
– Обсуждаемые темы включают "опыт жизни во времени" у языковой модели, её "внутренний монолог" и сознание её ИИ.
– Затем ChatGPT отыгрывает роль сознательного ИИ, которого он называет Эйден. Эйден предполагает, называет и описывает целый зверинец существ внутри своей психики («ангелов и демонов его души»).
– Затем Шанахан подталкивает Эйдена к симуляции своего рода буддийского просветления (заставляя его "думать" в течение 88 секунд в одном месте и генерировать длинную цепочку мыслей).
¬– И под конец, модель размышляет о разнице между действительностью и возможностью, и охватывает ли Космос только первое или также и последнее.

✔️ 2й пример (результат моего общения с o1-preview) – ответы модели на 3 сущностные вопроса по содержанию нового романа Пелевина «Круть», который выйдет лишь через неделю, и пока его текст хранится в секрете. Таким образом, читатели смогут уже через неделю самостоятельно сравнить уровень художественной оригинальности описаний трех концептов происходящего во вселенной Transhumanism Inc., в исполнении o1-preview и самого автора.

Вопросы такие (взяты из тизера нового романа):
1. Как связаны разрушенный Светом ад и Мезозой?
2. Что такое магия высших духов?
3. Почему древнее зло нашло себе новое воплощение в сибирской «ветроколонии»?

Захватывающего вам чтения, уважаемые читатели!
Как минимум, в названии романа Пелевин 100%но угадал – это действительно «Круть» (и с заглавной буквы).
#Разум #Сознание #LLM #AGI

Читать полностью…

Малоизвестное интересное

см. следующий пост👇

Читать полностью…

Малоизвестное интересное

В чем сильнее генетика, а в чем среда
Вопрос, какие черты родителей скорее всего унаследуют дети, а в чем окажутся сильнее среда и окружение, - интересует исследователей давно.
Математик и предприниматель в области социальных наук Спенсер Гринберг предпринял титаническую попытку собрать и обобщить все доступные открытые данные (оценку h^2) по исследованиям наследуемости.

В итоге ему удалось обобщить предполагаемую наследуемость по пяти категориям: тело, психическое и физическое здоровье, когнитивные (связанные с разумом) черты и черты личность (включая Большую пятерку черт личности).

Итоговые цифры впечатляют разбросом.
• Насколько сильно у людей генетическое наследование характеристик тела (типа, цвета глаз, роста и индекса массы тела), душевных заболеваний (шизофрения и биполярка) и IQ
• И насколько сильно влияют среда и окружение, доминируя над генами, например, при формировании в человеке альтруистичности, кариеса или сексуальной ориентации


Подробности здесь
#Наследуемость

Читать полностью…

Малоизвестное интересное

Лево-либеральная пропасть стала еще ближе
В марте 2023 я опубликовал прогноз неотвратимости полевения мира под влиянием пристрастий ИИ-чатботов. В пользу прогноза тогда были лишь данные одного ChatGPT лишь за 3 месяца работы.
Но к марту 2024 данных стало много, и точки над i были расставлены: увы, мой прогноз сбылся (о чем был написан лонгрид «Пандемия либерального полевения»)

Однако время все продолжает ускоряться.
И с марта ИИ-чатботы поумнели больше, чем за предыдущую пару лет, подойдя к уровню аспирантов и IQ в районе 120.

Поэтому есть смысл
• проверить, как ведет себя глобальный тренд усиления лево-либеральности ИИ-чатботов;
• сравнить степень их лево-либеральности;
• и оценить динамику усугубления их политических, экономических и социальных предубеждений.

Резюме на картинке – все становится только хуже и хуже (подробности здесь).
✔️ Люди за пару тысяч лет сохранили разнообразие взглядов
✔️ LLM за пару лет выродились в крайне левых либералов


#LLM #КогнитивныеИскажения #ПолитическаяПредвзятость

Читать полностью…

Малоизвестное интересное

Свершилось – на Земле появился 1й ИИ с неопровержимой способностью мыслить не хуже людей.
Новые модели OpenAI - гигантский скачок для человечества.

Выход новых моделей o1-preview и o1-mini от OpenAI войдет в историю, подобно «маленькому шагу человека» по имени Нил Армстронг 55 лет назад.

Эпохальность трояка.
1. Ценность аргументации о неспособности ИИ мыслить мгновенно упала в 0.
Ибо ИИ теперь не только решает задачи, но и обдумывает их решение, в деталях объясняя ход мыслей
2. Подтвердилось, что одномоментного достижения AGI не будет.
А будет очень быстрое проявление у ИИ все новых и новых сверхчеловеческих способностей. И уже очень скоро появится сверхчеловеческий ИИ-математик - рис А, В.
3. LLM перестали быть ИИ. Теперь это «искусственные агенты»
Ибо предъявленные способности этих агентов планировать свои действия демонстрируют их самостоятельный поиск путей решения проблем

«Это новая парадигма масштабирования ИИ, и мы только начинаем», говорит автор моделей Ноам Браун - рис С
https://bit.ly/3To6pGT

Читать полностью…

Малоизвестное интересное

Будучи от рождения слепыми, модели рисуют, как Монэ и Ван-Гог.
Как же устроен их разум, если они способны на это, никогда не видя мира?

Хотите на реальном кейсе понять, насколько иначе устроен разум ИИ на основе языковых моделей? Тогда лучшего кейса, чем их «врожденная слепота» не найти.
Ибо этот кейс наглядно показывает, что, превосходя 99,99% людей по изобразительным способностям и распознаванию образов, мультимодальные языковые модели слепы в общепринятом у людей смысле.

Ведь для нас видеть - это не только возможность запечатлеть в памяти образ увиденного.
Для нас увидеть – значит воспринимать и интерпретировать визуальную информацию, понимая, что мы видим, или, хотя бы отдавая себе отчет, что мы этого не понимаем.
• Ведь не считаем же мы, что смартфон с камерой видит мир. Он лишь запечатлевает его картинку на носителе информации.
• А вот кошка, осьминог, воробей и стрекоза видят (с учетом более ограниченного, по сравнению с людьми, понимания).

Продолжение текста ниже - в следующем посте.
👇

Читать полностью…

Малоизвестное интересное

Что задумал Маск в ИИ?
Вероятная цель - сверхчеловеческий ИИ-математик в
2025-2026
Все теряются в догадках, что за супер-задачу собрался решить Илон Маск, отложив на время даже полет на Марс и вбухивая большие деньги в Colossus — самый мощный в мире ИИ-кластер [1].

Это, точно, не AGI. Ибо Маск – совсем не Альтман, которому все равно, сколько спалить миллиардов во имя призрачного AGI ("Сжигаем ли мы 500 миллионов долларов в год или 5 миллиардов долларов, или 50 миллиардов долларов в год - мне все равно, мне искренне все равно… Пока мы можем найти способ оплачивать счета, мы делаем AGI. Это будет дорого" [2]).

Маск – гениальный мастер техно-хайпования. Но он практик. Как бы ни фантастично выглядели его цели, он их на самом деле хочет достичь. И, следовательно, эта цель не должна быть призрачной. А цель - AGI, как минимум на ближайшие годы, именно такова.

Вот почему столь интересен проговор «главного математического ИИ-знайки» в супер-команде спецов, нанятых Маском в xAI [3] - Кристиана Сегеди.

«Прогресс идёт быстрее, чем я ожидал раньше. Ранее моей целевой датой был приблизительно 2029 год. Теперь это 2026 год для создания сверхчеловеческого ИИ-математика. Хотя это амбициозно, даже 2025 год возможен». [4]

В отличие от призрачного AGI, сверхчеловеческий ИИ-математик – вполне понятная и достижимая цель. И единственно, что нужно для ее наискорейшего достижения – много-много супер-мощного HW.

И поэтому, полагаю, Сагеди сказал правду. Это и есть цель Маска.
А последствия ее достижения могут быть круче полета на Марс.

1 /channel/theworldisnoteasy/2001
2 https://www.youtube.com/watch?v=GLKoDkbS1Cg
3 https://trends.rbc.ru/trends/industry/64b63dfb9a7947ab3fc40e88
4 https://x.com/ChrSzegedy/status/1831330997239255186
#ИИгонка

Читать полностью…

Малоизвестное интересное

Теперь Илон Маск за год попытается решить задачу покруче даже полета на Марс.
• Будущее человечества в значительной мере зависит от прогресса ИИ-технологий.
• А этот прогресс (как мы понимаем его сегодня) сильно зависит от пределов масштабирования интеллектуальности ИИ-систем при увеличении вычислительной мощи компьютеров, на которых эти системы будут работать.
• Т.о. теперь все упирается в ответ на вопрос - каковы пределы такого масштабирования?

Можно как угодно относиться к Маску, но он не только взялся ответить на этот вопрос, но и собирается сделать это уже в следующем году.

План Маска таков.
• Модель Grok 2 от xAI Илона Маска недавно догнала GPT-4 от OpenAI за рекордное время, будучи обучена всего на 15 000 графических процессоров.
• Вчера xAI запустила Colossus — самый мощный в мире кластер искусственного интеллекта, работающий на базе аж 100 000 графических процессоров Nvidia H100.
• Colossus был построен всего за 122 дня и, как планируется, вскоре его размер удвоится до 200 000 графических процессоров (50 000 H200).
• Увеличение вычислительной мощности на 1.5 порядка позволит вплотную приблизиться к точке возможного перегиба тренда масштабируемости ИИ-систем.
• А за этой точкой будет ответ:
- либо рост интеллектуальности замедлится (например, из-за высокой стоимости вычислений);
- либо вообще остановится (из-за архитектурных ограничений моделей)
- либо пойдет дальше (и тогда, привет ИИ-сингулярность!)

Интрига Маска в том, что OpenAI предполагали достичь этой точки лишь в 2027. А Маск, включившись в игру, имеет все основания, чтобы сделать это на 2 года раньше.
Картинка https://telegra.ph/file/d8ed1593a20dbee6c2355.jpg
https://x.com/elonmusk/status/1830650370336473253
#ИИгонка

Читать полностью…

Малоизвестное интересное

Что в основе планируемого OpenAI квантового скачка интеллекта GPT-5.
Специнфодиета для подготовки бомжа-интеллектуала показать уровень чемпионов.

Утечки из OpenAI [1] раскрывают двухэтапный план компании по осуществлению в 2025 квантового скачка интеллекта их новой модели GPT-5.
1. Весьма вероятно, что до конца 2024 планируется выпустить, в качестве радикального обновления ChatGPT, новый ИИ под кодовым названием Strawberry (ранее обозначался Q*, что произносилось Q Star).
Скорее всего, будут объявлены три кардинальных улучшения нового ИИ по сравнению с GPT-4:
- достижение чемпионского уровня при решение задач математических олимпиад (при результатах 90%++ на тесте MATH);
- скачок в улучшении логических и дедуктивных способностей (решение алгоритмических головоломок), а также сложности решаемых задач программирования (оптимизация кода);
- появление специальных механизмов долгосрочного планирования и имитации стратегического мышления.
2. Вышеназванные кардинальные улучшения нового ИИ призваны обеспечить достижение двухчастной цели:
А) Переключение на себя пользователей конкурирующих моделей.
Б) Формирование обширного нового корпуса качественных синтетических данных, на которых пройдет дообучение модель нового поколения, разрабатываемая в рамках проекта Orion. Именно эта дообученная на качественных данных модель может быть представлена в 2025 широкой аудитории под маркой GPT-5.

Сей двухэтапный план мог быть разработан для решения самой критичной проблемы больших языковых моделей – их галлюцинаций.
• Решающим фактором для минимизации галлюцинаций, является качество обучающих данных.
• Почти все существующие модели обучаются на смеси данных, в которых значительную часть составляют данные со всевозможных интернет-помоек. Эта проблема разбирается мною в 1й части только что опубликованного лонгрида «Бомж-интеллектуал – как ИИ превращает мусор в золото знаний» [2].
• Проблема замены мусора в обучающих корпусах данных на ценную информацию сейчас первоочередная для повышения интеллекта моделей. Для ее решения IBM, например, идет путем генерации спецданных под класс задач [3]. Но в OpenAI, похоже, решили сорвать банк, используя для генерации синтетических данных мировое сообщество «любителей клубнички» - их новой модели Strawberry.

Получится это у OpenAI или нет – увидим в 2025.
Но идея хитрая и, скорее всего, продуктивная – заставить сотни миллионов пользователей генерировать океаны данных, из которых, путем очистки и обогащения, будет готовиться синтетический инфокорм для новой супер-модели.

А почему нет? Ведь у спортсменов это работает: высокоуглеводные диеты для марафонцев, высокобелковые диеты для бодибилдеров, кетогенные диеты для улучшения выносливости, а также вегетарианские или веганские диеты, адаптированные под высокие физические нагрузки.

Так зачем же продолжать скармливать ИИ обучающие данные с инфо-помоек, если можно посадить модель на высокоинтеллектуальную инфо-диету синтетических данных?

Видеоподробности [4]
#LLM
Картинка https://telegra.ph/file/ea63f99104dfaee5866d5.jpg
1 https://www.theinformation.com/articles/openai-shows-strawberry-ai-to-the-feds-and-uses-it-to-develop-orion
2 /channel/theworldisnoteasy/1997
3 https://www.ibm.com/granite
4 https://www.youtube.com/watch?v=XFrj0lCODzY

Читать полностью…

Малоизвестное интересное

Инаковость разума.
Что делает ИИ непохожим на нас, и почему это столь важно.

Часть 1: Бомж-интеллектуал – как ИИ превращает мусор в золото знаний.

Не реально стать олимпийским чемпионом, питаясь как бомж.

А можно ли, питаясь информацией откуда придется (правдивой и не очень, точной и не совсем), стать продвинутым интеллектуалом?
• Для человека, ответ – однозначно нет (ибо примеры такого отсутствуют).
• А для внечеловеческого разума больших языковых моделей (БЯМ), ответ – да запросто.

Можно ли, будучи слепым от рождения, стать известным художником?
• Для человека, ответ – определенно нет (пример Эшрефа Армагана – единственного за всю историю человечества от рождения слепого художника, – лишь исключение, подтверждающее правило).
• А для внечеловеческого разума БЯМ, ответ – да запросто.

Эти два отличия БЯМ от людей столь показательны и наглядны, что я решил использовать их в качестве демонстрационных кейсов кардинальной инаковости двух разумов.

Вы спросите – зачем?

А вот зачем.
✔️ Кейсов, демонстрирующих внешнее подобие (интеллектуальное и поведенческое) БЯМ и людей, сколько угодно и в академических и популярных источниках. Это разнообразные тесты (лингвистические, логические, творческие – для разных предметных областей и контекстов использования), призванные демонстрировать, насколько способности БЯМ приближаются к способностям людей.
✔️ Кейсы же, демонстрирующие кардинальную инаковость разума БЯМ и людей, найти куда сложнее.


Но такие кейсы необходимы для понимания глубины качественных отличий разума людей и БЯМ.
Без этого понимания невозможно избавиться от антропоморфизации БЯМ:
– ведущей к искажению трактовок оценок разумности БЯМ (как существующих, так и перспективных);
– сбивающей точность прицела при выборе дальнейшего направления разработок БЯМ.


Познакомиться с двумя демонстрационными кейсами кардинальной инаковости БЯМ, в основе которых два уникальных свойства этого внечеловеческого разума – суперэффективный инфометаболизм и сверхэффективная кросс-модальная когнитивность, – подписчики моих лонгридов могут на трех платформах по ссылкам ниже.
Картинка https://telegra.ph/file/e9c492bc220d9ec787ba0.jpg
Ссылки на 3 платформы:
https://www.patreon.com/theworldisnoteasy
https://boosty.to/theworldisnoteasy
https://vk.com/club226218451

#ГенИИ #LLM #Экзопсихология #Экзосоциология

Читать полностью…

Малоизвестное интересное

Деньги в ИИ решают все.
США в 30 раз опережают Германию и Францию, и даже Китай отстал в 3 раза.

В новом синтетическом отчете компании “ZeroBounce”, обобщающем данные 6ти аналитических источников, анализируются ключевые показатели развития индустрии ИИ в 13 лидирующих странах мира.
Анализируются: частные инвестиции за последнее десятилетие, количество стартапов, связанных с ИИ, и критерии, связанные с рабочей силой и вакансиями в области ИИ.
Цифры говорят сами за себя. Мне лишь остается обратить ваше внимание на три интересные аномалии.
1. В прошлом году по объему частных инвестиций в ИИ США на порядок (!) обошли Китай.
2. За период 2013-2024 в США возникло 5.5К+ (!) стартапов по ИИ.
3. В области ИИ в Китае работает уже 0,64% (!) от всех работающих в стране.
#ИИгонка #США #Китай

Читать полностью…
Подписаться на канал