Давно хожу с мыслью, что компания вроде Яндекса, у которой в Метрике есть гигабайты данных о кликах пользователей; о том, как люди воспринимают контент; о том, как пользователи буквально водят мышкой по экрану, просто обязана разработать алгоритм для веб-дизайнеров и облегчения их нелегкого труда.
Представьте, что у вас есть аналитика миллиона сайтов — вы знаете, где какая категория сайта (магазин, СМИ, сервис и т.п.), какие сценарии эти сайты покрывают, какие пути проделывают пользователи для достижения результата, с какими сложностями пользователь сталкивается. Всех этих данных должно хватить для того, чтобы алгоритм смог подсказать, как лучше расположить кнопки, сверстать текст и какие цвета подходят в это время года. В общем найти «философский камень» среди UX/UI.
На producthunt я встречал разные громкие заявления от проектов, которые пытаются разработать подобный сервис (https://thegrid.io/, https://firedrop.ai/), но я в них не очень верю, так как в алгоритмах машинного обучения (в нынешнем виде) очень важны данные (датасет) и получить эти данные не просто — никто ими не делится, я об этом уже как-то писал (/channel/denissexy/517).
И вот в MIT нашелся такой датасет и пару месяцев назад исследователи опубликовали демку, где вы можете загрузить изображение, а алгоритм попробует угадать, как будет распределяться внимание пользователей. На выходе вы получаете тепловую карту внимания, выглядит довольно интересно.
Попробуйте сами:
http://visimportance.csail.mit.edu/#Demo
Ну, а ниже пара примеров от меня.
P.S. Исходный код доступен по ссылке — https://github.com/cvzoya/visimportance
Нет ничего лучше для воскресенья чем "позалипать" — наткнулся на веб-игрушку http://justtypestuff.com/ и пропал минут на 20 (с телефона так себе запускается).
Работает она просто — вы вводите текст на английском и нажимаете enter ⮐, если сайт знает этот объект, то он помещает его в "сцену".
В видео ниже примерно понятно как это работает 💖
https://vimeo.com/243509208
Я пропустил, но тут новый робот у бостон-динамикс от вчера, не могу не запостить 💖
https://youtu.be/kgaO45SyaO4
Никогда бы не подумал, что любимой частью путешествия может стать сам процесс езды куда-нибудь (а я как раз сейчас в небольшом путешествии и в самой неудобной маршрутке на свете), так вот, все это не просто так, а благодаря фантастическому подкасту от NPR — TED Radio Hour на который я совершенно случайно наткнулся, каждый выпуск которого идет по часу и каждый выпуск — это выжимка лучшего из TED Talks на определенную тему.
Я очень люблю TED, но к сожалению не все выступления оттуда доступны в формате подкаста без видео, а еще сложно выбрать самое интересное, учитывая количество записей. NPR — хорошая переупаковка в формате «вставил в уши и исчез на час», в общем я очень рекомендую.
Веб-версия:
http://www.npr.org/programs/ted-radio-hour/
Apple podcast:
http://apple.co/2AbyiXo
P.S. Все на английском.
P.P.S. TED — Technology, Entertainment, Design — платформа-конференция, где люди делятся своими идеями и мыслями на сцене, если вы не слышали о TED, очень рекомендую изучить 💖
Давно не было ничего прикольного про генеративные нейросети (GAN). Исправляюсь! Вот видео, в котором GAN генерирует портреты несуществующих людей.
Другие интересные посты про GAN:
Что это вообще такое и как GAN рисуют картины, неотличимые от человеческих
GAN рисуют несуществующих котиков
GAN рисует портреты несуществующих людей XIX века
GAN создают джаз
Airbnb радует своими исследованиями — в их видео видно как UI-скетч нарисованный на бумаге становится прототипом в коде в режиме реального времени.
https://mobile.twitter.com/Airbnbdesign/status/922970398169350144
Наткнулся на великолепное видео из двух частей о нейронных сетях и том как они работают:
https://youtu.be/aircAruvnKk
В видео подробно расскажут:
— Что такое слои;
— Что такое нейроны;
— Как происходит распознавание рукописных чисел;
— Каким образом здесь участвует математика;
— Как происходит обучение нейронки.
В общем, это одно из лучших видео на английском, что я видел на тему объяснения принципа работы ML, очень рекомендую 💖
P.S. Настолько мне понравилось, что вспомнился прекрасный пост о принципе работы технологии блокчейн, на русском и текстом, который уже точно много кто видел, но если вам интересно то вот на него ссылка (текст правда очень понятный):
https://tjournal.ru/41306
P.P.S. Спасибо всем кто подписался, если вы вдруг задавались вопросом, а что это за чувак ведет этот канал, так вот — это не анонимный канал, а что я за чувак описано тут:
/channel/denissexy/519
В странное мы время живем конечно, наткнулся на твит где кто-то поделился МРТ брокколи (http://bit.ly/mri-br), пошел от нечего делать скачал профессиональное ПО для обработки МРТ-снимков, построил 3D модель брокколи по МРТ-снимкам, любуюсь.
В общем технологии это интересно, но не всегда ясно зачем ¯\_(ツ)_/¯
Как-то я писал о нейронке CycleGAN, она еще делала из лошади зебру, так вот, теперь ее натренировали на видео мужчина-женщина, и показали как она умеет их синтезировать:
🤷♀️Женщину;
🤷♂️Мужчину.
Видео лошадь-зебра, можно найти тут.
Если вы еще не поигрались с Алисой (Персональный помощник от Яндекса), то вам явно стоит — она прекрасна и шутит, кстати шутит она так, будто я сам для нее шутки писал (что так себе рекомендация в мире юмора, но мне нравится).
По ссылке видео, где можно увидеть общение Алисы с Алисой:
https://www.youtube.com/watch?v=zfmcSsfIuNQ
Наткнулся на проект StructurePro, который комбинирует данные доступные через сенсоры AR-kit со своим алгоритмом 3d реконструкции, для того чтобы создать пространственную модель здания или того, что вы там сканируете.
В видео будет понятнее:
https://youtu.be/E1scHixVan8?t=10
Все это нужно для разных индустрий — страховые компании могут делать мгновенный слепок имущества, строители могут быстро обновлять статус стройки (получать diff если угодно), геймдев быстро получать новые карты, в общем применений масса и там где качество скана не критично, мне кажется может вполне пригодиться.
Сайт проекта, скачать демку пока нельзя:
http://www.urcventures.com/
P.S. Я кстати не пропал, была тяжелая неделя экстренных работ связанных с недавним перезапуском vc, так что теперь вроде все намного лучше 💖 Спасибо всем, кто подписался.
Любимый ютуб-канал посотрудничал еще с одним и на выходе получилось два прекрасных видео о том, почему возможно, возможно, мы все живем в симуляции.
Часть 1
https://youtu.be/3d9i_0Ty7Cg
Часть 2
https://youtu.be/tlTKTTt47WE
TL;DR Если предположить, что технический прогресс не планирует останавливаться на достигнутом и компьютерные мощности будут только расти, а уровень симуляции и рендера, который мы сможем сделать в будущем, будет настолько похож на реальность вокруг нас, то возникает мысль, а откуда мы знаем, что мы сами не эмуляция? Что все, что мы видим, не возникает в момент наблюдения?
Меня эта мысль пугает еще с детства. Помню, звонил маме и думал: сейчас трубку повешу и все, что там отрендерилось на момент звонка – стены для эха, размытые текстуры для экономии мощностей, голос мамы – все это схлопнется в "dom.rar" до следующего вызова, жутко было.
В общем, это красивые и пугающие видео, мои дорогие симуляции, очень рекомендую.
💖
Ну и вдогонку — AR Google таблицы, скоро и 1С наверное запустят:
https://youtu.be/83msDwB3iIw
Если вас беспокоит, что кто-то будет без вашего ведома майнить на вашем компьютере криптовалюту в браузере во время того как вы читаете что-то в интернете, то вот подоспел экстеншен для хрома:
http://bit.ly/nocoinchrome
Исходный код дополнения открыт, так что по идее не троянский конь, я поставил ¯\_(ツ)_/¯
Сначала я посмеялся с мыслью "Да когда еще это будет, с этим пиратбеем", а сейчас наткнулся на это с AdBlock и офигел. Мы уже в будущем?
Чуваки на каком-то сайте тоже майнят Monero в вебе, уже сейчас
Я вам не признавался, но я большой почитатель современного искусства с участием технологий и прежде чем вы отпишетесь от этого канала за такое заявление, я хотел бы сказать в свое оправдание, что я все понимаю и именно поэтому не спамлю канал каждый раз когда зависаю над чем-то «клевым», с роботами, технологиями и без особого смысла.
Но куда-то же мне это носить нужно?
Так что я набросал каких-то перфомансов за октябрь-ноябрь, возможно какие-то из них вам тоже понравятся:
💌 http://telegra.ph/Sovremennoe-iskusstvo-i-tehnologii--oktyabr-noyabr-2017-11-19
Помните, мы смеялись над тем, как неуклюже двигаются роботы Boston Dynamics? Шутки кончились: теперь робот Atlas умеет делать заднее сальто. Многие из вас могут похвастаться такими умением? Я - нет.
https://youtu.be/fRj34o4hN4I
Оказывается Android отмечает сегодня 10 лет (если считать от публичной беты), 10 лет, офигеть, как быстро пролетело время — по ссылке ниже официальная демонстрация первой версии Android на официальном канале для разработчиков:
https://youtu.be/1FJHYqE0RDg
А вот другое интересно видео, которое сравнивает iOS 1.0 и Android 1.0 по функциям:
https://youtu.be/0gxa2rq-kL8
С анимированными эмодзи в iPhone X устроили караоке. И это, скорее всего, лучшее применение для них.
«Get Lucky» в исполнении робота, а «What Does The Fox Say?» — в исполнении лисы. Предупреждаем: оторваться трудно.
https://tjournal.ru/61672-karaoke-s-animodzi-to-radi-chego-stoit-podumat-o-pokupke-iphone-x
Любопытное направление применения алгоритмов машинного обучения — это не замена действий человека, а ассистирование ему.
Различные SDK для разработчиков постепенно будут получать алгоритмы которые анализируя написанный код буду рекомендовать места его оптимизации, приложения для фотосъемки будут сами улучшать снятый кадр (Привет последним iPhone и Pixel), дизайнерам так можно предложить рекомендации по юзабилити, в общем, полно индустрий которые нуждаются в таком «Большом Брате» и вектор их развития, в целом, ожидаем.
Ребята из проекта popgun.ai делают такую же систему, но для музицирования — их алгоритм ALICE должен помочь людям импровизировать и обеспечить совместное музицирование:
https://youtu.be/4gcWxUr9PlE
Новости из мира фантастики:
Учёные, с помощью моей любимой технологии CRISPR (которая пока не ясно убьет нас всех или нет) проводили исследование на тему «снижения себестоимости содержания свиней зимой», так как обогревать свиней довольно дорого для фермеров.
Свиньям попробовали привить специальный протеин, который позволял бы животным «активнее сжигать жиры естественным путем» тем самым активнее согревая их зимой.
В результате эксперимента удалось получить 12 свиней с индексом жира на 24% меньше чем обычно, ну и судя по всему — довольно теплых.
В статье отдельно радуются тому, что наконец-то появится бекон с низким содержанием жира, но судя по всему CRISPR будут тестировать еще много лет, прежде чем реально дадут ученым менять животных и людей на их вкус.
Ну и серьезно — вместо теплого свинарника проще привить специальный протеин, мы уже в киберпанке?
Статья:
https://techcrunch.com/2017/10/24/crisprd-pigs-could-produce-low-fat-bacon
Если технология CRISPR вам не знакома, то рекомендую этот ролик с лучшего ютуб-канала в мире:
https://youtu.be/jAhjPd4uNFY
В прошлом году весь мир наблюдал за историческим матчем - нейросеть AlphaGo от DeepMind обыграла лучшего в мире игрока в го, корейца Ли Седоля. Это было событие, сравнимое с поражением Каспарова программе Deep Blue. А вчера DeepMind представили новую, улучшенную версию программы - AlphaGo Zero, которая обыграла предыдущую версию AlphaGo со счётом 100:0!
Но самое интересное - это то, как именно создали такого монстра. Предыдущая версия AlphaGo была создала с помощью reinforcement learning - программа улучшала свои навыки, играя миллионы партий со своей копией. Но для начала ей показали множество партий, сыгранных живыми игроками в го. AlphaGo училась на данных реальных партий. У AlphaGo Zero не было примеров для обучения - только правила игры и миллионы игр с самой собой. За 40 дней программа эволюционировала до недостижимого уровня, создав в процессе настолько сложные стратегии игры, что обычные игроки не могут понять логику её ходов. Программа буквально играет на сверхчеловеческом уровне. В будущем с помощью такого эволюционного обучения будут решать более прикладные задачи - моделирование белков, уменьшение энергопотребления, синтез новых материалов. Но го с её миллиардами возможных позиций - идеальная "песочница" для разработки подобных алгоритмов.
https://deepmind.com/blog/alphago-zero-learning-scratch/
Миша: Если вдруг будет повод — можешь дать ссылку на наш хакатон в ближайшие дни где-нибудь у себя?
Я: Без проблем, что написать?
Миша: ну как-то так, не умею писать рекламные посты совсем, поправь там как тебе надо:
Мои знакомые из @funcubator в эти выходные проводят онлайн-хакатон для развлекательных проектов. Если у вас уже есть забавная нейронка, которую можно оформить в продукт, или какая-то идиотская идея, которую нельзя было реализовать на других хакатонах — заявляйтесь, там именно этого и ждут.
Призы будут, ты в жюри, технологии ничем не ограничены.
http://hackathon.fun/
Я: Готово 💖 Любой хакатон с такими целями и формулировками — лучший хакатон по определению, клево!
Я всегда знал, что именно алгоритмы помогут нам построить вселенную Гарри Поттера:
https://youtu.be/-RetOjL1Fhw
По ссылке выше демонстрация алгоритма «Bringing Portraits to Life», который позволяет анимировать любые портретные фотографии или картины, по заданному в датасете видео-примеру.
Это в целом не новая техника, но такого качества я еще не видел — если вам не интересны детали работы алгоритма, то перемотайте сразу на 3:58 — это все алгоритмически анимированные картинки.
Сайт проекта:
http://cs.tau.ac.il/~averbuch1/portraitslife/index.htm
А ниже будет пару гифок 💖
Про презентацию Google рассказали почти все, что только можно, но я хотел бы остановиться на одной детали, которая очень запала мне в душу.
На скриншоте ниже, который я сделал во время презентации, два мальчика говорят друг с другом с помощью Google Translate, сидя рядом после игры, – один из Южной Дакоты, другой из Доминиканы. Эти дети, да и все дети, которые рождаются сейчас, уже не будут осознавать, что когда-то мир был без автопереводчика; что когда-то эти переводчики работали как попало; что приходилось изучать язык, для того чтобы понять собеседника.
С каждым годом нашей жизни автоперевод будет становиться только лучше и он отлично работает уже сейчас. То, что делает Google, – великая вещь, потому что для того, чтобы строить дворцы на Марсе, нам нужно понимать друг друга так, как это работает в фантастических фильмах: тебе что-то говорят и ты сразу слышишь перевод.
Наткнулся на неплохой сервис для тех кто любит проходить какие-то курсы онлайн:
https://www.moocha.io/
Муча ищет курсы на edX, Coursera, Udacity и других, увы, пока без дополнительных фильтров.
Ради интереса посмотрел там про курсы продакт менеджемента и порадовался ассортименту, рекомендую в общем 💖
Покажите преподавателю: учёные из MIT и Питтсбургского университета признали, что на «Википедию» можно ссылаться.
https://tjournal.ru/59696
И VR- и AR-проекты, помимо развлечений, уже сейчас могут приносить много пользы — к примеру, AR-приложения позволят вам научиться водить квадрокоптер или настраивать сложные станки, VR-проекты – рисовать, управлять самолетом, изучать биологию историю и тому подобное.
Я так понимаю, это не для кого не новость и грань VR/AR в целом не слишком очевидна — идеальная AR-линза для глаз может стать полноценной VR-гарнитурой, полностью исключив информацию за пределами виртуального мира, но когда это еще будет.
Так вот, если у вас есть VR шлем, то вы можете уже сейчас наглядно изучать математику с помощью визуально-виртуальных примеров на Calcflow. Из визуализации становится ясно то, как устроены какие-либо функции. Вот ссылка, где вы можете скачать исходники под Windows:
https://github.com/matryx/calcflow
Ниже пример:
https://youtu.be/uoS7A-y7UwM?t=16
Всем любителям науки и VR 💖
Хочу порекомендовать вам два канала, людей с которыми мне повезло работать, и так получилось, что они оба на тему переезда в Европу:
@chechannel — канал о переезде в Польшу, с инсайдами для семейных людей (и не только) и просто забавными наблюдениями от Ильи, технического директора ИД «Комитет», его жены Стаси и маленькой Евы
@de_tractor — заметки о переезде, жизни и карьере UX-дизайнера в Германии от Егора, который сам по себе крутой дизайнер и человек, да еще и пишет интересно
💖🦄⛵
Походу пока без будущего, чуваки. Кадр выше из фильма "Maps to the Stars", не из "Embers", пришлось скачать оба фильма и проверить.
Ниже скриншот из фильма "Maps to the Stars" запущенного в VLC, на том моменте где есть эта сцена, ну и сниффер ничего не выдаёт. Кроме того настоящий муж Claire Carré - Charles Spano и они живут в Калифорнии ¯\_(ツ)_/¯
Пойду переименую канал в Denis Sexy Buzzfeed 💖(это тоже фейк)