Любопытное устройство из Швейцарии – особенно для людей которые много работают стоя. Это что-то вроде экзоскелета который превращается в стул когда вы садитесь:
https://youtu.be/EP6iU-Ia-wY
Говорят вот-вот начнут производство, но цены я пока не нашел. Да и выглядит пока, гм, массивно.
Это получается – экзоскелет-мебель, да?
Детали: http://bit.ly/2qnP6pQ
Я, как человек, который потерпел сокрушительное поражение всем приложениям-калькуляторам калорий и фитнес-трекерам-браслетам, и больше полагается на "диетическое везение", чем на реальный просчет рациона (🙈), был бы несказанно рад такому алгоритму который готовят чуваки.
На arxiveorg появился любопытный документ о оценке калорийности еды по фотографиям, причем, что важно, для подсчета калорий учитывается объем и масса продукта. В датасете 2978 фотографий с различными продуктами и монеткой в 1 юань рядом, для сохранения пропорций. Это уже не первый алгоритм, который пытается прогнозировать калории – но по заверениям авторов очень точный, быстрый, способный оценить продукт в граммах.
Навел такой, камеру Holo Lens на тарелку и он тебе говорит стоит это есть или лучше потерпеть – было бы очень здорово
Ссылка на документ:
https://arxiv.org/abs/1705.07632v3
Я сначала долго ходил с мыслью, что рано или поздно все будут программировать на чем-то, и это мне казалось клевой мыслью, но это просто неправда – навыки программирования не станут обязательным пунктом вакансий будущего, в будущем вообще сложно представить себе человека без "умного ассистента" во всех индустриях, который будет брать рутину на себя.
Вот, к примеру, нейронная сеть pix2code создает нативный iOS или Web интерфейс из скриншота:
https://youtu.be/pqKeXkhFA3I
Почитать на GitHub:
https://github.com/tonybeltramelli/pix2code
¯\_(ツ)_/¯
Я большой фанат AR технологий и если вы читаете этот канал довольно давно, вы могли это заметить. Единственное, что меня останавливает от повсеместного использования AR (как и вас), это то, что у нас все еще нет нормальных очков или линз для того, чтобы дополненная реальность стала действительно удобной.
Но думать о том, как мы будем использовать AR на смартфонах в ближайшие годы мы можем уже сейчас. По ссылке любопытное размышление, от MIT media lab:
https://vimeo.com/218412997
P.S. Все это не рендер, а реальный прототип
P.P.S. Я никогда не мог понять, почему бы не давать считывать QR коды по умолчанию в камерах iOS и Android, в каком-нибудь удобном ненавязчивом виде. Представьте, что ваша камера на смартфоне – это платформа, со своими приложениями и собственным набором функций, помимо фото. Я думаю, что это Google Lens примерно этим и станет когда-нибудь.
P.P.P.S. Раз уж вы дочитали до этого места, то вот вам качественный баян на тему AR будущего 💖 Здесь все – и программа лояльности и интерфейсы, и социальные проблемы (вы точно его видели)
https://vimeo.com/166807261
Прямо сейчас можно посмотреть, как нейросеть Чарльз, написанная на Python и использующая библиотеку компьютерного зрения OpenCV, учится водить машину в #GTA5. Пока водит, как типичный игрок в GTA: сшибает все, что не приколочено к полу и лихо удирает от полиции.
https://www.twitch.tv/sentdex
Походу один из инструментов АНБ таки на самом деле каким-то образом попал в плохие руки, в общем - пятница для админов оказалась бодрой:
Один из пользователей GeekTimes рассказал, что сегодня (12 мая) устанавливал на компьютеры в своей компании Windows Server 2008R2 с чистых образов, и как только он настраивал на машине статический IP-адрес, она сразу же оказывалась заражена.
«Единственное что было установлено в системе — это Virtio-драйверы, которые были загруженны при установке самой Windows с внешнего CD.
ISO-образ был также получен из официального источника — репозитория Fedora, хеш-суммы также совпадают. В логах Windows я не нашёл ничего необычного. На данный момент до конца не известно, как именно произошло заражение и какие конкретно версии Windows уязвимы».
Прямая трансляция кибер-атаки ведётся сейчас на tj:
https://tjournal.ru/44260-pryamaya-translyaciya-masshtabnaya-kiberataka
Всем привет, если вам вдруг нечего делать и вам интересно, что нового покажет Microsoft в Сиетле на Microsoft Build 2017, то вот тут будет трансляция на эту тему которую я веду с Костей.
Я очень стараюсь не хохмить, честно, но если проскользнет – простите уж 🙈
https://vc.ru/p/microsoft-build-2017
(Начало минут через 20)
Проект Cellulo EPFL исследует, каким образом небольшие и недорогие роботы могут помочь в процессе обучения детей – на видео выше демонстрация того, как с помощью роботов можно объяснить детям поведение атомов при нагреве материала.
Ну и честно говоря, я в этом вижу целое UX направление и следующий шаг после Surface Dial и подобных устройств, я бы с удовольствием управлял какими-то объектами в VR или просто на компьютере с помощью такого способа.
А дизайнеры бы отдельно оценили.
https://youtu.be/v68xoidR2FA
Статья с подробностями:
http://bit.ly/2pBDqjM
А вот эта нейронка будет интересна в первую очередь людям из гейм-дева. На основе датасета данных трекинга она генерирует анимацию персонажа - ходьбу, бег и так далее. Очень хочется увидеть такое в играх уже сейчас 👾
https://youtu.be/Ul0Gilv5wvY
Не так давно появился сервис рекомендаций фильмов на основе нейронных сетей – я сначала воспринял его скептически, так как тысячи их – попыток рекомендовать что-то и даже с нейронной сетью сложно это делать правильно, но сейчас почитал то, что ребята делают внутри проекта и как пытаются добиться результата с помощью нейронных сетей, и понял, что нужно еще раз присмотреться и попробовать – в общем вот пост, где доступным языком поднимают вопрос рекомендательных систем и их проблем
http://bit.ly/2oXhJbS
А сам сервис рекомендации фильмов вот:
Movix.ai
Adobe разрабатывает любопытный алгоритм трекинга точек в видео – он позволяет не только стабилизировать видео, но и превращает 360-градусные видео-панорамы в реальные VR сцены, где зритель может перемещаться с некоторой свободой по сцене.
Вот видео с демонстрацией:
https://youtu.be/37Z4f6p1HOY
То есть, через какое-то время можно будет по другому взглянуть на видео-панормы в целом. Ну а лично я больше всего жду развития технологий вроде DSO (мой старый пост: http://shir-man.com/direct-sparse-odometry-tiekhnologhiia-za-kotoroi-stoit-nabliudat/) – она позволит вполне себе гулять по любимым фильмам, ну, кроме того что её еще используют автономные роботы с камерами.
Вчера было 2700 лет со дня рождения Рима – вы только представьте, когда Риму будет 3000 лет, в нем можно будет побывать как в обычном городе, подумаешь что виртуальном (хотя что такое в виртуальном через 300 лет и когда всё один в один как настоящее).
Зато, я уверен, с блекджеком и римскими храмами.
Наиболее точная 3d реконструкция на сегодня, надеюсь авторы поделятся с сообществом моделями и переведут все на Unreal Engine 4:
https://youtu.be/R1XOcuTn3x4
Ну а так, я как большой почитатель истории, надеюсь в скором времени смогу побегать в древнем Риме, хотя бы в шлеме (На Титанике я уже был 🤓):
https://youtu.be/JIj9i8sJ9tE
💖 Сегодня в 20:00 по Москве будет проходить online конференция Facebook для разработчиков.
Я не знаю, что именно там будет, но обещали новостей про VR, о ботах для мессенджера и еще всякого, что относится конкретно к социальным сетям – вот тут ссылка с трансляцией:
https://www.fbf8.com/watch
Вжух и ваш видео-звонок уже не такой скучный:
https://www.youtube.com/watch?v=0ueRYinz8Tk
Примерный синтез стилизованных анимаций для лица в действии.
TL:DR: Клевых масок в мобильных приложениях будет еще больше
Давно я не рекомендовал хороших каналов:
🤖 @ctodaily – чёткий канал на тему будней технического директора новостного стартапа (*wink-wink*), один из немногих каналов где я не пропускаю посты вообще и где можно найти много клевых технических решений и мыслей
🏅 @proproduct – канал для тех кому интересна работа продуктологов – помогает ответить на вопросы "Нахрена это всё делать?" и "Как долго это будет длиться?", иными словами, все что происходит до реальных ТЗ – на этом клевом канале
🎷 @diysupport – молодой и перспективный канал о технической поддержке, от автора блога read.support.wtf – ответы на вопросы "Как сделать саппорт лучше", "Как оценить свой саппорт", "Нужен ли саппорт мне вообще" и "Почему гифка в ответ лучше хамства чуваку"
На этом пока все, если у вас есть кто-то, чей канал вам нравится и кого стоить включить в подборку, пишите мне, я сделаю список когда будет время
А томатам 🍅 – вишенка 🍒
И сразу вдогонку – как AR можно применить в работе
https://www.youtube.com/watch?v=97vHsOuHqs0
Это WorkLink, и та-да, он уже работает на HoloLens – WorkLink позволяет вам отсканировать объект и потом в редакторе быстро собрать интерактивную последовательность действий которую вы хотели бы передать другим рабочим, которые тоже будут в HoloLens.
Очень мило, когда Alexa и Google Home заигрывают друг с другом
https://youtu.be/jsLGe00rIsU
Милая история из прошлого о том, почему Билл Гейтс реже стал заниматься личной поддержкой пользователей, правда речь о игре Microsoft Flight Simulator
http://read.support.wtf/flight-simulator
Microsoft вчера показал довольно много интересного, хоть было и скучно – вот краткая выжимка из того, что мне больше всего понравилось:
– Cortana становится полноценным устройством, ну, то есть конкуренция на рынке персональных помощников в виде отдельных устройств полноценно открыта, спасибо Echo и Home за подогрев рынка, а вы можете писать свои приложения для Cortana (Skills, также как у Echo);
– У MS всегда была огромная доля в b2b секторе, они позволяют оптимизировать процессы не только в крупных компаниях, а на целых заводах (буквально управляя всеми заводами компании с одного дашборда), все эти системы строятся на консистентном API и позволяют интегрироваться между собой. В рамках демонстрации показали кейс на заводе, где MS Azure подключенный к обычным камерам завода позволяет с помощью компьютерного зрения от MS: определить тех кто не имеет право находится в цеху или на территории завода, тех кто ходит без каски, где лежит домкрат, кто без спроса взял отбойный молоток (там прям можно задать кто может его использовать), где конкретный чувак который что-то делает, позволяет с камеры определить, что бочка с химикатами упала и срочно нужно что-то делать – в общем это уже полноценный скайнет, там и чатботы и интеграция со всем чем только захочешь. А еще показали станки которые теперь тоже "Интернет вещей" и часть Azure;
– Больше всего мне понравилось https://customvision.ai/ – вы загружаете 100 фотографий одуванчиков, с одного клика тренируете нейронку, и сразу получаете эндпоинт для вашего приложения ¯\_(ツ)_/¯
Ну и есть просто публичные датасеты
(Модель тоже хостится у них)
А, ну еще Cortana в машине почему-то была, но деталей пока мало.
Появился очень любопытный алгоритм – Deep Image Analogy
На arxivorg документ, который возводит перенос стиля а-ля «Призма» (о котором я уже писал не раз) на новый уровень. Переносятся цвет, тон, текстура и стиль, да что уж там – работает даже при переносе стиля с фото на фото. Самое главное, чтобы объекты на фото были более-мене похожими: с лица на лицо, с дома на дом и т.п.
Не буду занудствовать, ниже картинки с примерами 🔥
Описание алгоритма на arxiv.org
Прочитав очередную новость про то, что "Ученые изобрели искусственный интеллект который предсказывает лайки на фотографии" я психанул и понял, что дальше я так интернет не могу читать.
Набросал плагин для Chrome в 29 килобайт, который заменяет фразу "Искусственный интеллект" на "Дополненный интеллект" везде где её встречает на странице.
Фраза взята у IBM, что по моему мнению является более аккуратной и точно формулировкой.
Делюсь, так как может оказаться, что кто-то тоже устал
¯\_(ツ)_/¯
Ссылка:
https://chrome.google.com/webstore/detail/pgkmcajglopkeefmmifjacdnfbpgblbn/
Я не большой фанат военной техники, но случайно наткнулся на устройство, связанное с бывшим подразделением Samsung, – Samsung Techwin и компьютерным зрением.
В 2006 году при поддержке южнокорейского правительства компания Samsung представила прототип автономной турели Samsung SGR-A1, главной целью которой была замена патрулей на границе с Северной Кореей на автономные системы охраны – речь идет о территории почти в 250 километров общей границы.
SGR-A1 оснащена пулеметом 45 калибра, способным выпускать до 900 пуль в минуту (пулемет производила на тот момент компания, принадлежавшая Daewoo), гранатометом(!), системами тепловизора, лазерной наводкой, ночным видением, видео-аудио и подобным.
Все это позволяет турели находить цели в радиусе до 3 километров и вести огонь на поражение БЕЗ участия человека. Система также оснащена распознованием речи, она может понять, что ей говорят, отключиться по ключевому слову, распознать поднятые вверх руки, сообщить оператору на пульт о том, что что-то произошло и нужно подключиться посмотреть.
Появление Samsung SGR-A1 (и системы автономного смертельного оружия в целом) вызвало значительные споры относительно влияния такого оружия на агрессию между государствам и этики автономного убийства. В данном вопросе существует два подхода:
HITL (Human in the loop) – это когда система навелась на цель, сообщила на пульт и ждет приказа от оператора на открытие огня.
И HOTL (Human on the loop) – это когда система навелась и человек может предотвратить открытие огня, но это вовсе не обязательно. Автономность и есть основная проблема по мнению правозащитников – Samsung SGR-A1 это HOTL тип автономного вооружения.
Информации на эту тему совсем немного, я не смог найти в википедии статью на корейском на эту тему, сложно представить, что есть у военных сейчас, если даже до выхода первого айфона у них уже были такие системы, а 11 лет – это огромный срок для технологий.
Очевидно, я немного недооценивал, насколько быстро SkyNet появится, так как он уже тут и, видимо, в ближайшие годы человечеству придется решать вопросы, связанные с моралью таких систем.
В прессе пишут, что система работает с 2006 года – естественно никто не говорит, сколько реальных устройств задействовано и как они работают на самом деле, военные же.
А теперь ссылки:
Небольшая нарезка видео
https://www.youtube.com/watch?v=azQzwI9-GHU
Статья на Wikipedia
https://www.wikiwand.com/en/Samsung_SGR-A1
Статья о LAWs
https://www.wikiwand.com/en/Lethal_autonomous_weapon
P.S. Такой вид систем отличается от военных дронов (UCAV), так как ими управляет оператор, поэтому их выносят в отдельную категорию – Смертельное автономное оружие (LAWs).
P.P.S. В 2014 году Samsung продал Samsung Techwin и теперь это Hanwha Techwin.
Нашел очень наглядную иллюстрацию работы нейронок разного типа:
https://youtu.be/3JQ3hYko51Y
Ещё одна нейросеть, но с практическим применением: бот в Telegram, снимающий макияж с фотографии. Потестить: @true_face_bot
Вообще алгоритм задумался для того, чтобы накладывать макияж, но оказалось, что сервис неплохо работает и в обратную сторону.
https://tjournal.ru/43594-true-face-telegram-bot-dnya-snyatiya-makiyazha-s-fotografii
VR и AR, конечно, перспективные технологии в плане интерфейсов взаимодействия с виртуальным миром, но обе эти технологии сильно хромают в плане интерфейсов взаимодействия с объектами, ведь удобнее, чем «мышь» или «тот пультик, которым нужно водить в воздухе», у нас пока ничего нет. Но мы, как вид, не взаимодействуем с объектами так. Мы используем руки, чтобы взять объект, и взгляд, чтобы выделить объект, смотря на него (капитан очевидность уровня 700+ 😎).
Чувак с реддита задался таким же вопросом – мол, «глазные трекеры являются очень мощным инструментом для исследования сенсомоторного контроля человека» и «движения глаз являются физическим измерением, которое обеспечивает прямое понимание ваших когнитивных процессов». Если сказать проще, взгляд на объект – это полноценный интерфейс управления. Для того чтобы понять, как это работает, проще всего применить «глазные трекеры» к играм, ведь быть топчиком в CS:GO на мыши конечно клево, но тот, кто первый начнет управлять прицелом взглядом, скорее всего выиграет, потому что сначала мы смотрим на что-то, а только потом наводим мышь. А так мы сможем стрелять сразу же.
В общем, вот видео, как он играет в Overwatch с этой технологией:
https://youtu.be/X_BalnBOcpk?t=42
Впрочем, в видео это пока работает только на считывание информации, не на управление, но уже понятно, куда это идет, особенно приятно видеть высокий FPS трекера.
Использованный трекер глаз:
https://pupil-labs.com/
🤓 Интересно, является ли это читерством?
Григорий Бакунов (@addmeto) хвастает своей версией Siri – Викой
https://www.youtube.com/watch?v=8LnaGuMrXUg
Интересеный концепт и я убежден, кстати, что такими помощники и должны быть – они же типа люди, human touch, все дела.
Интересно, на чем это все работает.
Один из самых любопытных скриншотов с конференции фейсбука (помимо AR фигни, которая пока недоступна и о ней завтра будут писать вообще все) – на картинке ниже показано, как за последние 5 лет нейронные сети научились узнавать объекты. В 2012 году нейронная сеть Alexnet могла понять, что на фото есть человек, а уже в 2017 мы можем не только расписать, что там есть сахарница, человек, собака, чашка, бокал с вином, но еще и определить позу человека (цветные палочки на картинке).
Читать полностью…Полезный плагин на основе Autodraw для тех кто работает с приложением Sketch – вы рисуете карандашом иконку, выделяете нужные слои и на выходе получаете векторное изображение наиболее подходящее к исходному скетчу.
На гифке я рисовал котика 🙈
Ссылка:
https://github.com/sympli/autodraw-sketch