Я понимаю что это уже третий пост за день, но он клевый, честно и я один день молчал!
Я очень верю в такое направление VR индустрии как «воспроизведение катастрофы» (http://bit.ly/2gNwZrZ), это когда вы запускаете игру и у вас всего 2 часа 40 минут, пока вы не доберетесь с нижней палубы Титаника до шлюпки спасения. Геймплей таких игр подразумевает пересечение хронологии катастрофы и действий игрока, и мне кажется в плане наглядности и обучения – это прекрасное дополнение к сухому учебнику.
По сути – любая битва, любая катастрофа, любой прорыв в науке – может быть «пережит» с учетом тех данных что нам известны и все это в VR.
И вот музей «The Newseum» в Вашигтоне запустил VR симулятор «Перл Харбора» (http://wapo.st/2fS9usW) – музей даже пригласили ветерана–очевидца который подтвердил, что все очень похоже и точно передает атмосферу событий 1941 года.
Вот еще пару проектов которые я встречал на эту тему:
Инди проект про Титаник, пока без людей, но зато с моделью 1 в 1.
https://www.youtube.com/watch?v=aAl22fZFbcg
Повторение миссии Apollo 11 в VR как раз в аттаче к этому посту.
Сап, телеграм. Это пост без ссылки (и даже не реклама), так как он короткий и интересен только тем кто пользуется Uber в Москве (как я) – 25MSK25 промо-код на скидку 25%, на 25 поездок, до 15 декабря. Я не знаю подойдет ли он всем, нужен ли он вам, но как фанат облачного такси и чувак без прав, я доволен.
#оффтоп
Очень клевый документ на arxiv.org (http://bit.ly/2gj6ZnI) – в документе авторы предлагают neural style алгоритм, но адаптированный исключительно под шрифты. Это позволяет им сделать такое как ниже и это фантастика – это как Word Art нормального человека.
То есть иными словами – чтобы нарисовать какую-то надпись, в каком-то стиле, то вам нужен всего лишь сам шрифт, знания фотошопа вам для этого не нужны.
Сам алгоритм умеет комбинировать разные стили neural art под разные "слои" изображения. А значит, что этот алгоритм уже можно адаптировать под любую векторную графику – вдохнуть жизнь во flash Масяню и svg иконки, так сказать.
По ссылке только формулы и описание, исходный код пока недоступен.
Если вдруг вы хотели знать насколько клевый Google Maps в VR – настолько:
http://i.imgur.com/9Mw4ZOV.gifv
Всем привет, небольшое продолжение истории про «Телеграм ОС», а именно про опыт китайских коллег и WeeChat. Если у вас нет времени заглянуть по ссылке – то вот выжимка: Даже в китайском интернете e-commerce заказы происходят не через чат-ботов, как многие думают, а через html5 приложения которые запускаются внутри чатов. По ссылке пример из чата макдональдса и пару скриншотов.
http://shir-man.com/ieshchie-odin-udar-po-chatbotam-2/
Если вы всегда хотели стильного робота-друга, то мне кажется время вас обрадовать. Встречайте – робот BALLU (Bouyancy-Assisted Lightweight Legged Unit), это робот который передвигается «на стиле» с помощью шара с гелием.
На самом деле это исследование концепции когда роботу не нужно нести собственный вес, для этого к шарам с гелием крепятся ноги – маленькие тоненькие робоножки и робот буквально начинает «плыть» в воздухе.
И этими вот тонюсенькими робоножками BALLU и ходит, совсем как взрослый робот – очень мило как по мне.
Посмотрите видео в общем:
https://youtu.be/EdSoUbXirVI
Сап телеграм! Я знаю, что уже достал всех с призма-подобными алгоритмами (прошлый пост: /channel/denissexy/32), но на arxiv.org выложили описание улучшенного метода переноса художественного стиля, который работает намного качественнее – он "фактурнее" делает стилизацию, алгоритм умеет смешивать стили, использовать для различных объектов свой художественный стиль (учитывать контекст объекта), рендерить все это в хорошем разрешении – в общем посмотрите на картинки ниже, я впечатлён .
Будь я художником – я бы стал луддитом.
Ссылка на сам документ:
https://arxiv.org/pdf/1611.07865v1
Исходный код пока недоступен.
Теперь ясно как Трамп победил выборы – это новый уровень в спаме гугл аналитики я считаю
Читать полностью…Вот вы все веселились в играх типа поинт-н-клик, не воспринимали их всерьез – а в Голландии готовы тестировать AR приложение для полиции которое "подсвечивает" объекты на месте преступления.
На этом месте был такой поток шуток, что я вас пощадил. Но главное, что скорее всего оно правда будет работать и всякие heavy rain гаджеты действительно могут сильно помочь.
https://www.newscientist.com/article/2113450-dutch-police-use-augmented-reality-to-investigate-crime-scenes/
Запомните: роботы - наши верные друзья.
https://twitter.com/keith_alfaro/status/797982176906088448
Почти два месяца прошло с публикации командой DeepMind исходников WaveNet под TensorFlow, а это в целом дофига, ради интереса посидел вечером и собрал, что из интересного удалось насинтезировать комьюнити на данном этапе и запихнул все интересное (как по мне) в аудио, если коротко – пока что ваш голос у вас никто не украдет, а звуки синтеза речи роботом – все еще звуки синтеза речи роботом.
Но если вы звукорежиссер в фильмах ужасов – вам срочно нужно в deep learning.
Общие детали: почти все короткие семплы обсчитывались часов 8 на отрезок, на мощных и современных GPU (Titan и т.п.). Музыку пытались синтезировать по первой секунде трека или по отдельному отрезку.
Аудио-файл с демо:
https://soundcloud.com/shirman/wavenet-demo-november-2016
Исходный код на гитхаб:
https://github.com/ibab/tensorflow-wavenet
Ковырялся тут на хостинге и наткнулся на интерактивную статью которую переводил в свое время – о том как же на самом деле работает процессор. Если вам вдруг хочется чего-то необычного в воскресный вечер, можете попробовать – я не гарантирую, что станет хоть что-то яснее, но я там шутил в переводе. С телефона может и не работает, я не уверен.
http://shir-man.com/static/easycpu/
На arxiv.org выложили интересный документ который показывает как с помощью алгоритма DFI можно наложить на фото эффект старости, молодости, улыбку, усы и даже очки, и все это в высоком разрешении.
И работает это пока лучше из всего, что я видел. Мне кажется, что снепчат один из первых ринется в эти нейронные фильтры, так как стилизацией фотографии под художественный стиль уже никого не удивишь, а это вроде фейсбук прикручивает.
Детали тут: https://arxiv.org/abs/1611.05507
А ниже самая главная иллюстрация статьи.
Я большой фанат железа 💖. То есть если говорить начистоту – то мой лучший альбом написала не Земфира, а Ардуино. В общем – если у вас есть дома осциллограф, вы немного представляете зачем он нужен и что такое demo сцена – то вы можете совершенно легально вывести на него такую красоту:
http://bit.ly/2gfB1pz
Все изображения которые выводятся на экран выводятся исключительно с помощью аудио-файла. То есть автор смог совместить и музыку, и образы, за что получает премию "👑 Sexy IT" ноября которую я только что выдумал.
Детали как автор проекта это сделал, можно почитать тут: http://oscilloscopemusic.com
Кстати, очень много инди проектов собрано на этом сайте, очень рекомендую: hackaday.com, это как dirty, но про железо.
Посмотрите музыку в общем.
Ну и раз мы про дизайн и дизайнеров – вот сайт http://logojoy.com – который с помощью не хитрого алгоритма помогает каждому желающему сделать логотип и фирменный стиль. Это не просто концепция, это рабочий сервис который приносит 15000 долларов в месяц и которым пользуются 50 тысяч человек в месяц.
Алгоритм комбинирует вещи которые вам нравится, с вещами которые нравятся дизайнерам (там есть уже собранные дизайнерами палитры и написания), в итоге получается полноценный фирменный стиль.
Кстати, как мне кажется, векторные иконки сервис берет отсюда (я не уверен) – https://thenounproject.com.
Если вам когда-нибудь была нужна SVG иконка, то скорее всего она там есть.
Ниже мой тестовый пример – пора открывать бутик "ебаное ничего", бутик где ничего не происходит, но с вывеской!
Нейронные сети говорили они, автономное вождение автомобиля говорили они, посмотрите какая новая и перспективная технология говорили они.
Встречайте – ALVINN (Autonomous Land Vehicle In a Neural Network), роботизированный автомобиль 1989 года в работе которого используются 4 нейронных сети параллельно.
В первой версии из-за технических ограничений ALVINN мог двигаться со скоростью 5.5 километров час, так как мощности его железа хватало на обработку 12 фотографий в секунду.
Кстати об оборудовании – ALVINN использовал CPU в 10 раз "слабее" чем CPU в Apple iWatch, требовал 5000 Ватт, а само вычислительное оборудование было размером с холодильник.
Я очень рекомендую посмотреть этот ролик, в нем рассказывают о том каким же образом работал алгоритм вождения.
Особенно мило запускался автопилот – большой центральной хардверной кнопкой.
https://youtu.be/ilP4aPDTBPE
А тут по ссылке детали текстом:
olivercameron/meet-alvin-the-self-driving-car-from-1989-f0e40492a354" rel="nofollow">https://medium.com/@olivercameron/meet-alvin-the-self-driving-car-from-1989-f0e40492a354
Если вы вдруг не знали насколько прекрасно интерактивное умножение матриц – то у меня для вас есть и ссылка, и гифка – http://matrixmultiplication.xyz/
Ума не приложу зачем вам это всё, но правда же красиво, да? Даа?
Всем доброе утро и вот немного нейронных сетей вам в ленту:
Если wave net дать 10 секунд Metallica, а потом попросить сыграть Metallica, то получится это: https://m.soundcloud.com/theperfectdangerous/thirty-seconds-of-wavenet-metallica
Теперь нужно дать послушать нейронке альбом, потому что на 10 секундах нефига не понятно же даже человеку.
Считается правда вся эта фигня десятки часов.
Привет всем тем кто подписался на канал и спасибо вам, вы молодцы ;) Да и вообще всем спасибо – если коротко, я тут пишу о всяком, что мне кажется интересным в области технологий – Нейронных сетях, VR, AR, науке, приложениях, алгоритмах и пытаюсь не быть занудой, но не всегда выходит.
Вот к примеру, если вы вдруг понимаете английский, я бы хотел порекомендовать вам прекрасный научный канал «Kurzgesagt – In a Nutshell» о всем на свете и конкретно это видео об устройстве квантового компьютера:
https://www.youtube.com/watch?v=JhHMJCUmq28
Ей богу я много времени потратил пытаясь понять как же он устроен и смог это сделать только после этого видео, рекомендую в общем.
Короткая новость от nplus1: "Нейросеть прочла по губам речь дикторов BBC"
https://nplus1.ru/news/2016/11/23/neural-network
"Тесты показали, что в 46,8 процентах случаев система правильно определяет, что сказал участник телепрограммы" – 50% это не так мало, как мне кажется, но явно есть куда расти.
Будет ли прайваси вообще в этом вашем будущем?
http://bit.ly/2fQb3eJ
Написал тут небольшой (🤓) продуктовый материал на тему того как будет выглядеть запуск приложения на смартфоне через пару лет, что такое "Операционная система Телеграм" и почему вам стоит прекратить делать чатбота сейчас (скорее всего правда стоит прекратить, но есть яркие звездочки).
Еще добавлю, что ради интереса перешел пару недель назад на чтение всех своих RSS лент в Телеграм, на "попробовать" и в итоге уже не представляю как вернуться назад, так как это быстро и удобно, и работает.
Я уже как-то писал о дорисовке объектов нейронной сетью (http://bit.ly/2eezfsO). Так вот, ученые из института Беркли разработали алгоритм Image-to-Image – который может визуально дорисовывать объекты учитывая "контекст" изображения.
Применений для этой технологии масса – создание текстур, реконструкция фотографий, применение в картографии, "умная" фоторетушь и тп, но если бы мне дали возможность выбирать, то я бы сделал детский "paint" для смартфона – очень это весело, нарисовать что-то тяп ляп и получить реалистичную текстуру.
Исходный код и детали доступны по ссылке: https://phillipi.github.io/pix2pix/
Короткие новости – совсем скоро можно будет посмотреть результаты УЗИ в VR, а также напечатать ваше чадо на 3d принтере, намного лучше чем черно-белый шум этот сейчас. Ниже – результат такого сканирования.
http://www.telegraph.co.uk/science/2016/11/21/parents-can-meet-unborn-children-first-time-3d-virtual-reality/
Многие спорят о полезности нового тачбара макбука pro – а я для себя решил, что это 100% мастхев, ведь там можно запустить Doom. А представьте, если сим-сити туда вывести на фулл-тайм?
https://www.youtube.com/watch?v=GD0L46y3IqI
Если у вас есть 2 компьютера, а еще 2 монитора и 2 веб-камеры – то вы можете передавать данные между устройствами не с помощью WiFi или LAN как какой-нибудь ретроград, а выводя QR коды на экран монитора и считывая их друг с друга.
Иными словами – если вы ебанулись, то вам никто не может помешать сделать это зрелищно.
Из недостатков:
– Фейсбук при такой скорости загрузится часа за 4 (1-2 kBps, если я не напутал с расчетами);
– Часть экрана которая отвечает за передачу данных нельзя ничем закрывать, данные идут же, внимательнее! Ну!
Подробнее в блоге автора: http://seiferteric.com/?p=356
Примерно это выйдет, если совместить автопилот Теслы и Бенни Хилл – https://www.tesla.com/en_GB/videos/autopilot-self-driving-hardware-neighborhood-short
Обратите внимание как машина в коце сама паркуется, какая прелесть.
Поигрался тут с одним из экспериментов гугла – мгновенный переводчик объектов – после нажатие на съемку фото отправляется в в сервис распознания образов (https://cloud.google.com/vision/), а после этого отправляется в сервисов переводов и озвучки (https://cloud.google.com/translate/), и уже к вам обратно на девайс.
Работает так себе, зато весело.
Вы можете поучить испанский прямо сейчас, но только если у вас на кухне срач и вы болеете: https://oxism.com/thing-translator
Исходный код тут: https://github.com/dmotz/thing-translator
Национальный музей современного искусства Киото, Япония, устраивает такие совместные сеты – где одновременно на сцене выступает и DJ человек и DJ компьютерный алгоритм. Получается вроде не плохо, и таких проектов в 2016 году я встречал довольно много – так что интересно, будут ли люди ходи на выступления алгоритмов? Я бы сходил, мне пофигу если красиво ;)
https://vimeo.com/186370041
Детали проекта по ссылке:
http://qosmo.jp/projects/2016/09/06/ai2045/