Нейронные сети говорили они, автономное вождение автомобиля говорили они, посмотрите какая новая и перспективная технология говорили они.
Встречайте – ALVINN (Autonomous Land Vehicle In a Neural Network), роботизированный автомобиль 1989 года в работе которого используются 4 нейронных сети параллельно.
В первой версии из-за технических ограничений ALVINN мог двигаться со скоростью 5.5 километров час, так как мощности его железа хватало на обработку 12 фотографий в секунду.
Кстати об оборудовании – ALVINN использовал CPU в 10 раз "слабее" чем CPU в Apple iWatch, требовал 5000 Ватт, а само вычислительное оборудование было размером с холодильник.
Я очень рекомендую посмотреть этот ролик, в нем рассказывают о том каким же образом работал алгоритм вождения.
Особенно мило запускался автопилот – большой центральной хардверной кнопкой.
https://youtu.be/ilP4aPDTBPE
А тут по ссылке детали текстом:
olivercameron/meet-alvin-the-self-driving-car-from-1989-f0e40492a354" rel="nofollow">https://medium.com/@olivercameron/meet-alvin-the-self-driving-car-from-1989-f0e40492a354
Если вы вдруг не знали насколько прекрасно интерактивное умножение матриц – то у меня для вас есть и ссылка, и гифка – http://matrixmultiplication.xyz/
Ума не приложу зачем вам это всё, но правда же красиво, да? Даа?
Всем доброе утро и вот немного нейронных сетей вам в ленту:
Если wave net дать 10 секунд Metallica, а потом попросить сыграть Metallica, то получится это: https://m.soundcloud.com/theperfectdangerous/thirty-seconds-of-wavenet-metallica
Теперь нужно дать послушать нейронке альбом, потому что на 10 секундах нефига не понятно же даже человеку.
Считается правда вся эта фигня десятки часов.
Привет всем тем кто подписался на канал и спасибо вам, вы молодцы ;) Да и вообще всем спасибо – если коротко, я тут пишу о всяком, что мне кажется интересным в области технологий – Нейронных сетях, VR, AR, науке, приложениях, алгоритмах и пытаюсь не быть занудой, но не всегда выходит.
Вот к примеру, если вы вдруг понимаете английский, я бы хотел порекомендовать вам прекрасный научный канал «Kurzgesagt – In a Nutshell» о всем на свете и конкретно это видео об устройстве квантового компьютера:
https://www.youtube.com/watch?v=JhHMJCUmq28
Ей богу я много времени потратил пытаясь понять как же он устроен и смог это сделать только после этого видео, рекомендую в общем.
Короткая новость от nplus1: "Нейросеть прочла по губам речь дикторов BBC"
https://nplus1.ru/news/2016/11/23/neural-network
"Тесты показали, что в 46,8 процентах случаев система правильно определяет, что сказал участник телепрограммы" – 50% это не так мало, как мне кажется, но явно есть куда расти.
Будет ли прайваси вообще в этом вашем будущем?
http://bit.ly/2fQb3eJ
Написал тут небольшой (🤓) продуктовый материал на тему того как будет выглядеть запуск приложения на смартфоне через пару лет, что такое "Операционная система Телеграм" и почему вам стоит прекратить делать чатбота сейчас (скорее всего правда стоит прекратить, но есть яркие звездочки).
Еще добавлю, что ради интереса перешел пару недель назад на чтение всех своих RSS лент в Телеграм, на "попробовать" и в итоге уже не представляю как вернуться назад, так как это быстро и удобно, и работает.
Я уже как-то писал о дорисовке объектов нейронной сетью (http://bit.ly/2eezfsO). Так вот, ученые из института Беркли разработали алгоритм Image-to-Image – который может визуально дорисовывать объекты учитывая "контекст" изображения.
Применений для этой технологии масса – создание текстур, реконструкция фотографий, применение в картографии, "умная" фоторетушь и тп, но если бы мне дали возможность выбирать, то я бы сделал детский "paint" для смартфона – очень это весело, нарисовать что-то тяп ляп и получить реалистичную текстуру.
Исходный код и детали доступны по ссылке: https://phillipi.github.io/pix2pix/
Короткие новости – совсем скоро можно будет посмотреть результаты УЗИ в VR, а также напечатать ваше чадо на 3d принтере, намного лучше чем черно-белый шум этот сейчас. Ниже – результат такого сканирования.
http://www.telegraph.co.uk/science/2016/11/21/parents-can-meet-unborn-children-first-time-3d-virtual-reality/
Многие спорят о полезности нового тачбара макбука pro – а я для себя решил, что это 100% мастхев, ведь там можно запустить Doom. А представьте, если сим-сити туда вывести на фулл-тайм?
https://www.youtube.com/watch?v=GD0L46y3IqI
Если у вас есть 2 компьютера, а еще 2 монитора и 2 веб-камеры – то вы можете передавать данные между устройствами не с помощью WiFi или LAN как какой-нибудь ретроград, а выводя QR коды на экран монитора и считывая их друг с друга.
Иными словами – если вы ебанулись, то вам никто не может помешать сделать это зрелищно.
Из недостатков:
– Фейсбук при такой скорости загрузится часа за 4 (1-2 kBps, если я не напутал с расчетами);
– Часть экрана которая отвечает за передачу данных нельзя ничем закрывать, данные идут же, внимательнее! Ну!
Подробнее в блоге автора: http://seiferteric.com/?p=356
Примерно это выйдет, если совместить автопилот Теслы и Бенни Хилл – https://www.tesla.com/en_GB/videos/autopilot-self-driving-hardware-neighborhood-short
Обратите внимание как машина в коце сама паркуется, какая прелесть.
Поигрался тут с одним из экспериментов гугла – мгновенный переводчик объектов – после нажатие на съемку фото отправляется в в сервис распознания образов (https://cloud.google.com/vision/), а после этого отправляется в сервисов переводов и озвучки (https://cloud.google.com/translate/), и уже к вам обратно на девайс.
Работает так себе, зато весело.
Вы можете поучить испанский прямо сейчас, но только если у вас на кухне срач и вы болеете: https://oxism.com/thing-translator
Исходный код тут: https://github.com/dmotz/thing-translator
Национальный музей современного искусства Киото, Япония, устраивает такие совместные сеты – где одновременно на сцене выступает и DJ человек и DJ компьютерный алгоритм. Получается вроде не плохо, и таких проектов в 2016 году я встречал довольно много – так что интересно, будут ли люди ходи на выступления алгоритмов? Я бы сходил, мне пофигу если красиво ;)
https://vimeo.com/186370041
Детали проекта по ссылке:
http://qosmo.jp/projects/2016/09/06/ai2045/
Google запустил проект который позволит вам нарисовать что-то, а нейронная сеть попробует узнать что же это такое. Вот тут ссылка: https://goo.gl/2wiPgN
Со мной не сработало, я забыл что виолончель это большая скрипка, а траву лучше не рисовать с видом сверху – но вы попробуйте. А еще я забыл что я отвратительно рисую.
А вот тут еще больше ИИ экспериментов от гугла, на любые темы: https://aiexperiments.withgoogle.com/
Ко мне часто обращаются люди с вопросами самой разной степени безумия – от тех кто хотел бы скормить нейронке описание товаров и получить умного ассистента в магазине, до чуваков которые хотели бы полностью передать проектировку дизайна нейронным сетям и уволить отдел дизайна.
Я устал отвечать на подобные вопросы и поэтому решил собрать в одном месте список технологий которые в каком-то виде попадали мне в поле зрения.
Он наверное не полный, но короче – нет, не увольняйте отдел дизайна, рано еще, подождите года 3 (шутка).
http://shir-man.com/risovaniie-i-alghoritmy-chto-ieshchie-roboty-moghut-kromie-prizmy/
Если вдруг вы хотели знать насколько клевый Google Maps в VR – настолько:
http://i.imgur.com/9Mw4ZOV.gifv
Всем привет, небольшое продолжение истории про «Телеграм ОС», а именно про опыт китайских коллег и WeeChat. Если у вас нет времени заглянуть по ссылке – то вот выжимка: Даже в китайском интернете e-commerce заказы происходят не через чат-ботов, как многие думают, а через html5 приложения которые запускаются внутри чатов. По ссылке пример из чата макдональдса и пару скриншотов.
http://shir-man.com/ieshchie-odin-udar-po-chatbotam-2/
Если вы всегда хотели стильного робота-друга, то мне кажется время вас обрадовать. Встречайте – робот BALLU (Bouyancy-Assisted Lightweight Legged Unit), это робот который передвигается «на стиле» с помощью шара с гелием.
На самом деле это исследование концепции когда роботу не нужно нести собственный вес, для этого к шарам с гелием крепятся ноги – маленькие тоненькие робоножки и робот буквально начинает «плыть» в воздухе.
И этими вот тонюсенькими робоножками BALLU и ходит, совсем как взрослый робот – очень мило как по мне.
Посмотрите видео в общем:
https://youtu.be/EdSoUbXirVI
Сап телеграм! Я знаю, что уже достал всех с призма-подобными алгоритмами (прошлый пост: /channel/denissexy/32), но на arxiv.org выложили описание улучшенного метода переноса художественного стиля, который работает намного качественнее – он "фактурнее" делает стилизацию, алгоритм умеет смешивать стили, использовать для различных объектов свой художественный стиль (учитывать контекст объекта), рендерить все это в хорошем разрешении – в общем посмотрите на картинки ниже, я впечатлён .
Будь я художником – я бы стал луддитом.
Ссылка на сам документ:
https://arxiv.org/pdf/1611.07865v1
Исходный код пока недоступен.
Теперь ясно как Трамп победил выборы – это новый уровень в спаме гугл аналитики я считаю
Читать полностью…Вот вы все веселились в играх типа поинт-н-клик, не воспринимали их всерьез – а в Голландии готовы тестировать AR приложение для полиции которое "подсвечивает" объекты на месте преступления.
На этом месте был такой поток шуток, что я вас пощадил. Но главное, что скорее всего оно правда будет работать и всякие heavy rain гаджеты действительно могут сильно помочь.
https://www.newscientist.com/article/2113450-dutch-police-use-augmented-reality-to-investigate-crime-scenes/
Запомните: роботы - наши верные друзья.
https://twitter.com/keith_alfaro/status/797982176906088448
Почти два месяца прошло с публикации командой DeepMind исходников WaveNet под TensorFlow, а это в целом дофига, ради интереса посидел вечером и собрал, что из интересного удалось насинтезировать комьюнити на данном этапе и запихнул все интересное (как по мне) в аудио, если коротко – пока что ваш голос у вас никто не украдет, а звуки синтеза речи роботом – все еще звуки синтеза речи роботом.
Но если вы звукорежиссер в фильмах ужасов – вам срочно нужно в deep learning.
Общие детали: почти все короткие семплы обсчитывались часов 8 на отрезок, на мощных и современных GPU (Titan и т.п.). Музыку пытались синтезировать по первой секунде трека или по отдельному отрезку.
Аудио-файл с демо:
https://soundcloud.com/shirman/wavenet-demo-november-2016
Исходный код на гитхаб:
https://github.com/ibab/tensorflow-wavenet
Ковырялся тут на хостинге и наткнулся на интерактивную статью которую переводил в свое время – о том как же на самом деле работает процессор. Если вам вдруг хочется чего-то необычного в воскресный вечер, можете попробовать – я не гарантирую, что станет хоть что-то яснее, но я там шутил в переводе. С телефона может и не работает, я не уверен.
http://shir-man.com/static/easycpu/
На arxiv.org выложили интересный документ который показывает как с помощью алгоритма DFI можно наложить на фото эффект старости, молодости, улыбку, усы и даже очки, и все это в высоком разрешении.
И работает это пока лучше из всего, что я видел. Мне кажется, что снепчат один из первых ринется в эти нейронные фильтры, так как стилизацией фотографии под художественный стиль уже никого не удивишь, а это вроде фейсбук прикручивает.
Детали тут: https://arxiv.org/abs/1611.05507
А ниже самая главная иллюстрация статьи.
Google Earth в VR шлеме это ух и укачивает сразу.
Полное видео тут: https://m.youtube.com/watch?v=SCrkZOx5Q1M
Наконец-то кто-то применил технологии глубинного обучения и нейронные сети с пользой – https://github.com/Hironsan/BossSensor/blob/master/README.md узнает вашего начальника метров за 6-7 от компьютера и автоматически включит вместо браузера какое-нибудь рабочее приложение – саблайм, терминал, что угодно.
Alt + tab морально устарел для этих целей, не используйте их, будьте моднее, используйте нейронные сети.
Я уже как-то писал про то, что стильные очки помогут вам избежать алгоритмов определения лица (/channel/denissexy/10), так вот нейронные сети наносят ответный удар – теперь они умеют убирать очки с фотографий людей.
По ссылке чувак с помощью DITTO загнал 20000 фотографий с очками в датасет и теперь умеет их снимать автоматом:
http://126kr.com/article/48zmqr2f2vt
Теперь ждем новые очки, которые с помощью особой текстуры будут выдавать вас за степлер.