Пишет нам Денис (популярное имя🎈) по поводу ссылки выше:
«Я попробовал, очень понравилось, но захотелось поскроллить дальше солнечной системы. Грубо прикинул, сколько удается проскроллить за минуту и посчитал расстояние до ближайжей звезды Proxima Centauri. Получилось 12 суток беспрерывного скролла! А до самого дальнего видимого объекта вселенной, галактики GN-z11, скроллить 105,7 миллионов лет! И это притом что скроллить получается быстрее скорости света в 126 раз.
От осознания глубины вселенной я немного сошел с ума, поэтому мне пришлось кому-то написать об этом, извини»
Берегите свои скроллы, не покидайте пределов браузера 💁🏻
Команда создавшая технологию литий-ионных аккумуляторов отчиталась о создании новой технологии – вот краткие тезисы:
– Это недорогая в производстве и полностью твердотельная батарея
– Емкость батареи в 3 раза выше литий-ионных аккумуляторов
– Батарея сделана из негорючих материалов
– Новая технология поддерживает "быструю зарядку"
– Это первая полностью твердотельная аккумуляторная батарея, которая может работать при температуре до 60 градусов Цельсия
– Стеклянные электролиты позволяют инженерам наносить на пластинки и лить щелочные металлы как на катоде, так и на стороне анода без дендритов, что упрощает изготовление аккумуляторных элементов
(Я надеюсь есть хоть кто-то, кто понял что это значит)
И самое главное:
Другим преимуществом технологии является то, что элементы аккумуляторной батареи могут быть изготовлены из экологически чистых материалов. Стеклянные электролиты позволяют заменить дешевый натрий на литий. Натрий извлекается из морской воды, которая широко доступна.
В общем, поскольку эта команда создавшая технологию литий-ионных аккумуляторов, то есть очень большой шанс того, что это не просто "хайп" и очередная новость в стиле "ученые создали вечную батарею" – а реальная технология, которая (очень хочется верить) скоро поступит на рынок.
Подробнее и на английском тут:
https://news.utexas.edu/2017/02/28/goodenough-introduces-new-battery-technology
Кстати, команду исследователей возглавляет Джон Гуденаф и ему 94 года, это для тех кто любит жаловаться – "О, я уже слишком стар для этого js дерьма, мне почти 30" 🎈
Все же видели нового робота от Boston dynamics?
https://youtu.be/-7xvqQeoA8c
Я решил не ждать пока китайцы поставят на него огнеметы и справился сам, как я и говорил – эту войну мы уже проиграли.
Поскольку мы живем в эпоху где big data повсюду, машинное обучение только и ждет чтобы что-то еще спрогнозировать или проанализировать, то ничего удивительного, что люди ради науки готовы тратить свои силы и энергию, не жалея себя, так сказать, отдаваясь ей полностью.
Вчера я наткнулся на пост с заголовком 📝 "Кто-то на Reddit проанализировал все свои случаи мастурбации за четыре года и внес в табличку" (https://tjournal.ru/41411) – и сразу понял, это та самая big data которую мы заслужили и принялся прогонять эти данные (http://bit.ly/2lmXhAn) через нейронную сеть.
В итоге у меня получилось, что в 2017 году, 28 декабря в воскресенье, автору этой таблички будет скучно и он скорее то самое то сделает, минут на 28. А самое главное, удалось сделать карту секса этого чувака – секс у него будет только 44 раза (фиксируем падение на 11 пунктов). Там еще есть данные "аномально длинных сессий автора" – но я решил в них не слишком то углубляться ¯\_(ツ)_/¯
Я не самая яркая звездочка машинного обучения, поэтому скорее всего что-то напутал (я даже уверен, что напутал), но если вам нечего делать и вы хотите поковырять нейронку на основе данных, то вот ссылка на сервис где я все это делал:
https://bigml.com
(После импорта файла, сделайте датасет и уже на его основе стройте модельку, расставляя там веса и запуская тренировку)
Слава науке! 🎉
Наконец-то любопытный алгоритм улучшения качества low-res картинок (Super-Resolution), да еще и без требований к датасету (кроме картинки маленького разрешения), да еще и с открытым исходным кодом 💖:
http://liviu.me/blog/super-resolution-using-coordinates-networks
Ниже примеры работы
🎉 О, я вам отменный тупак принес, после которого я понимаю, что станет скорее всего так.
Но поскольку ботов стало довольно много – теперь можно не выходя из телеграма сделать такой ужас что ниже, слава роботам!
Цепочка ботов:
@beard_bot –> @MagicSmileBot –> @Icon8bot –> @EffectBot –> @PrismaBot –> @MeduzaEyesBot –> @EffectBot
Если Улыбашкин у вас лежит, и не отвечает, есть еще @MagicSmileBot – аналогичный бот (Спасибо Викентию, подписчику канала) 🐙
Читать полностью…Любопытный документ на arxivorg – нейронные сети постепенно решают множество задач анализа информации – видео, фото, аудио, просто кода, в общем вся информация вокруг нас будет рано или поздно проанализирована, каталогизирована и внесена в базы данных, что клево и удобно, и немного пугает.
Так вот, pdf документ по ссылке – это алгоритм (GNA-RNN) который преобразует человеческий текстовый запрос (NLP) вида: "Женщина одетая в длинное, яркое оранжевое платье с белым ремнем на её талии. Волосы её зажаты в пучок или хвостик" в реальные картинки на основе огромной выборки картинок.
Мне кажется Google image так и будет работать в будущем, и наконец-то можно будет увидеть своими глазами героев книг, целые сцены, достаточно будет просто копипастнуть описание.
Или для дизайнера – попросил устно Siri / Google now найти тебе "Мужчину в возрасте, с седыми волосами, в светлой одежде и видом будто он скрывает боль" и вот тебе png готовый и обтравленный для проекта. Или для выбора одежды – просишь что любишь, оно тебе корзину для примерки набивает, в общем вы поняли.
Но что-то мне подсказывает, что такое алгоритм не показал бы: "Девушка прошумела мимо меня, как ветвь, полная цветов и листьев".
В общем ждем исходный код ¯\_(ツ)_/¯
Ссылка:
https://arxiv.org/abs/1702.05729
По ссылке прекрасный и очень доступный текст унесенный с лепрозория о том как работает технология блокчейн:
https://tjournal.ru/41306-samoe-ponyatnoe-obyasnenie-principa-raboti-blokcheina
Очень рекомендую, если все еще остались вопросы 🎈
Эти мои обороты в стиле "я уже выше писал о чем-то" порядком всех утомили, поэтому просто новая интересная нейронка:
Алгоритм обученный на определённом наборе данных дорисовывает те сегменты которые закрашены фиолетовым (на фото ниже). Дорисовывает он их в хорошем разрешении и в "контексте" определённого фото.
Вот тут по ссылке исходный код и описание работы алгоритма 💖:
https://github.com/leehomyc/High-Res-Neural-Inpainting
А ниже пример 🎈
Вообще любопытный вопрос какие планы у музыкальной индустрии на все эти алгоритмы машинного обучения. К примеру по ссылке – нейронная сеть которая делит музыкальный трек на дорожки, причем в примере по ссылке можно отдельно послушать:
Гитару
Басс гитару
Барабаны
Вокал (!)
Прочее
Причем, качество всего этого довольно неплохое:
http://www.sisec17.audiolabs-erlangen.de/#/listen/30/UHL2
(На телефоне не работает скорее всего)
То есть в будущем мы сможем минус получить мгновенно и у любой песни, и не только минус, а одну дорожку которую потом сможем использовать где-то еще, ведь формально – это уже не нарушение копирайта, ведь так? (Я не знаю ответа, это просто красивый вопрос 🐙)
P.S. Нажмите "Solo" на любой дорожке и услышите как она звучит отдельно. А еще там справа можно выбрать несколько песен.
P.S.S. Исходный код пока недоступен, но если вдруг так случится что его опубликуют, то я обязательно пройдусь по отечественному шансону, отыграюсь так сказать, за нейронного круга (/channel/denissexy/242).
О, наконец-то полезный сервис.
Знаете что это за ужас?
http://🐴🗼🤢🚀🏀🎻🐩🕶.🍕💩.ws
Это ссылка на этот телеграм канал в виде emoji – вы можете сделать себе такую же вот тут: http://www.linkmoji.co
Рад быть полезным 🤦🏻♂️
Знаете, что было бы если бы луна была бы всего в один пиксель размером?
Было бы такое: http://bit.ly/2m97GCr (не сотрите свой скролл 💕)
Нашёл забавную игрушку в браузере, которая наглядно показывает работу AI в самоуправляемых автомобилях. Это 2D пространство с двумя машинками и блоками, которые они успешно (или нет) объезжают. Машинками управляет нейросеть и правила, что движение вперёд это хорошо, а врезаться в стены — плохо. Для навигации используются 19 сенсоров, имитирующих технологию LIDAR, которую гугл и убер используют для своих беспилотных автомобилей, только сенсоров у них побольше. А ещё там можно дорисовывать блоки прямо на дороге машинки, и создавать им ощутимые проблемы :) Попробуйте, выглядит интересно. Самое главное, народ начинает привыкать к тому, что этого не избежать и вопрос "если" касательно self-driving cars уже превратился в "когда".
http://janhuenermann.com/projects/learning-to-drive
Я когда-то давно писал про Direct Sparse Odometry (DSO) – о технологии которая позволяет строить 3D сцену используя только изображение. Так вот, та же команда опубликовала видео подобного алгоритма, установленного уже на дрона. В видео дрон анализируя в режиме реального времени объекты вокруг себя избегает столкновений с объектами строя 3D сцену и пытаясь найти оптимальный маршрут "вокруг":
https://youtu.be/jh6tMHjxHSY
Мне кажется войну с машинами мы уже проиграли, этот то хоть без огнемета пока 🙈
Старый пост о DSO – http://bit.ly/2lmVsDr
Существует такой процесс у звукорежиссеров – разметка звуковой дорожки. Это муторный процесс, когда оператор прослушивает длинный аудиофайл и помечает на нем все сторонние шумы – кашель, мат, дефекты речи и тп. Процесс этот довольно сложный, а еще не очень надежный – так как работу делает человек и всегда может что-то пойти не так. На помощь, как всегда, приходят алгоритмы машинного обучения – по ссылке описание проекта который предлагает связку для разметки – работу алгоритма и человека:
Оператор выбирает один звук по шаблону (с текущей дорожки или из отдельного файла), после чего алгоритм предлагает ему свои варианты разметки, а человек "лайкая" решения алгоритма делают эту выборку точнее.
Вот видео (Смотреть с 1:20), где показано как это работает.
А вот интерактивное демо которое долго грузится и работает только с компьютера.
Это конечно не так впечатляет как разбивка аудио на дорожки с помощью машинного обучения, но во всяком случае уже сейчас работающий софт.
А еще такой алгоритм скорее всего уже есть у некоторых служб всякой там безопасности ¯\_(ツ)_/¯
Цитата: "Google закроет групповой мессенджер Spaces, не проработавший и года" ¯\_(ツ)_/¯
Этот прекрасный сериал про гугл и его мессенджеры:
http://bit.ly/2lPEFvK
Наконец-то можно не ставить себе приложение чтобы добавить машинными алгоритмами немного улыбки на фото – кто-то запилил бота для телеграма @ulybochkabot
Вы отправляете ему фото и получаете улыбку 🎉
P.S. Все в боте прекрасно, но более отвратительного названия нельзя было придумать :/
Давно я о железе не писал 🔌
Ничего необычного, просто два синтезатора речи – Votrax SC-01A 1980 года выпуска и Dectalk Express 1984 года выпуска разыгрывают сцену из Монти Пайтона (one love 💖) на английском языке.
Видео:
https://youtu.be/WjMwGWdqHVQ
А вот этот же момент на русском:
https://youtu.be/ZBFGFwdQVOA?t=93
О чем этот пост? А не о чем, просто о любви к железу которому уже 30+ лет ¯\_(ツ)_/¯
Не пишите постов когда идете в метро – писал пост выше, врезался в тётю, тётя ругается и злая, теперь смотрит на меня строго, а я во всем виню свою зависимость от смартфона, не объяснить же ей что я ради науки и мол нейронка просто утром вышла клевая 💁🏻ФИОЛЕТОВЫЕ КВАДРАТЫ дорисовывает, тётя!
Читать полностью…Я уже много раз писал про нейронную сеть pix2pix (это та которая текстуры может переносить и визуально адаптировать образы) и наконец-то кто-то запилил веб версию чтобы поиграться на разных датасетах – вот видео где я делаю котика которому больно а потом все зависает:
http://shir-man.com/static/tg/cat_kill_me.mp4
Вот тут можно поиграться самому:
http://affinelayer.com/pixsrv/index.html
Оно иногда виснет и работает только с компьютера
¯\_(ツ)_/¯
Если есть 15 минут и английский язык не смущает – то ниже самое актуальное из мира AI от Darpa. В видео идет речь о трех видах искусственного интеллекта и их различиях. Два вида ИИ нам уже знакомы – первый вид это "Handcrafted knowledge", такие системы как автоматизация логистики, 1С или компьютер играющий в шахматы. Второй вид ИИ – это "Statistical learning" – распознавание лиц, распознавание голоса, нейронные сети, все что требует гигабайты данных для анализа и тп.
Третий вид ИИ о котором идет речь в видео пока все еще не существует – "Contextual Adaptation". Это система в подходе которой не требуется "датасета" – большого объема данных для того, чтобы узнать, например, кошку, ИИ третьего поколения нужно будет знать, что у кошки есть лапы, мех, милая мордашка, урчание и тп, тогда он сможет без датасета сказать что это – кошка.
В общем, "Contextual Adaptation" это тот термин за которым я начну наблюдать внимательнее.
https://www.youtube.com/watch?v=-O01G3tSYpU
Генеративный дизайн то, генеративный дизайн сё, а я вот лопату через подобный алгоритм прогнал – ей же совершенно невозможно копать, что эти компьютеры вообще понимают 🎉
Читать полностью…Энергетические компании Китая планируют чистить ЛЭП от мусора с помощью дронов-огнемётчиков, ниже пару фото
¯\_(ツ)_/¯
Ссылка:
http://gizmodo.com/power-company-sends-fire-spewing-drone-to-burn-trash-of-1792482517