Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn
Принес вам немного Бигдаты.
Больших данных про Больших мальчиков.
1. Больше всего датацентров у кого? Не, не у амазона или Гугла. У Микрософта - 300+. Причем у Гугла - в 12 раз меньше (но они коллабятся с амазоном).
На втором месте Амазон.
Также в пятерку входит Эппле, у них аж 10 штук.
Надо сказать, что Микрософт просто отлично рванул вперед, и на сотрудничестве с OpenAI затащил свой облачный бизнес в космос.
У меня нет данных, где хостятся Антропик или Мистраль. Но продавцы лопат чувствуют себя просто отлично.
2. О чем говорит вторая картинка. Вот уже месяц Nvidia то выходит на 1 место в мире по капитализации, то снова уступает Эппле и Микрософту. Поглядите на три этих огромных пузыря с примерно одинаковой капитализацией. В этом смысле у Микрософта есть полный фарш - и датацентры, и языковые модели, и экосистема.
3. Все эти датацентры потребляют энергии больше, чем БОЛЬШИНСТВО стран. Только 16 стран потребляют больше энергии, чем орава датацентров на планете.
4. Вычислительная мощность, необходимая для обучения моделей - по прежнему главный ресурс. Compute is the King. Поглядите на график роста вычислительной дури, за последние 7 лет (там поджали в логарифмическую шкалу, чтобы поместилось).
https://hi-news.ru/research-development/gorkij-urok.html
Сдается мне, что дата-центры на ядерных реакторах - просто неизбежность.
Company Data Centers
Microsoft 300
AWS 215
Google 25
Meta 24
Apple 10
Ого, Kling обновился (к сожалению только в своем китайском приложении).
Добавили "Image-to-Video" and "Video Extension", причем видосы можно продолжать до (!) минут.
Сора нервно закуривает.... "бахать или не бахать апдейты?"...
Нарезочка видосов тут. Качество, конечно не дотягивает до соровского, но это уже готовое приложение...
https://twitter.com/Kling_ai/status/1804064065670779233
На видосе одна картиночка из Midjourney на входе. И все. На дворе июнь 2024. Что там было два года назад?
Охоспади, бывший генеральный директор Weta Digital станет новым генеральным директором Stability AI!
Наверное надо радоваться, хуже чем с было Мостаком уже не будет.
https://venturebeat.com/ai/stability-ai-gets-new-leadership-as-gen-ai-innovations-continue-to-roll-out/
Гложут мысли о стартапе, для которого нет инвестиций? Подключайтесь к B2C Launch Camp венчур билдера SKL.vc.
Это интенсивный онлайн-кэмп, где вы вы будете работать над своим B2C-проектом от стадии идеи до прототипа и питчинга. На кэмпе ждут команды от 1 до 5 человек. Ключевое требование – у команды должна быть четкая идея и иметь возможность создать прототип без привлечения внешних подрядчиков и команд. Твоя идея должна подходить для большого и растущего рынка США или ЕС, в котором есть место для нового единорога.
Лучшие участники получат рабочий контракт с оффером до $200к в год, опцион в проекте и до $1.5 млн финансирования для воплощения проекта в жизнь.
Где подать заявки можно на сайте.
❗️Проверьте свою идею по чек-листу и обратите внимание на ниши, в которые студия не инвестирует.
Прием заявок закрывается 15 июля, кэмп стартует 19 июля.
📋 Программа кэмпа:
1. Оценка идеи
2. Конкурентный анализ
3. Качественные исследования
4. Бизнес-модель
5. Юнит-экономика
6. CJM
7. Создание прототипа
8. Презентация
Остались вопросы? Пишите @enjoykaz или в комментариях.
Обучение эмпатии.
Так я тут заигрался в аватаров, пора написать что-нибудь псевдо-умное.
Вот тут постил, что после решения проблемы липсинка, мы подучим ИИ поддавать эмоций в лица нейроаватаров.
Вот держите интереснейшую работу по изучению и, внимание, возможно, созданию целенаправленно эмпатичных роботов. Думаю, что если эти результаты привалить на генерацию нейроаватаров, то мы получим схождение к синтетическим лицам, вызывающим максимально эмпатичный отклик.
Итак, что сделали небританские ученые:
Как люди сопереживают гуманоидным роботам, которые выглядят так же, как и люди, но по сути отличаются от них? Мы изучили субъективные ощущения, электрофизиологическую активность и сигналы функциональной магнитно-резонансной томографии во время восприятия боли и нейтральных выражений лиц, которые были распознаны как пациенты или человекоподобные роботы. Мы обнаружили, что здоровые взрослые люди испытывали более слабые чувства понимания и разделения боли от гуманоидных роботов по сравнению с пациентами. Эти результаты позволяют предложить нейронную модель модуляции эмпатии идентичностью человекоподобного робота через взаимодействие между когнитивными и аффективными сетями эмпатии, что обеспечивает нейрокогнитивную основу для понимания взаимодействия человека и робота.
Все это было сделано, через обратную связь с помощью ЭЭГ и фМРТ, то есть через самую что ни на есть кожаную физиологию.
Ну, за эмоциональный интеллект!
https://pubmed.ncbi.nlm.nih.gov/38884282/
Автоозвучка. Всего
Я только вчера наливал за актеров озвучки. Но посмотрите, что выкатил ДипМайнд.
Video2Audio - причем оцените качество. Это не звук мотора или шуршание шин.
Меня просто убила сцена с анимацией в духа Аардмана - если вы подумали, что там что-то предозвучено то нет. На входе видео без звука. А ИИ сам понимает, что какие-то твари сидят за столом и собираются пожирать индейку. И ну озвучивать.
Пример с гитарой вообще за гранью понимания.
Поглядите все примеры тут:
https://deepmind.google/discover/blog/generating-audio-for-video/
Играцца не дают, говорят - это мы для своей Veo-видеомодели готовим.
ИИ-Цинизм, сорри.
Помните был такой клип Sinéad O'Connor - Nothing Compares 2 U
Хотя вряд ли, зумеры вы мои, песня 1990 года, написана Принсом, кстати.
Оригинальный клип в оригинальном качестве тут:
https://www.youtube.com/watch?v=TGRG_396vUI
Но старперчики сейчас меня предадут анафеме и распнут дизлайками, ибо я сделал следующее.
Взял фотку Шинед О'Коннор, начало песни и присунул это все в Хедру.
Получил то, что получил.
Так как я еще помню мурашки от первого просмотра оригинального клипа, то мне, конечно, не заходит, у меня прошлое подгружается.
Но зумеры посмотрят, пожмут плечами и молвят "нормчо".
Не сейчас, так через полгодика.
Когда мы подучим ИИ не только попадать в губы, а поддавать эмоций. И никаких препятствий для этого нет.
P.S. Цинично получилось, я знаю, заранее прошу прощения, что задел чувства староверующих.
P.P.S. Если взять кадр из оригинального клипа, то это работает плохо, модель Хедры натренирована на портретах, у которых не отрезан лоб. Получилось очень крипово, но если навалите 84.4 реакции запощу и этот вариант.
🔥Anthropic зарелизили новую модель Claude 3.5 Sonnet - и она бьет GPT-4o!
По цене компьюта и скорости модель на уровне средней модельки Claude 3 Sonnet, но по качеству превосходит самую большую их модель Claude 3 Opus, а также бьет GPT-4o почти на всех бенчах – слегка уступает только на математике и на MMMU в ответах на вопросы по картинке.
В то же время Claude 3.5 Sonnet дешевле чем Claude Opus 3 в пять раз! И дешевле GPT-4o на инпуте ($3 против $5 за млн токенов).
Контекст: 200K Токенов.
Отдельно отмечают прогресс по Vision - 4o и тут проигрывает. Кардинальные улучшения наиболее заметны для задач, требующих визуального мышления, например, для интерпретации диаграмм и графиков. Claude 3.5 Sonnet также может более точно транскрибировать текст из шакальных изображений.
Авторы говорят, что это первый релиз из семейства 3.5, другие обещают попозже в этом году.
Модель уже доступна бесплатно на Claude.ai и в iOS приложении. А также через API: $3/млн входных токенов, $15/млн сгенерированных токенов.
Ну, и ждём рейтинга на арене, конечно.
@ai_newz
Illyasviel релизнул LayerDiffuseCLI, инструмент для генерации изображений с прозрачным фоном. Написан на чистом diffusers без интерфейса (с поддержкой командной строки), чтобы код было легче использовать в других проектах.
Несколько месяцев назад он выпустил Layered Diffusion как расширение для Forge, но не весь код. Теперь функционал прошлой версии (система слоёв, генерация по тексту/картинке) перетечёт в LayerDiffuse.
Нужно 8 ГБ VRAM.
Гитхаб
В старых совецких фильмах кино снимали без звука. Совсем.
Потом актеры и спецы по шумам садились в студию озвучки и "попадали в губы".
Щас конечно так не делают, но спрос на актеров озвучки по прежнему большой.
Или уже нет? И пора не чокаясь?
Eleven Labs выпустили Voiceover Studio
https://elevenlabs.io/app/voiceover-studio
Теперь можно озвучить вообще все, что угодно, не только голоса, но и шумы.
Еще они потихоньку переизобретают адоб премьер, но там есть интересные решения - кликать по треку, чтоб перегенерить голос или эффект.
Поглядите это видео, чтобы понять, как это выглядит.
https://x.com/elevenlabsio/status/1803453748041359809
Хедра просто отлично работает с другими языками.
И знаете, что я ожидаю дальше?
Что Sunо и Udio рано или поздно прикрутят к своим трекам вот таких вот исполнителей (Ну или Хедра прикрутит Суно к себе).
И вы такие "ИИ давай мне текстА, музику и поющие трусы! На все деньги!".
Ржоте?
А между прочим это в этом видео:
Текст: Gpt4o
Музика: Suno
Видео: Hedra
Пост: FaceFusion
Исполнитель: AI-girl
https://www.hedra.com/
Ого, часть команды Stability AI перешла в новый проект по развитию ComfyUI до масштабов вселенского интерфейса для генеративного AI.
Там автор SwarmUI - mcmonkey4eva.
В FAQ есть вопрос о создании собственных foundation models. Ответ уклончивый, но не отрицательный.
Придется разводить этот спагетти ад. И разбираться как его запустить на серваке в сети с доступом с локального компа.
Читаем тут:
https://www.comfy.org/
Поглядим на арену для text2img
https://imgsys.org/rankings - аналог LLM Arena только для картинок, и самое интересное, что с учетом всех провалов SD3 на 2B параметров(1, 2, 3) интересно посмотреть на её место в этом ранге. Особенно после истории с удалением всех моделей и даже возможности файнтюна на Civit.ai
Пока результат SD 3 2B, даже ниже PixArt-Σ (есть интересный пост о файнтюне PixArt-Σ).
А первые места в арене занимают три модели:
— RealVisXL V4.0 с 35 шагами инференса
— ColorfulXL-Lightning c 9 шагами инференса (С учетом скорости я бы выбирал эту модель, пример картинок на разные промпты)
— ColorfulXL с 34 шагами инференса
Кажется что от SD3 2B полностью отвергнуто комьюнити и ожидать контролнетов и лор даже не стоит.
Я тут мучаю Hallo. Получается чуть лучше, чем у ТикТока. Видео сделано по одной фотке и аудиофайлу.
Из интересного - оживляторы лиц не любят мелкие детали, типа веснушек, и я попробовал пройтись по результату с помощью FaceFusion в режиме FaceEnhancer, там много моделек для этого, мне нравится gfpgan.
Он сглаживает косяки, но гримирует веснушки!! Нет добра без худа!
И вот что мне подумалось.
Вот есть Face Enhancer-ы, Face Fixer-ы, липсинк, улучшатели деталей. Но никто не решает проблему зубов!
А она торчит из всех ротовых щелей!
Можно уже сделать сеточку типа Ortho Smile? Чтобы фиксила все эти плавающие зубы. Задача вроде несложная, лэндмарк единственный и понятный, трекается хорошо.
Даешь Dental Diffusion!
Похоже это лето, будет летом видео, как в 2022 году было лето картинок.
Тут подписчица Наташа, прорвалась к Клингу и вот что она пишет.
"Банят многое. Обнимашки нейтральные не проходят, упоминания великих художников тоже, упоминания реальных объектов архитектуры тоже. Сложно подбирать промпт на китайском".
Поглядите, что у нее получается. В коментах больше пингвинов и пеликанов.
Меня, как обычно, цепляют визуальные эффекты, сидит эфыксер такой и пишет: "давай апокалипсис на все деньки и Оскара!". Ну и дает.
А еще все озверели от Dream Machine, которая на фоне релиза Runway GEN-3 выкатила возможность генерить 60(!) секунд видео в дополнительными управлялками. Замена фонов, персонажей и редактирование. Похоже надо покупать подписку, чтобы посмотреть.
Также релизнулась Open-Sora 1.2 - качество уже смотрится как шлак, но это опен сорс!
В общем, нас ждем горячее лето, ибо в ход пошли модели с пониманием мира (world model), натренированных на видео, в отличие от ветки AnimateDiff, где просто идет морфинг изображений в латентном пространстве.
Ждем ответочки от Пика Лабс, троллинга от OpenAI, истерики от Гугла и шквала моделей от китайцев.
Наткнулся на пример нейродубляжа фильма Операция "Ы".
Просто послушайте, как оно годно сохраняет оригинальные голоса.
Кажется, мясные актеры дубляжа тоже скоро отправятся на рынок торговать луком.
Удивительно, как история повторяется. В начале нулевых мы перепаивали GeForce256 в Квадру, и независимо от этого подбирали версию драйвера от Нвидии, чтобы Maya не падала чаще двух раз в минуту.
Сейчас китайцы перепаивают память на RTX 20xx, делая из них почти 3090 по объему памяти, а мы обновляем драйвера, чтобы Stable Diffusion стал побыстрее считать.
Закон Джима Блинна действует, особенно сейчас, компьюта, то есть вычислительной дури, всегда будет мало.
https://habr.com/ru/articles/173545/
Все это ИИ-великолепие от Эппле станет доступно для разработчиков не раньше конца этого лета. Это означает, что оно не войдет в первые бета-версии iOS 18, iPadOS 18 и macOS Sequoia. А когда его начнут раскатывать осенью, оно будет работать только на некоторых устройствах Apple и только на американском английском языке. В некоторых случаях даже будут вейт-листы.
Эппле также старательно избегала точных сроков. Вместо этого они, по сути, представили дорожную карту того, что появится в конце 2024 и первой половине 2025 года.
Если почитать Блумберга вот тут:
https://www.bloomberg.com/news/newsletters/2024-06-16/when-is-apple-intelligence-coming-some-ai-features-won-t-arrive-until-2025-lxhjh86w
то похоже до 2025 года появится только ограниченное количество фич, а все это безобразие, когда Сири сможет управлять приложениями или искать что-то по контексту работы пользователя, появится после нового года.
VFX-рефлексия
В этом видео прекрасно и грустно все.
Комментарии режиссера про водяную воду, индусы, количество право, Бен Стилер, Илон Маск, Tesla Prompt AI, намеки на известного режиссера, общение с клиентом и еще много чего.
Ироничная рекурсия: VFX-артисты делают кино "Pixel Fucked: The Movie" с помощью ИИ. Про то, как ИИ убивает VFX-артистов.
Сорс от Houdini FX artist
Новый Клод Сонет просто огонь.
Поглядите, как он пишет стихи теперь.
А чтобы вам было веселее глядеть, я скрестил Хедру с Гидрой, то есть сделал химеру медведя и кожаного.
Если изловчиться, то можно присунуть Хедре любого двуглазого и одноротого персонажа. И пока он не откроет рот, все будет отлично.
А когда откроет - будет просто прекрасно. Ржу в голос. Сам пошутил, сам ору.
Но вы стихи зацените, это же уже гораздо лучше, чем в детских книжках. Да и во многих взрослых тоже.
Ну, за детских писателей:
Мишка косолапый по лесу гулял,
О любви мечтая, он стихи слагал.
Но упала шишка прямо по макушке,
И забылись рифмы в этой заварушке.
Мишка призадумался: "Вроде я один,
Но в груди трепещет, словно я не с ним.
Это что за чувство, может я влюблён?
Сердце замирает, мыслями пленён..."
Мама улыбнулась: "Милый мой медведь,
То весна играет, нужно потерпеть!
Ты в пору взросления, первая любовь
Учит состраданию, нежности без слов."
Мишка вдохновился, сел писать стихи,
Вышел на полянку, крикнул от души:
"Я в тебя влюбился, милая моя,
Чувствами делиться - радость для меня!"
(С) Claude&AK
Сорян, сами напросились, навалили лайков и дизлайков. Вот что бывает, если подать в Хедру не совсем то, на чем она обучена. Об этом будет еще через пост.
Читать полностью…А ещё Anthropic запустили превью Artifacts - такой вот себе конкурент Advanced Data Analysis в ChatGPT, который позволяет запускать в браузере джаваскрипт и показывать html с svg.
Это позволяет быстро прототипировать вебсайты и даже делать простые браузерные игры!
Good evening, Sam
@ai_newz
ИИ-Сегрегация.
Заходит житель какого-нибудь Иллинойса в ИИ-бар, а ему охранник говорит: "Иди отсюда кожаная морда! С вашей пропиской ИИ запрещен, вали к своим кожаным реднекам".
Это я к чему.
Вчера регистрировался на Хедре и получил вот такой экран. И там белым по черному написано, что жителям Иллинойса и Техаса пользовать ихний ИИ запрещено. В сад, ковбои!
А Гугль Гемини до сих пор на разрешает генерить картинки в Европе.
И вот вам вишенка:
Apple ищет партнера в Китае в области ИИ, т.к ChatGPT заблокирован в КНР. Компания провела переговоры с Baidu и Alibaba.
Ну то есть ИИ у нас скоро будет по талонам. Точнее по рейтингу: социальному ли, территориальному ли, морально этическому...
Черное зеркало не соврало - ведите себя хорошо и будет вам ИИ.
Я вот выпиваю за кожаных и хвалю ИИ...
Фреймстор Ванкувер - всё!
Ностальгии пост. Уходит эпоха, я помню Siggraph 2018 в Ванкувере. Время расцвета VFX. И наши посиделки с ивентовскими сиджишниками переваливали за 20 человек из местных. Влад Ахтырский, Андрюха Евдокимов, Леша Приходько, Паоло Берто.
Кстати именно там впервые презентовали Nvidia RTX.
Ну и началось...
Илья Суцкевер, бывший главный ученый в OpenAI и один из основателей этой компании открыли новую, с офисами в Пало Альто и Тель-Авиве. Заниматься будет созданием безопасного суперинтелллекта, т.е. все тем же. Удивительное заявление для мира, мне вот этот кусок понравился:
Мы не отвлекаемся на управленческие хлопоты и циклы производства, а наша бизнес-модель позволяет обеспечить безопасность, надежность и прогресс, не подвергаясь краткосрочному коммерческому давлению.
Простите, что я опять со своими аватарами, но это уже прям хороший уровень.
Недавно мучил вас примерами из опен-сорсного Hallo (код там оказался не сильно свежий и с массой ошибок). Как тут новая сеточка подоспела. И похоже там под капотом не шевеляж пикселей, а некая видеомоделька (возможно я ошибаюсь). По результатам уже похоже на примеры EMO от Алибабы.
Это закрытый сервис, нет настроек, есть стандартная социализация, галерея и прочая. Пока бета, денег не просят, но думаю есть лимит на количество генераций в день.
Я прогнал на своих генеративных девчонках - они неистово шевелят лицом, хочется иметь рульку "поспокойнее, девочки".
Очень забавно отрабатывает музыку, в тех местах, где нет вокала, модель вдумчиво играет лицом, изображая работу мысли.
На выходе немного мыла, но я прогнал его через FaceFusion и получилось явно лучше. Сравните сами.
В общем еще бы настроек побольше и код, цены бы не было. Пойду поищу какая там модель. Говорят что Character-1 Foundation Model
Регаемся гуглом тут и ну разговаривать с аватарами.
https://www.hedra.com/
Прастити, не удержался.
Мне кажется, благодаря Luma AI, тема сисек окончательно раскрыта.
Ну и можно теперь делать бенчмарки для видеогенераторов. Кто лучше раскроет, так сказать.
А если серьезно, то у Dream Machine нет (пока) никакого nsfw фильтра на входящие изображения. На промпты есть, вы не можете излагать произвольные фантазии текстом, но можете подавать их в виде картинок. Мне не составило труда найти довольно жоские видео, сделанные в Луме.
Но эту лавочку прикроют в любой момент, ибо Лума закрытая модель.
А вот с выходом Open Sora возникает вопрос - ожидать ли нам Video Civitai через полгодика? Где народ натренирует Опен Сору на все случаи жизни...
Утром снесу пост от греха подальше, но пока очень смешно. ИИ смотрит на нас с крыш датацентров и качает головой. Ну и обучается чувствую юмора.
Как в воду глядели десять лет назад (см. дату на фотке).
В Шэньчжэне компания Starpery Technology, крупный производитель секс-кукол, сейчас обучает свою собственную большую языковую модель, чтобы усовершенствовать свой продукт с помощью искусственного интеллекта.
"Мы разрабатываем секс-куклу нового поколения, которая сможет акустически и физически взаимодействовать с пользователями, а прототипы ожидаются к августу этого года"
"Новое поколение секс-кукол, созданных на основе моделей искусственного интеллекта и оснащенных датчиками, может реагировать как движениями, так и речью, что значительно повышает удобство использования, поскольку фокусируется на эмоциональной связи, а не только на базовых разговорных способностях"
Нуштошь, если уже не только "на базовых" потребностях, то можно и замуж брать. Тем более, читаем дальше:
Дорожная карта Starpery включает разработку роботов, способных выполнять домашние дела, помогать людям с ограниченными возможностями и обеспечивать уход за престарелыми. К 2025 году компания планирует запустить своего первого «робота умного обслуживания», способного предоставлять более сложные услуги людям с ограниченными возможностями. К 2030 году эти роботы могут защищать людей от опасных работ, согласно плану компании.
Воистину адалт-индустрия - двигатель прогресса.
Подробнее про внутреннее устройство вот тут:
https://www.bangkokpost.com/life/tech/2813170/chinas-next-gen-sexbots-powered-by-ai-are-about-to-hit-the-shelves
Тут ТикТок запустил фабрику ботов. Точнее аватаров.
Читаем, потом смотрим.
Стоковые аватары: готовые аватары, созданные с использованием платных актеров, которые лицензированы для коммерческого использования.
Свои аватары: с возможностью работы на нескольких языках, дают контроль и возможность масштабировать свою персону и бренд. Креаторы могут использовать свое собственное лицо и создавать мультиязычные аватары для расширения своего глобального охвата и сотрудничества с брендами.
Теперь смотрим.
Это снятое видео. Руки и туловище кожаные, снятые. Это видно. А дальше с лицом производятся манипуляции. Причем это даже больше похоже не на дипфейк, а на оживление фотачек лица, о котором я тут пишу как ужаленный.
Видно, что губы оживляются библиотекой wav2lib (скорее всего), и выглядят блекло.
В общем это старый подход с цифровыми инфлюенсерами - взять реальное фото-видео и пришпандорить на лицо какое-нибудь безобразие.
Ну честно сказать, качество не впечатляет. Впечатляет, что это ТикТок, ибо у него до фига разработок в области оживляжа лица, и если он вышел на эту поляну, то прогресс будет.
https://newsroom.tiktok.com/en-us/announcing-symphony-avatars
5 инструментов эффективного DS-инженера
Любому DS-инженеру важно перенимать навыки и инструменты от разработчиков — этого требует рынок.
Ведь инженеры тоже пишут код, правят бизнес-логику, стараются снижать bus factor и хотят, чтобы в проектах не было багов. Но следить приходится не только за кодом, но и за данными, экспериментами, моделями и прочими артефактами.
Чтобы помочь в этих задачах и упростить вашу жизнь, есть множество инструментов. И команда DeepSchool познакомит вас с пятеркой самых важных уже в этот четверг!
20 июня в 18:00 МСК DeepSchool проведёт открытую лекцию «5 инструментов эффективного DS-инженера».
На лекции расскажут:
1️⃣ как сделать эксперименты воспроизводимыми
- версионирование данных, кода и моделей
- управление зависимостями
2️⃣ инструменты, которые повысят качество кода
- линтеры и тесты
- Continuous Integration
3️⃣ как упростить свою работу
- lightning
- трекинг и визуализация в CML
🙋♂️Спикеры лекции:
- Егор Осинкин — Lead CV Engineer в EPAM
- Тимур, Фатыхов — ex Lead CV Engineer в Koronapay
Регистрируйтесь по ссылке!
После регистрации вы получите список полезных библиотек и сервисов для CV-инженеров!🎁
Также в телеграм-боте будет краткий анализ CV-вакансий, где можно посмотреть, как менялись зарплаты, как они зависят от требований и от грейдов.
Зарегистрироваться
#промо