آموزش MATLAB با "استفاده از ویدئو و متن" در سطوح مبتدی تا پیشرفته پاسخ به سوالات تخصصی: @roholazandie
شما هم ممکن است با این شکل در جاهای مختلف روبرو شده باشید با کپشن «این فرمول های عجیب و غریب ریاضی چیزی جز حلقه های شناخته شده نیستند» صد البته تشخیص این به هوش زیادی نیاز ندارد. اما چرا بسیاری از برنامه نویس ها با دیدن آن دچار شگفتی شده و در قدم بعدی به نماد سازی ریاضی حمله میکنند؟
دلیل این موضوع فقط و فقط نا آشنایی بیشتر مهندسین بخصوص رشته های علوم کامپیوتر با فرمالیزم ریاضی و صد البته آموزش اشتباه آن است. دلیل آنکه کسی بنظرش حلقه ساده تر است صرفا به این خاطر است که با آن به روش ساخت و آزمایش درگیر شده است اما ریاضیات را تماما به صورت خواندن درک کرده است.
اگر همان شخص با فرمالیزم ریاضی آشنا بود قطعا درک میکرد که فرم های سمت چپ در شکل بالا اتفاقا بسیار ساده تر و قابل فهم تر هستند و پیاده سازی چیزی مثل تبدیل فوریه که تنها در یک خط از نماد ها قابل نوشتن است نیاز به صد ها خط برنامه نویسی دارد. نماد های ریاضی تصادفی نیستند بلکه بسیار هوشمندانه، چکیده و باشکوه طراحی می شوند. تفکر ریاضی نیازمند تخیل است و این همان چیزی است که در آموزش ریاضی غایب است.
🔵هوش مصنوعی یک کاوش انتقادی🔵
چندی پیش مقاله ی عجیبی دیدم در مورد اینکه می توان با داشتن اسم شخصی به صورت حدودی چهره ی او را تشخیص داد. به طور مثال با دادن یک عکس و چند اسم به عنوان گزینه هم تشخیص افراد و هم ماشین از تصادف محض بهتر است. اما چگونه چنین چیزی ممکن است؟ آیا رابطه ای علی بین اسم افراد و چهره شان وجود دارد؟ شاید این افراطی ترین مثال از دورانی باشد که در آن زندگی می کنیم: دوران آمار!
امروزه شرکت های بزرگ با استفاده از داده های عظیمی که در اختیار دارند رفتارهای کاربران را در سطح کلان پیش بینی میکنند و گاهی منابع آنها برای تشخیص عجیب و باور نکردنی است. به طور مثال میتوان گرایش ها و فانتزی های جنسی را تنها با داشتن داده های حرکت ماوس با دقت بسیار بالایی پیش بینی کرد. یا می توان با میزان توقف شما بر روی هر کدام از پست های اینستاگرام میزان استرس یا احتمال افسردگی شما در چند سال آینده را تشخیص داد. یافتن چنین رابطه های هم بستگی ای (correlation) برای چنین شرکت هایی حکم طلا را دارد چرا که می توانند بهتر و بهتر شما را شناسایی و هدف تبلیغ کنند. اما چنین چیزی دیگر برای کسی پوشیده نیست. زمینه های کاری کاملی مانند سیستم های پیشنهاد دهنده (recommender systems) وجود دارد که به صورت گسترده در حال مطالعه هستند.
دسترسی به داده های عظیم، پیشرفت در سخت افزار و تکنیک های نرم افزاری و به طور مشخص یادگیری ماشین و یادگیری عمیق بسیاری از ایده های قدیمی در آمار را کاراتر کرده است. بسیاری از پژوهشگران امروزه دیگر متقاعد شده اند که می توانند هر مساله ای را با یافتن همبستگی های درست (هرچند بسیار پیچیده و چند لایه ای مانند شبکه های عصبی) کلید حل همه ی مسايل است. چنین روندی البته فقط محدود به علوم کامپیوتر نیست. در روانشناسی، علوم شناختی، اقتصاد، جامعه شناسی و ژنتیک هم کلید طلایی روابط آماری است! چنین روندی زمانی متقاعد کننده تر می شود که بسیاری از یافته های جدید در چنین رشته های گفته شده نشان می دهد رفتار ما و داده های ساخته ی ما (مانند روابط فرهنگی و اقتصادی کنش های اجتماعی و حتی زبان) و بخش بزرگی از داده های طبیعی (مانند داده های بیولوژیکی مانند ژنتیک، سلول ها، مغز) تابع قوانین آماری گاه ساده ای است که حتی چند دهه ی پیش هرگز قابل پیش بینی نبود. در حوزه ی جامعه شناسی روابط آماری در لباس شبکه های پیچیده (complex network) از چند دهه پیش توسط اشخاصی چون strogratz و duncan watts ابزار اصلی برای درک حرکت های جمعی توده ها از انقلاب و تشکیل گروه ها گرفته تا موفقیت و رادیکالیزه شدن شده است. از طرف دیگر در روانشناسی و علوم شناختی پژوهشگران نشان داده اند بسیاری از جنبه های هوش ما صرفا نتیجه ی روابط آماری است که مغز ما در اثر فرآیند فرگشت یا یادگیری در طول زندگی فراگرفته است و زمانی که چنین الگوهایی کشف شوند دیگر آن جعبه ی سیاه عجیب و پر از رمز و راز وجود نخواهد داشت.
مهم نیست کجا هستیم و در چه رده ی علمی ای قرار گرفتیم، نباید فراموش کنیم تعلق به جامعه ی ایرانی مهم و به رشد بیشتر همه ی ما کمک میکند. این بزرگترین سلاح ما در برابر شرایط سیاسی ناعادلانه (چه داخل و چه خارج از ایران)، پیش فرض های غلط، موانع رشد و شکنندگی ما هنگامی که تنهاییم است.
یاد بگیریم و به دیگران هم یاد بدهیم!
چون عملا چنین کاری اشتباه است. هر دو چیزی را نمی توان به صورت عددی با هم مقایسه کرد. یا شاید می شود؟؟ اتفاقی که در کد زیر می افتد بازتعریف (overload) سه تابع کوچکتری (lt) بزرگتری (gt) و تساوی (eq) است. در هر مورد ما مقداری که خود کلاس نگه می دارد یعنی x را با مقداری که قرار است مقایسه بشود (other) مقایسه می کنیم. در همه ی موارد ما باید یک مقدار بولین False/True برگردانیم
Читать полностью…مقایسه فراتر از مقدار ظاهری
در بسیاری از مواقع برای مقایسه (کوچکتر بزرگی تساوی) متغیر هایی که در زبان های برنامه با آن ها سر و کار داریم مقدار عددی آن ها نیاز داریم. به این ترتیب مشکلی که پیش می آید این است که اگر متغیرهایی داریم که دارای چند بخش هستند مثلا یک اسم و یک نمره و وقتی میخواهیم اسم شخصی که کمترین نمره را داشته پیدا کنیم چاره ای نیست جز اینکه اندیس آن را حفظ کنیم.
برای اینکه نیاز به چنین کار بسیار پر اشتباهی در برنامه نویسی نشویم راه بهتر استفاده از اپراتور های مقایسه در پایتون است. فرض کنید من کلاسی تعریف میکنم که هم اسم و هم نمره شخص را نگه می دارد.
مدل تصویر-زبانی DALLE-2 منتشر شد
این مدل علاوه بر افزایش کیفیت بسیار زیاد نسبت به نسخه ی اول قادر به کارهای جدیدی مانند اضافه یه حذف بخش هایی از تصویر با یک نوشته است. مثلا اگر عکس یک سگ در تصویر است می توانید بنویسید «به گربه تغییرش بده» و دقیقا تصویر با حفظ همه ی جزییات نور و رنگ و زمینه تغییر میکند
https://openai.com/dall-e-2/
ریاضیات زبانی است که جهان با آن نوشته شده است (گالیله)
موج های ابری پدیده ای از هواکره (اتمسفر) است که در آن ابرها مانند موج های آب حرکت میکنند. چنین موج های سینوسی ایستاده ای (standing sine waves) از معادلات دیفرانسیل مشخصی پیروی می کنند که دینامیک آن ها را توضیح میدهد.
One thing I learned in life in helping from family members and close relatives to friends and even strangers is that:
Don’t help until you asked for help
Or at least don’t insist on helping otherwise your help seems worthless and you lose respect
You can never bring somebody up if they don’t want to go up
Of touching:
A man hath (has) been deprived of his feelings
(Newton’s 1661 notebook)
میزان انرژی مصرفی زبان های برنامه نویسی مختلف به صورت نسبی
https://thenewstack.io/which-programming-languages-use-the-least-electricity/
استدلال ربایشی: قطعه پازل گم شده هوش مصنوعی (۲)
چارلز پیرس (Charles Sanders Peirce) ریاضیدان منطق دان و فیلسوف آمریکایی که به پدر پراگماتیسم شناخته می شود شخصی بود که منطق ربایشی را معرفی کرد و به دفاع از آن پرداخت. پیرس استدلال ربایشی را مقدم بر دو نوع دیگر استدلال می دانست. پیرس استدلال ربایشی را با اصطلاحات «توضیح» و «فرضیه» تعریف می کرد. تعریف خلاصه اون این بود: «استدلال ربایشی فرآیند شکل دهی به یک فرضیه توضیحی است.» او حتی گاهی از «فرضیه» به عنوان هم معنی برای استدلال ربایشی استفاده می کرد.
https://vrgl.ir/XlTC7
ریاضیات، به سزاوار نه تنها دارای حقیقت، بلکه زیبایی برترست، زیبایی ای سرد و سخت، مانند یک تندیس، بدون دست یازیدن از هر بخش ضعیف تر طبیعت ما، بدون تله های مجلل نقاشی و موسیقی و با این حال به صورت تعالی بخشی خالص و قادر به کمالگرایی سخت طوری که تنها از برترین هنر ها بر می آید. روح واقعی لذت، تعالی و حس فراتر از انسان بودن که محک بالاترین برتری هاست در ریاضیات یافته می شود که به قطع در شعر هم هست.
Читать полностью…احتمال منطق دانش
یکی از مشکلات و بدفهمی هایی که دانشجویان و حتی اساتید در درک بخش های زیادی از مفاهیم هوش مصنوعی مانند تشخیص الگوی آماری و یادگیری ماشین دارند، تشخیص ندادن تفاوت دو رویکرد کاملا متفاوت در آمار و احتمال به روش شناسی(Methodology) و معرفت شناسی (Epistemology) بنیادی ترین مفاهیم آمارو احتمال است. در اساس در میان تفاسیر گوناگون احتمال دو رویکرد مهم و متفاوت به تفسیر احتمال وجود دارد: احتمال بیزین و احتمال فرکانسی.
احتمال بیزین مقداری است که به یک حالت از دانش(state of knowledge) یا حالتی از باور(state of belief) اختصاص داده می شود. می توان احتمال بیز را به عنوان ادامه ی منطق گزاره ای دانست که ما را قادر می کند با فرضیات (Hypothesis) استدلال کنیم. فرضیات گزاره هایی می شوند که درستی و غلطی آن ها نامشخص است. از دیدگاه بیزی یک احتمال به فرضیه اختصاص داده می شود، در حالی که در احتمال فرکانسی یک فرضیه بدون هیچ احتمالی، مورد آزمون قرار می گیرد.
بنیادی ترین تفاوت این دو تفسیر در معرفت شناسی آن هاست: فرکانسی ها عینی گرا هستند به این معنا که احتمال را به صورت معقول بودن یک گزاره قابل تفسیر می دانند. به عبارت دیگر، احتمال یک گزاره متناظر است با یک باور معقول بین همه ی افراد (حتی یک ربات) که مجموعه ای از دانش مشترک دارند. این باور معقول باید مطابق با قوانین احتمال که خود با معیار های عقلانیت و سازگاری قابل توجیه اند، باشد. اما بیزین ها ذهنی گرا هستند بیزین ها قبول دارند که معیار های عقلانیت و سازگاری احتمال هایی که یک شخص دارد را محدود می کند اما این معیار ها باعث نمی شوند همه به یک نتیجه در مورد احتمال رویداد ها برسند زیرا معیارهای عقلانیت هنوز اجازه تغییرات زیادی در محاسبه احتمال می دهند. این تفاوت خود را در محاسبه احتمال های پیشینی(prior probabilities) نشان می دهد.
اگر زیاد اهل فلسفه نباشید شاید نتوانید با پاراگراف قبل ارتباط برقرار کنید اما باز هم راه های زیاد وجود دارد که بدانیم این تفاوت ها چیست. بسیاری از دوره های درسی در دنیا(از جمله ایران) مفهوم احتمال را با شمارش حالات و نیز مباحث ترکیبیات شروع می کنند اما تقریبا تمام آن چیزی که در آمار و احتمال کاربردی مانند مباحث هوش مصنوعی وجود دارد با این مفاهیم سر و کاری ندارد و حتی جالب تر از آن درک روزمره ما از احتمال هم بیشتر بیزینی است. تحقیقات زیادی در علوم شناختی نشان داده اند که ما انسان ها(و حتی بیشتر جانوران دیگر) مادرزادی بیزینی به دنیا می آییم. همانطور که بزودی در ادامه مبحث می بینیم این مزیت فوق العاده ای برای ماست.
https://vrgl.ir/8vD35
امروز OpenAI از محصول جدید خود outpainting رونمایی کرد. با استفاده این ابزار میتوانید هر تصویری را گسترش بدهید. برای گسترش هر بخش میتوانید چندین ایده را امتحان کنید و هرکدام جالب تر بود انتخاب کرده و ادامه دهید. دلیل این توانایی امکان نمونه گیری تصادفی با شرط کانتکست است (P(X|Context )
این ابزار بیش از پیش ایده های خلاقانه ای به هنرمندان می دهد و عملا عرصه های جدیدی هم به دنیای هنر باز می کند
شاید یکی از زیباترین روش ها برای نگاه به این موضوع از دنیل کاهنمن (Daniel Kahnman) رفتارشناس اقتصادی و برنده ی جایزه ی نوبل باشد. او کارکرد مغز را به دو بخش به نام سیستم ۱ و سیستم ۲ دسته بندی می کند. سیستم ۱ متشکل است از کارهایی که مغز بسیار سریع، اتوماتیک و شهودی و بدون زحمت انجام می دهد. مثال های آن رانندگی کردن، فهمیدن یک جمله، صحبت کردن با یک دوست و غیره است. چنین کارهایی به صورت روزمره و بسیار پرتکرار انجام می شود. از طرفی سیستم ۲ به کارهای گفته می شود که به صورت معمول ما آنها را کندتر انجام می دهیم و برای انجامشان نیاز به تمرکز بیشتری داریم. مثلا ضرب کردن دو عدد سه رقمی، حساب کردن نسبت قیمت به کیفیت دو ماشین لباسشویی، نگاه کردن به زنی در جمعیت که موهای خاکستری دارد و غیره. سیستم ۲ بیشتر مرتبط با کارهایی است که برای انجامشان نیاز به زمان بیشتری داریم و در انجام آنها هم معمولا اشتباهات بیشتری می کنیم. کاهنمن می گوید که ما در بیشتر اوقات در سیستم ۱ زندگی میکنیم و معمولا از میانبر ها برای انجام کارهای روزمره استفاده میکنیم حتی اگر انجام آن کار نیاز به درگیر شدن سیستم ۲ باشد. بسیاری از این میانبر ها همراه با سوگیری هاش شناختی (cognitive bias) هستند. چنین سوگیری های شناختی منبع اصلی چندین دهه مطالعات عمیق در روانشناسی تجربی برای نشان دادن این واقعیت است که انسان ها به صورت عمومی «منطقی» فکر نمی کنند. یک مثال معروف از خود کاهنمن به آزمایشی بر میگردد که به دو گروه از افراد دو ضرب را دادند ۱*۲*۳*۴*۵*۶*۷*۸ و دیگری ۸*۷*۶*۵*۴*۳*۲*۱ و از آنها خواستند تا در ۵ ثانیه جواب را بگویند چون زمان کم بود افراد به جای انجام آن مقدار محاسبه را حدس می زدند. گروهی که ضرب آنها با اعداد بزرگ تر شروع شده بود میانه ی (median) جوابشان بزرگ تر (۲۲۵۰) از گروهی بود که با اعداد کوچکتر (۵۱۲) شروع می شود. چنین خطای شناختی به نام anchoring bias شناخته می شود و از نشان از تغییر در یک تصمیم یا حساب به خاطر یه نقطه ی مرجع خاص است ( reference point). لیست چنین خطاهایی بسیار بلند بالاست و پرداختن به آنها از حوصله ی این مطلب خارج است.
بسیاری از وظایفی که در سیستم ۱ لیست شدند کارهایی هستند که ماشین ها هنوز با آن دست و پنجه نرم می کنند. دو مثال واضح آن رانندگی و فهم زبان است. اما چیزی که برای بسیاری از پژوهشگران در حال حاضر مشخص شده است این است که بسیاری از چنین وظایفی با روش های آماری (مانند یادگیری عمیق) قابل حل هستند. یکی از مثال های این مورد درک تصویری است که تا حد بسیار زیادی تمام جنبه های آن حل و فصل شده است. حتی رانندگی با اینکه مساله ی دشواری است تا حد بسیار زیادی حل شده است. اما سیستم ۱ چطور؟
تصور بسیاری در حوزه ی هوش مصنوعی این است که بسیاری از وظایفی که در سیستم ۱ تعریف می شوند زمان زیادی است که در هوش مصنوعی کلاسیک (Classical AI) حل شده اند. بعضی از آنها حتی نیاز به «هوش» خاصی ندارند. به طور مثال ضرب اعداد یا عملیات مختلف ریاضی و بعضی دیگر مانند بازی شطرنج و سودوکو و غیره که کامپیوتر ها بسیار بهتر و سریع تر بدون خطا انجام میدهد. اصلا کامپیوتر ها ابتدا برای انجام وظایف سیستم ۱ ساخته شدند. بنابراین نباید مشکل خاصی باشد.
موفقیت بسیار زیاد در انجام مسائل سیستم ۲ توسط شبکه های عصبی عمیق این تصور را به وجود آورده است که بزودی با افزایش بیشتر و بیشتر اندازه ی چنین شبکه هایی ناگهان یک گذار (phase transition) را مشاهده میکنیم و مساله ی تقلید هوش انسانی به صورت کامل حل خواهد شد. اعتماد بیش از حد به روش های آماری (که صد البته بسیار بسیار موفق بوده اند) باعث شده است که به محدودیت های آنها آگاه نباشیم. اما صبر کنید مگر نمیگوییم که انسان ها هم دچار همان خطاهای شناختی (سوگیری های شناختی) ناشی از الگو زدگی آماری (patternicity) هستند و وقتی به وظایف سیستم ۱ می رسد دچار خطاهای زیادی می شود؟ بنابراین چرا باید انتظار داشته باشیم که یک شبکه ی عصبی عمیق دچار چنین خطاهایی نشود. اصولا به نظر می رسد کارکرد های شناختی ما به شبکه های عصبی مصنوعی نزدیک تر باشد تا سیستم های کلاسیک.
چنین استدلالی تا حدودی درست است اما نکاتی را پنهان می کند که ما را به پاشنه ی آشیل سیستم های امروزی یا همان فاصله ی شناختی (cognitive gap) بین شناخت مغز و یک سیستم شبکه ی عصبی عمیق می رساند.
این موضوعی است که در نوشتار بعدی دقیق تر بررسی میکنیم
در این ویدیو به اسم thinking machine که در اوایل ۱۹۶۰ در آزمایشگاه های بل ضبط شده است متوجه بسیاری از بحث های امروزه در مورد هوش مصنوعی می شوید: نگرانی خبرنگار از رشد هوش مصنوعی! متقاعد شدن متخصصین ازینکه ماشین ها واقعا فکر میکنند و در نهایت ادعای شگفت انگیز کلاود شنون نابغه ی ریاضیات و علوم کامپیوتر که پیش بینی می کند در طی ۱۰ یا ۱۵ سال آینده ربات هایی خواهیم داشت که در حد داستان های علمی تخیلی باشند!
بخش جالب تر ماجرا این است که مساله ترجمه (translation) را تقریبا حل شده می دانند در صورتی که چنین ادعایی حتی امروزه با بهترین سیستم های یادگیری عمیق قدری دشوار است!
از نظر من درسی که می توان گرفت این است که باید نسبت به ادعاهای عجیبی که امروز می شود (مثل ادعای کارمند اخراج شده ی گوگل مبنی بر اینکه هوش مصنوعی گوگل ذی شعور (sentient) است) با دید شک بیشتری نگاه شود!
نمیتوان منکر پیشرفت ها شد اما قبل از هیجان زده شدن نیاز داریم به عنوان متخصصین کامپیوتر رشته های مجاور مانند روانشناسی، علوم شناختی فلسفه و عصب شناسی را بیشتر مطالعه کنیم و قدری نسبت به کاری که می کنیم فروتنی بیشتری داشته باشیم!
یک مثال جالب تر تعریف کلاس اعداد مختلط است. میدانیم که نمیتوان اعداد مختلط را به صورت مستقیم با هم مقایسه کرد اما می توان مقدار نرم آن ها را با هم مقایسه کرد. برای اینکه مطمئن باشیم که میتوان خروجی خوبی گرفت تابع str را هم overload می کنیم تا خروجی زیبا تری داشته باشیم
Читать полностью…اما اگر من نمونه ای از این کلاس بگیرم و شروع کنم دو شخص را با هم مقایسه کنم با خطای زیر مواجه می شوم
Читать полностью…چرا بهتره تقلب نکنیم؟
توی این ویدیو، استاد دانشگاه کالیفرنیا، چه زیبا این موضوع رو توضیح میده.
ببینید و به اشتراک بگذارید.
زانکو
@zankoo_ai
🔵رمزگشایی تاریخ با یادگیری عمیق🔵
در باستان شناسی کشف رموز سنگ نبشته ها یکی از جالبترین موضوعات است که دریچه ای به دانش، فرهنگ و جهان بینی پیشینیان را بر ما آشکار میکند. متاسفانه بسیاری از این نوشته ها در طول زمان از بین رفته و امروز بخش های پراکنده ای از آن در اختیار ما قرار دارد. باستان شناسان در طول قرنها تلاش برای رمزگشایی این کتیبه ها تنها قادر به هویدا کردن بخش کوچکی از آن بوده اند و رمزگشایی دقیق و کامل هنوز هم یک چالش بزرگ محسوب می شود.
شرکت پژوهشی deepmind در یک پروژه ی جدید توانسته سیستم یادگیری عمیقی را آموزش دهد که بر روی متن های زبان یونانی آموزش دیده و می تواند با دقت بالاتری رمزگشایی کند. آنها توانستند خطای سیستم را به ۳۰ درصد برسانند در حالی که خطای بهترین متخصصان باستان شناسی ۵۷ درصد است.
کدهای این سیستم به صورت متن باز منتشر شده است که امکان استفاده آن برای سنگ نبشته های دیگر تمدن ها مانند ایران و چین و غیره (در صورت دسترسی به داده های دیجیتال عکس های خطی) امکان پذیر می شود.
چند نکته بسیار مهم در مورد یادگیری ماشین
در این نوشته یکی از کارهای بسیار مهم و ارزشمند پترو دومینگوس پروفسور دانشگاه واشنگتن برای شما خلاصه و ترجمه کرده ایم. این نوشته در مورد نکات بسیارمهمی از یادگیری ماشین است که حتی متخصصان هم در فهم آن مشکل دارند.
الگوریتم های یادگیری ماشین برای عمومی سازی بر اساس تعداد محدودی نمونه توسعه یافته اند. هر روز بر تعداد کاربردهای دنیای واقعی یادگیری ماشین افزوده می شود. اما در عمل پروژه های یادگیری ماشین پیچیده تر و پیاده سازی دشوار تری دارند. بعد از مدتی متوجه می شوید پیاده کردن یک پروژه یادگیری ماشین پر است از چیز هایی که به سختی در کتاب ها پیدا می شود و اصطلاحا فوت کوزه گری یادگیری ماشین هستند که در کار یاد میگیرید. این مقاله بر آن است که بسیاری از این فوت های کوزه گری قابل انتقال هستند. در اینجا لیستی از آن ها آورده شده است.
https://vrgl.ir/ovAUb
امروز copilot ابزار کامل کردن کد openai را امتحان کردم. میزان کمکی که این ابزار می کند تقریبا باور نکردنی ست. در مثال بالا به دنبال کد کوتاهترین مسیر در گراف بودم و برای این منظور کافی است یک کامنت بنویسید و تقریبا تمام بقیه کار به صورت اتوماتیک (با فشردن دکمه تب) کامل می شود. یعنی حتی نیازی نیست که در اینترنت به دنبال کد آماده باشید. از طرفی copilot تمام کد شما رو میخواند و بنابراین نام متغیرهایی که انتخاب می کند هوشمندانه و بدون تقریبا هیچ اشتباهی و هماهنگ با بقیه کدهاست.
با این تفسیر ما وارد عصر جدیدی از برنامه نویسی می شویم که برنامه نویسی معنای متفاوتی دارد. برنامه نویس ماهر دیگر کسی نیست که الگوریتم روتین های مختلف رو حفظ می کند بلکه کسی است که می تواند قدری انتزاعی تر فکر کرده و مانند یک معمار ماهر قطعه های پیش ساخته در کارخانه را کنار هم بچیند
کوپایلت برای محصولات jet brains
الگوریتم quicksort (سریع ترین الگوریتم مرتب سازی) در یک خط در پایتون
Читать полностью…تصویر غروب آفتاب در ماه های مختلف سال در یک مکان. رد این حرکت تابع سینوسی ست
@matlabtips
🔵ترس چه شکلی ست؟🔵
خیلی از مفاهیم زبانی به راحتی قابل انطباق با یک تصویر در جهان خارج نیست. این موضوع چیزی ست که در اوایل کودکی با انتزاع از اشیا و شکل ها در میابیم. یک کودک می داند ترس چیست و شاید حتی سعی کند آن را نقاشی کند اما «ترس» مفهوم مجردی است که تنها از شباهت خانوادگی مجموعه ی زیادی از تصاویر، رویداد ها و احساسات قابل درک است (لودویگ ویتگنشتاین).
از طرفی یکی از بزرگترین سوالات در نوروساینس همواره این بوده است که مغز چگونه چیز ها را بازنمایی می کند (representation). مثلا در یک کامپیوتر یک تصویر به صورت مجموعه ای از صفر ها و یکها در یک بخش از کامپیوتر روی هارد دیسک ذخیره شده است اما آیا مثلا نورونی وجود دارد که مادربزرگ شما را بازنمایی کند (Grandmother cell) این ایده بسیار کودکانه و خام بنظر می رسد و زمانی که برای اولین بار در دهه شصت میلادی توسط عصب شناس لهستانی Jerzy Konorski ارائه شد با استقبال زیادی مواجه نشد. اما با پیشرفت روش های اسکن مغز این ایده بیشتر تقویت شد. ظاهر ما سلول هایی در مغزمان داریم که تنها جنیفر آنیستون یا پسر همسایه ی دوران کودکیمان را بازنمایی می کنند! از یک دیدگاه کمی پیشرفته تر این شیوه نهایت sparsity در بازنمایی اطلاعات است. به عبارتی هر «چیز» تنها به یک سلول نگاشت می شود. اما پژوهش های دیگری نشان می دهند هرچند مغز در ذخیره ی اطلاعات به شدت اسپارس عمل می کند اما گاهی آن را به صورت پخش شده و نتیجه بر هم نهی چندین الگوی جهش (spike) در مغز بازنمایی می کند.
امروز(۴ مارچ ۲۰۲۱) OpenAI یکی دیگر از کشفیات جالب خود بر روی مدل CLIP را نشان داد که شباهت های زیادی به پژوهش های موازی در مغز دارد. این مدل قادر به بازنمایی همزمان تصاویر و متون است (Multimodal representation) و همین باعث قدرت بالای آن شده است. نتیجه ی این پژوهش نشان می دهد بیشتر نورونهای شبکه عصبی قابل تفسیر هستند. به عبارتی با تکنیک feature visualization می توان ترکیبی از کلمات را تصویر کرد. نورون های خاصی وجود دارند که به صورت مشخص تنها زمانی فعال می شوند که فقط یک ورودی مشخص را در ورودی ببینند (مانند سلول مادربزرگ) قسمت جالب تر کار OpenAI نشان دادن قدرت شبکه در به تصویر کشیدن مفاهیم انتزاعی مانند «ترس»، «آفریقا»، «میانه دهه ۹۰» توسط یک یا گروه کوچکی از نورون های شبکه است. ترکیبات این مفاهیم حتی جذاب تر و عجیب تر هستند. مثلا اگر ترس یک معماری بود چه شکلی می شد!؟
بخش دوم این پژوهش نشان می دهد که میتوان بازنمایی هایی بسیار اسپارس از مفهمومی مانند «سورپرایز شدن» را به صورت ترکیبی خطی از «جشن»، «شوکه شدن» و «خنده» یافت. این یافته شباهت های جالبی با موارد نورون های واقعی در مغز دارد.
(دقت کنید که شباهت بیش از حد شبکه های عصبی واقعی و مصنوعی هنوز یک فرضیه است و تفاوت های بنیادینی در اینگونه شبکه ها از ساختار و عناصر و کارکرد وجود دارد. بنابراین این گونه شبیه سازی ها هنوز از لحاظ علمی اعتبار کافی ندارند. این چیزی است که در خود مقالات هم به آن اشاره شده است.)
مقاله مفصل به انگلیسی
معرفی ابزار
بسیاری از شما از grammarly برای درست کردن اشتباهات گرامری تان استفاده می کنید اما گرامرلی قادر به بازنویسی متن یا درست کردن بسیاری از خطاهای معنایی و حتی از نو ساختن جمله ها طوری که دقیقا منظورتان را برساند نیست. برای این مورد wordtune را استفاده کنید که بر اساس آخرین دستاوردهای پردازش زبان طبیعی کار میکند و براحتی در مرورگرها قابل استفاده است.
https://www.wordtune.com/
Here's an animation of a PyTorch DataLoader.
The Dataset has to be passed to the DataLoader. It's where you transform your data and where the inputs and labels are stored.
It is basically one big list of (input, label) tuples. So when you index in like dataset[i], it returns (input[ i ], label[ i ]).
The sampler and batch sampler are used to choose which inputs & labels to yield to the next batch.
They don't actually grab the inputs and labels, and the dataset doesn't actually deplete. They tell the DataLoader which indices to grab.
The collate function is what collates/combines the batch of examples into single x_batch, y_batch tensors.
pytorch handles a bunch of different types and shapes of data that could need to be collated.
If you need custom behaviour, you can pass in a sampler / batch_sampler and/or a collate function to your DataLoader.
More
مدل GPT-2 برای زبان فارسی (ParsGPT2)
بالاخره تیم هوشواره مدل GPT-2 را برای زبان فارسی آموزش داد. اینجا می توانید آن را تست کنید