رونویسی از ویدیو
به این دوره آموزش عمیق احتمالی با TensorFlow خوش آمدید!این دوره مبتنی بر مفاهیم و مهارتهای پایه تنسورفلو است که در دو دوره اول این تخصص تدریس شده است و بر رویکرد احتمالی یادگیری عمیق تمرکز دارد. این یک حوزه به طور فزاینده مهم یادگیری عمیق است که هدف آن تعیین کمیت نویز و عدم قطعیت است که اغلب در مجموعه داده های دنیای واقعی وجود دارد. این یک جنبه حیاتی در هنگام استفاده از مدل های یادگیری عمیق در برنامه هایی مانند وسایل نقلیه خودران یا تشخیص های پزشکی است. ما به مدل نیاز داریم تا بدانیم چه چیزی را نمی داند. شما یاد خواهید گرفت که چگونه مدلهای احتمالی را با TensorFlow توسعه دهید و از کتابخانه احتمالی TensorFlow استفاده کنید، کتابخانهای که برای آسان کردن ترکیب مدلهای احتمالی با یادگیری عمیق طراحی شده است. به این ترتیب، این دوره همچنین می تواند به عنوان مقدمه ای برای کتابخانه TensorFlow Probability مشاهده شود. شما یاد خواهید گرفت که چگونه توزیعهای احتمال را میتوان در مدلهای یادگیری عمیق در TensorFlow، از جمله شبکههای عصبی بیزی، جریانهای عادیسازی و رمزگذارهای خودکار متغیر، نمایش داد و گنجاند. شما یاد خواهید گرفت که چگونه مدل هایی را برای تعیین کمیت عدم قطعیت و همچنین مدل های تولیدی ایجاد کنید که می توانند نمونه های جدیدی مشابه نمونه های موجود در مجموعه داده ایجاد کنند، مانند تصاویر چهره های افراد مشهور. مفاهیمی را که در مورد آنها یاد می گیرید بلافاصله در آموزش های عملی و عملی برنامه نویسی، که توسط دستیار آموزشی فارغ التحصیل راهنمایی می شوید، در عمل قرار می دهید. علاوه بر این، یک سری تکالیف برنامه نویسی با درجه بندی خودکار برای شما وجود دارد تا مهارت های خود را تثبیت کنید. در پایان دوره، بسیاری از مفاهیم را در یک پروژه Capstone گرد هم میآورید، جایی که یک الگوریتم رمزگذار خودکار متغیر را برای تولید یک مدل تولیدی از مجموعه دادههای تصویر مصنوعی که خودتان ایجاد میکنید، ایجاد میکنید. این دوره از دو دوره قبلی در این تخصص پیروی می کند، شروع با TensorFlow 2 و سفارشی کردن مدل های خود با TensorFlow 2. دانش پیش نیاز اضافی مورد نیاز برای موفقیت در این دوره یک پایه محکم در احتمال و آمار است. به طور خاص، فرض بر این است که شما با توزیعهای احتمال استاندارد، توابع چگالی احتمال، و مفاهیمی مانند برآورد حداکثر احتمال، فرمول تغییر متغیرها برای متغیرهای تصادفی و کران پایین شواهد (ELBO) مورد استفاده در استنتاج تغییرات آشنا هستید.
Destrezas que Aprenderás
شبکه عصبی احتمالی، یادگیری عمیق، مدل مولد، تنسورفلو، زبان برنامه نویسی احتمالی (PRPL)
رزیناس
4. 7 (88 calificaciones)
27 ژوئیهدر سال 2021
یک تجربه یادگیری واقعا ارزشمند. با این دوره ها، اکنون احساس اطمینان می کنم که می توانم مهارت های تخصصی یادگیری عمیق را در یک محیط عملی به کار ببرم.
29 دی دیدر سال 2020
خیلی خوب. این دوره را بسیار دوست داشتم، اگرچه میدانم که باید پیشزمینه بهتری قبل از شرکت در آن میداشتم.
Autoencoders متنوع یکی از محبوب ترین انواع مدل های یادگیری عمیق مبتنی بر احتمال است. در الگوریتم VAE دو شبکه به طور مشترک آموخته می شوند: یک رمزگذار یا شبکه استنتاج و همچنین یک رمزگذار یا شبکه تولیدی. در این هفته شما یاد می گیرید که چگونه VAE را با استفاده از کتابخانه احتمال TensorFlow پیاده سازی کنید. سپس از شبکه های آموزش دیده برای رمزگذاری نمونه های داده در یک فضای نهفته فشرده و همچنین تولید نمونه های جدید از توزیع قبلی و رمزگشایی استفاده خواهید کرد. در تکالیف برنامه نویسی برای این هفته ، شما AutoEncoder متغیر را برای یک مجموعه داده تصویر از چهره های مشهور توسعه می دهید.
Antartido Por:
دکتر کوین وبستر
همکار ارشد تدریس در آمار
رونوشت
[موسیقی] خوش آمدید. در الگوریتم AutoEncoder متغیر ، عملکرد هدف که می خواهیم به حداکثر برسیم ELBO یا شواهد پایین تر است. این عملکرد هدف را می توان به عنوان مجموع دو اصطلاح بیان کرد. اصطلاح اول از دست دادن بازسازی مورد انتظار است و اصطلاح دوم واگرایی KL از توزیع قبلی به خلفی است. این واگرایی KL اندازه گیری اختلاف بین این دو توزیع است. در این ویدیو ، خواهیم دید که چگونه واگرایی KL را می توان بین دو شی توزیع محاسبه کرد ، در مواردی که یک بیان تحلیلی برای واگرایی KL شناخته شده است. ما همچنین خواهیم دید که چگونه واگرایی KL می تواند به عنوان یک تابع هدف برای بهینه سازی پارامترهای توزیع استفاده شود. به منظور به حداقل رساندن اختلاف بین آن و توزیع هدف. بیایید با مرور سریع تعریف واگرایی KL از توزیع P تا توزیع q شروع کنیم. می توان آن را به عنوان یک انتظار از توزیع q از تفاوت بین لگاریتم q و لگاریتم p نوشت. چند نکته برای یادآوری در مورد واگرایی KL این است که اول از همه ، همیشه منفی نیست. و 0 اگر و فقط اگر دو توزیع ، P و Q تقریباً در همه جا مساوی باشند. همچنین ، توجه داشته باشید که متقارن نیست ، اگر من در این عبارت P و Q را عوض کنم ، مقدار دیگری دریافت می کنم. بنابراین این یک روش آسان برای نشان دادن این است که واگرایی KL متریک در فضای توزیع احتمال نیست ، حتی اگر این ممکن است روشی بصری برای فکر کردن در مورد آن باشد. بنابراین بیایید چند توزیع را تعریف کنیم که می خواهیم واگرایی KL را برای آن محاسبه کنیم. در اینجا اولین توزیع ما P ، من در حال تعریف P به عنوان یک توزیع کامل گاوسی دو بعدی ، که من با استفاده از توزیع multivariatenormaltril در حال فوری هستم. این توزیع طبق معمول ، یک استدلال LOC را می گیرد و یک استدلال Scale_Tril. که باید ماتریس مثلثی پایین باشد که از تجزیه چولسکی ماتریس کواریانس کامل ناشی می شود. من همچنین در اینجا یک Bijector جدید را معرفی می کنم که به آن Bijector Fillscaletril گفته می شود. من از این Bijector استفاده می کنم تا ماتریس مثلثی پایین را برای توزیع multivariatenormaltril انجام دهم. این یک بیکتور مفید برای این منظور است زیرا به عنوان مثال ، سه بردار طول از هر عدد واقعی طول می کشد. و یک ماتریس مثلثی دو به دو پایین با ورودی های مثبت روی مورب تولید می کند. در این حالت ، Bijectors در حال تبدیل شدن به ماتریسی است که من در اینجا نشان می دهم. طول وکتوری که برای پر کردن SCALE_TRIL Bijector منتقل می کنید ، باید با تعداد عناصر موجود در ماتریس مثلثی پایین مطابقت داشته باشد. اگر من در شش عنصر گذشتم ، یک ماتریس سه به سه را برمی گرداند. فقط می دانید ، این همان کاری است که Bijector Fillscaletril در پشت صحنه انجام می دهد. ابتدا عناصر وکتوری را که در آن عبور می کنید ، می گیرد و آنها را در ورودی های یک ماتریس مثلثی پایین با استفاده از بیژژور Filltriangular ذخیره می کند. این بیژژور عناصر را در یک مارپیچ در جهت عقربه های ساعت پر می کند ، بنابراین ، اطمینان می دهد که عناصر مورب مثبت هستند. این کار را با استفاده از Bijector TransformDiagonal انجام می دهد که همانطور که از نام آن پیداست ، تبدیل بیژژور را به عناصر مورب یک ماتریس اعمال می کند. Bijector که اعمال می شود SoftPlus Bijector است که خط واقعی را به واقعیت های مثبت ترسیم می کند. همچنین یک تغییر کوچک اعمال می شود ، تا اطمینان حاصل شود که تمام ورودی های مورب از 0 محدود شده اند ، که به جلوگیری از مشکلات عددی کمک می کند.