آموزش یادگیری عمیق 7- بررسی دقیق و کامل انواع تابع هزینه (Loss function) در Keras و تفاوتهای آنها
دوره آموزش یادگیری عمیق (Deep learning)
جلسه هفتم - بررسی دقیق تمامی تابع زیان های (Loss function) مهم و اساسی در کتابخانه Tensorflow و Keras
.
در این جلسه تمامی تابع هزین های پرکاربرد رو بررسی کردیم. ابتدا توابع هزینه پرکاربرد در رگرسیون (Regression) به طور کامل توضیح داده شده اند که عباتند از:
1. Mean Absolute Error
2. Mean Squared Error
بعد به سراغ توابع هزینه های پرکاربرد در classification رفتیم
1.Binary Cross-Entropy (Logistic Loss)
2. Sparse Categorical Cross-Entropy
3. Categorical Cross-Entropy
و تفاوت های هر کدوم و کاربردشون رو بررسی کردیم.
.
دوره های مرتبط با این دوره:
دوره آموزش پایتون از مقدماتی تا پیشرفته • دوره کامل آموزش برنام...
دوره آموزش یادگیری ماشین از مقدماتی تا پیشرفته • دوره کامل ماشین لرنینگ...
.
ویدیوهای انجام پروژه جهت کسب مهارت کدزنی و مرور تمامی مفاهیم مرتبط:
پنج پروژه با استفاده از پایتون • پنج پروژه با استفاده ا...
3 پروژه کاملا کاربردی و مبتنی بر واقعیت برای تمرین بیشتر یادگیری ماشین • 3 پروژه کاملا کاربردی...
.
جلسات مرتبط:
رگرسیون به زبان ساده: • آموزش یادگیری ماشین 7 ...
انواع روشهای یادگیری ماشین: • یادگیری ماشین 2 - انوا...
موازنه بایاس و واریانس یعنی چی؟ (دلیل overfit یا underfit شدن مدلها چیه؟) • آموزش یادگیری ماشین 1...
.
ممنون میشم اگر آموزشها براتون کاربردی و مفید هست، لایک کنین و در کانال سابسکرایب کنین و همچنین ویدیوها رو با دوستانتون به اشتراک بذارین!
لطفا از دانلود ویدیوها اجتناب کنین، برای این ویدیوها زحمت زیادی کشیده شده (من راضی نیستم که اونها رو دانلود کنید) و به همین دلیل تنها راه استفاده رایگان، تماشای آنلاین هست.
لینک کانال تلگرام t.me/techwithhasanabbasi
اگر برای ورود به دنیای برنامه نویسی و آموزش آن به صورت خودآموز نیاز به راهنمایی و مشاوره دارید، میتونین از طریق لینک زیر جهت رزرو زمان مناسب اقدام کنید تا با هم در موردش صحبت کنیم و یه شروع قدرتمند داشته باشین.
calendly.com/techwithhasanabb...
Пікірлер: 35
خیلی ممنونم از شما واقعا دوره های شما برای من مفید بوده
@TechWithHasanAbbasi
7 күн бұрын
خواهش میکنم خوشحالم که از آموزشها راضی هستین جهت تهیه این آموزشها زحمت زیادی کشیده شده، ممنون میشم اگر حس میکنین مفید هستن با دوستانتون به اشتراک بذارین
مثل همیشه عالی بود...
@TechWithHasanAbbasi
7 ай бұрын
خواهش میکنم، خوشحالم که از آموزشها راضی هستین ممنون میشم اگر از آموزشها راضی هستین، با دوستانتون به اشتراک بذارین
بسیار روان و عالی توضیح میدید
@TechWithHasanAbbasi
Ай бұрын
خواهش میکنم خوشحالم که از آموزشها راضی هستین جهت تهیه این آموزشها زحمت زیادی کشیده شده، ممنون میشم اگر حس میکنین مفید هستن با دوستانتون به اشتراک بذارین
@behzadhosseinzade5339
Ай бұрын
@@TechWithHasanAbbasi 🙏🌟 حتما
عالی بود ممنون 🙏👌
@TechWithHasanAbbasi
7 ай бұрын
خواهش میکنم، خوشحالم که از آموزشها راضی هستین ممنون میشم اگر از آموزشها راضی هستین، با دوستانتون به اشتراک بذارین
عالی بود، ممنون بابت تمامی زحمتاتون
@TechWithHasanAbbasi
6 ай бұрын
خواهش میکنم، خیلی خوشحالم که از آموزشها راضی هستین جهت تهیه این آموزشها زحمت زیادی کشیده شده، به همین خاطر ممنون میشم اگر از آموزشها راضی هستین، با دوستانتون به اشتراک بذارین
Good job
@TechWithHasanAbbasi
7 ай бұрын
Thanks
ممنونم عالی بود
@TechWithHasanAbbasi
2 ай бұрын
خواهش میکنم خوشحالم که از آموزشها راضی هستین جهت تهیه این آموزشها زحمت زیادی کشیده شده، ممنون میشم اگر حس میکنین مفید هستن با دوستانتون به اشتراک بذارین
@TechWithHasanAbbasi
2 ай бұрын
سلام دوست عزیز خوشحالم آموزشها براتون مفید هست
لطفا یک ویدئو تهیه کنید درباره optimizer . ممنون 💙
@TechWithHasanAbbasi
6 ай бұрын
حتما
👌👌👌
@TechWithHasanAbbasi
3 ай бұрын
Thank you for your support
💯
@TechWithHasanAbbasi
3 ай бұрын
Thank you for your support
Thanks alot. Like always great 😃👏
@TechWithHasanAbbasi
7 ай бұрын
Thanks again!
Thanks
@TechWithHasanAbbasi
3 ай бұрын
Happy to help 😊
😍😍😍😍
@TechWithHasanAbbasi
2 ай бұрын
Thank you for your support!
@TechWithHasanAbbasi
2 ай бұрын
Thank you for your support!
awlii
@TechWithHasanAbbasi
4 ай бұрын
thank you for the support!
می شه هر هفته یک پروژه انجام بدین و deploy کنید اون رو
@TechWithHasanAbbasi
7 күн бұрын
سعی میکنم در برنامه قرار بدم
سلام در قسمت رگراسیون ها من راستش تفاوتی بین این دو تابع هزینه یعنی mean_absolute_error و اون یکی mean_squared_error ندیدم چون اولی فقط قدر مطلق ها رو در نظر میگیره و باهم جمع میکنه و دومی بتوان 2 میرسونه که منفی ها رو مثبت کنه و بعد باهم جمع میکنه که در نهایت عملکرد هردو یکیه حالا دیگه نمیدونم که من اشتباه میکنم یا اینکه میشه از هرکدوم از این تابع های هزینه بجای اون دیگری استفاده کرد
@TechWithHasanAbbasi
5 ай бұрын
بستگی به کاربرد ممکن هست جوابها به هم نزدیک باشن ولی اساس کاریشون و فرمول بهینه سازی متفاوتی دارن