‫‫آموزش یادگیری عمیق 7- بررسی دقیق و کامل انواع تابع هزینه (Loss function) در Keras و تفاوتهای آنها

‫دوره آموزش یادگیری عمیق (Deep learning)
‫‫جلسه هفتم - بررسی دقیق تمامی تابع زیان های (Loss function) مهم و اساسی در کتابخانه Tensorflow و Keras
.
‫‫‫در این جلسه تمامی تابع هزین های پرکاربرد رو بررسی کردیم. ابتدا توابع هزینه پرکاربرد در رگرسیون (Regression) به طور کامل توضیح داده شده اند که عباتند از:
‫‫1. Mean Absolute Error
‫2. Mean Squared Error
‫بعد به سراغ توابع هزینه های پرکاربرد در classification رفتیم
‫1.Binary Cross-Entropy (Logistic Loss)
‫2. Sparse Categorical Cross-Entropy
‫3. Categorical Cross-Entropy
و تفاوت های هر کدوم و کاربردشون رو بررسی کردیم.
.
دوره های مرتبط با این دوره:
دوره آموزش پایتون از مقدماتی تا پیشرفته • ‫دوره کامل آموزش برنام...
دوره آموزش یادگیری ماشین از مقدماتی تا پیشرفته • دوره کامل ماشین لرنینگ...
.
ویدیوهای انجام پروژه جهت کسب مهارت کدزنی و مرور تمامی مفاهیم مرتبط:
پنج پروژه با استفاده از پایتون • پنج پروژه با استفاده ا...
‫3 پروژه کاملا کاربردی و مبتنی بر واقعیت برای تمرین بیشتر یادگیری ماشین • ‫3 پروژه کاملا کاربردی...
.
جلسات مرتبط:
‫رگرسیون به زبان ساده: • آموزش یادگیری ماشین 7 ...
‫انواع روشهای یادگیری ماشین: • یادگیری ماشین 2 - انوا...
‫موازنه بایاس و واریانس یعنی چی؟ (‫دلیل overfit یا underfit شدن مدلها چیه؟) • ‫آموزش یادگیری ماشین 1...
.
ممنون میشم اگر آموزشها براتون کاربردی و مفید هست، لایک کنین و در کانال سابسکرایب کنین و همچنین ویدیوها رو با دوستانتون به اشتراک بذارین!
لطفا از دانلود ویدیوها اجتناب کنین، برای این ویدیوها زحمت زیادی کشیده شده (من راضی نیستم که اونها رو دانلود کنید) و به همین دلیل تنها راه استفاده رایگان، تماشای آنلاین هست.
لینک کانال تلگرام t.me/techwithhasanabbasi
اگر برای ورود به دنیای برنامه نویسی و آموزش آن به صورت خودآموز نیاز به راهنمایی و مشاوره دارید، میتونین از طریق لینک زیر جهت رزرو زمان مناسب اقدام کنید تا با هم در موردش صحبت کنیم و یه شروع قدرتمند داشته باشین.
calendly.com/techwithhasanabb...

Пікірлер: 35

  • @zahrarj7068
    @zahrarj70688 күн бұрын

    خیلی ممنونم از شما واقعا دوره های شما برای من مفید بوده

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    7 күн бұрын

    خواهش میکنم خوشحالم که از آموزشها راضی هستین جهت تهیه این آموزشها زحمت زیادی کشیده شده، ممنون میشم اگر حس میکنین مفید هستن با دوستانتون به اشتراک بذارین

  • @user-qy3xr8lc4c
    @user-qy3xr8lc4c7 ай бұрын

    مثل همیشه عالی بود...

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    7 ай бұрын

    خواهش میکنم، خوشحالم که از آموزشها راضی هستین ممنون میشم اگر از آموزشها راضی هستین، با دوستانتون به اشتراک بذارین

  • @behzadhosseinzade5339
    @behzadhosseinzade5339Ай бұрын

    بسیار روان و عالی توضیح میدید

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    Ай бұрын

    خواهش میکنم خوشحالم که از آموزشها راضی هستین جهت تهیه این آموزشها زحمت زیادی کشیده شده، ممنون میشم اگر حس میکنین مفید هستن با دوستانتون به اشتراک بذارین

  • @behzadhosseinzade5339

    @behzadhosseinzade5339

    Ай бұрын

    @@TechWithHasanAbbasi 🙏🌟 حتما

  • @samanfasihiani6851
    @samanfasihiani68517 ай бұрын

    عالی بود ممنون 🙏👌

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    7 ай бұрын

    خواهش میکنم، خوشحالم که از آموزشها راضی هستین ممنون میشم اگر از آموزشها راضی هستین، با دوستانتون به اشتراک بذارین

  • @MaryamFaramarz
    @MaryamFaramarz6 ай бұрын

    عالی بود، ممنون بابت تمامی زحمتاتون

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    6 ай бұрын

    خواهش میکنم، خیلی خوشحالم که از آموزشها راضی هستین جهت تهیه این آموزشها زحمت زیادی کشیده شده، به همین خاطر ممنون میشم اگر از آموزشها راضی هستین، با دوستانتون به اشتراک بذارین

  • @user-mb3qn8uu6s
    @user-mb3qn8uu6s7 ай бұрын

    Good job

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    7 ай бұрын

    Thanks

  • @somaiesarvari3295
    @somaiesarvari32952 ай бұрын

    ممنونم عالی بود

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    2 ай бұрын

    خواهش میکنم خوشحالم که از آموزشها راضی هستین جهت تهیه این آموزشها زحمت زیادی کشیده شده، ممنون میشم اگر حس میکنین مفید هستن با دوستانتون به اشتراک بذارین

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    2 ай бұрын

    سلام دوست عزیز خوشحالم آموزشها براتون مفید هست

  • @hosseindr.askari6161
    @hosseindr.askari61616 ай бұрын

    لطفا یک ویدئو تهیه کنید درباره optimizer . ممنون 💙

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    6 ай бұрын

    حتما

  • @user-nb4fx5fd3i
    @user-nb4fx5fd3i7 ай бұрын

    👌👌👌

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    3 ай бұрын

    Thank you for your support

  • @kiankianpisheh7629
    @kiankianpisheh76297 ай бұрын

    💯

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    3 ай бұрын

    Thank you for your support

  • @hosseindr.askari6161
    @hosseindr.askari61617 ай бұрын

    Thanks alot. Like always great 😃👏

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    7 ай бұрын

    Thanks again!

  • @user-jc7uu5ho3h
    @user-jc7uu5ho3h3 ай бұрын

    Thanks

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    3 ай бұрын

    Happy to help 😊

  • @robertminia5472
    @robertminia54722 ай бұрын

    😍😍😍😍

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    2 ай бұрын

    Thank you for your support!

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    2 ай бұрын

    Thank you for your support!

  • @amindrh6851
    @amindrh68514 ай бұрын

    awlii

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    4 ай бұрын

    thank you for the support!

  • @farshadbagheri6180
    @farshadbagheri618010 күн бұрын

    می شه هر هفته یک پروژه انجام بدین و deploy کنید اون رو

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    7 күн бұрын

    سعی میکنم در برنامه قرار بدم

  • @MPar-dn2qv
    @MPar-dn2qv6 ай бұрын

    سلام در قسمت رگراسیون ها من راستش تفاوتی بین این دو تابع هزینه یعنی mean_absolute_error و اون یکی mean_squared_error ندیدم چون اولی فقط قدر مطلق ها رو در نظر میگیره و باهم جمع میکنه و دومی بتوان 2 میرسونه که منفی ها رو مثبت کنه و بعد باهم جمع میکنه که در نهایت عملکرد هردو یکیه حالا دیگه نمیدونم که من اشتباه میکنم یا اینکه میشه از هرکدوم از این تابع های هزینه بجای اون دیگری استفاده کرد

  • @TechWithHasanAbbasi

    @TechWithHasanAbbasi

    5 ай бұрын

    بستگی به کاربرد ممکن هست جوابها به هم نزدیک باشن ولی اساس کاریشون و فرمول بهینه سازی متفاوتی دارن

Келесі