دانلود ها ی دارای تگ: "توجه"
1 مورد برای عبارت مورد نظر پیدا شد.
1 مورد برای عبارت مورد نظر پیدا شد.
در سالهای اخیر، مدلهای زبانی بزرگ انقلابی در حوزه هوش مصنوعی ایجاد کردهاند و به برنامههایی مانند ChatGPT، DeepSeek و سایر دستیارهای پیشرفته هوش مصنوعی قدرت میبخشند. اما این مدلها چگونه متن شبیه به انسان را درک و تولید میکنند؟ در این دوره، مفاهیم اساسی پشت مدلهای زبانی بزرگ، شامل مکانیزمهای توجه، ترنسفورمرها و معماریهای مدرن مانند DeepSeek، به صورت جزء به جزء بررسی خواهد شد. این دوره با کاوش در ایده اصلی مکانیزمهای توجه آغاز میشود که به مدلها اجازه میدهد بر روی مرتبطترین بخشهای متن ورودی تمرکز کنند و درک متنی را بهبود بخشند. سپس، به بررسی ترنسفورمرها، ستون فقرات مدلهای زبانی بزرگ، پرداخته میشود و تحلیل میشود که چگونه این مدلها پردازش موازی کارآمد متن را ممکن میسازند و منجر به عملکردی پیشرفته در پردازش زبان طبیعی (NLP) میشوند. همچنین، با توجه به خود (self-attention)، کدگذاریهای موقعیتی (positional encodings) و توجه چند سر (multi-head attention)، که اجزای کلیدی برای کمک به مدلها در درک وابستگیهای بلندمدت در متن هستند، آشنا خواهید شد. فراتر از اصول اولیه، DeepSeek، یک مدل متنباز پیشرفته که برای پیشبرد کارایی و عملکرد هوش مصنوعی طراحی شده است، مورد بررسی قرار میگیرد. در این بخش، بینشهایی در مورد چگونگی بهینهسازی مکانیزمهای توجه توسط DeepSeek و آنچه آن را به رقیبی قدرتمند برای سایر مدلهای زبانی بزرگ تبدیل میکند، به دست خواهید آورد.
در دوره آموزشی Introduction to LLMs Transformer,Attention, Deepseek pytorch با عملکرد مدلهای زبانی بزرگ (LLM) شامل ترنسفورمرها، مکانیزمهای توجه و مدل DeepSeek آشنا خواهید شد.