دانلود ها ی دارای تگ: "llm"
21 مورد برای عبارت مورد نظر پیدا شد.
21 مورد برای عبارت مورد نظر پیدا شد.
Ollama اولین پلتفرم محلی است که مدل های زبان بزرگ (LLM) را مستقیماً روی دسکتاپ شما می آورد. نرمافزار Ollama یکی از ابزارهای نوین و پیشرفته در حوزهی مدیریت و اجرای مدلهای زبان بزرگ (LLMs) بهصورت محلی (on-device) است که برای توسعهدهندگان، محققان هوش مصنوعی و علاقهمندان به پردازش زبان طبیعی طراحی شده است. این نرمافزار به شما اجازه میدهد تا بدون نیاز به اتصال مداوم به سرورهای ابری، مدلهای هوش مصنوعی را بهصورت لوکال اجرا کرده و با آنها تعامل داشته باشید.
اولاما در واقع یک فریمورک و نرمافزار متنباز است که بهطور خاص برای سادهسازی اجرای مدلهای زبانی مانند LLaMA، Mistral، Gemma، Code LLaMA و سایر مدلهای سبکوزن طراحی شده است. این نرمافزار بر روی سیستمعاملهای مختلف (از جمله macOS و Linux) قابل اجراست و از پردازندههای CPU و GPU برای اجرای بهینهی مدلها بهره میبرد.
این دوره یک برنامه آموزشی عملی است که شرکتکنندگان در آن یاد میگیرند که چگونه OpenAI، Ollama و کتابخانههای انتزاعی جدید Microsoft-Extensions-AI (MEAI) را در داتنت ادغام کرده و طیف گستردهای از برنامههای کاربردی هوش مصنوعی مولد (GenAI) را بسازند. این برنامهها شامل موارد متعددی میشوند، از جمله: چتباتها و جستوجوی معنایی، تا تولید مبتنی بر بازیابی (RAG) و تحلیل تصویر. این دوره برای کمک به توسعهدهندگان طراحی شده تا بتوانند از قدرت مدلهای زبانی بزرگ (LLM) برای ساخت راهحلهای نوآورانه در چارچوب داتنت بهره ببرند. در طول این دوره، شرکتکنندگان با مباحث کلیدی متعددی آشنا میشوند. ابتدا، آنها با اکوسیستم هوش مصنوعی در داتنت آشنا خواهند شد. این بخش شامل شناخت کتابخانههای انتزاعی جدید مایکروسافت مانند Microsoft-Extensions-AI است که امکان ادغام و جابهجایی آسان بین ارائهدهندگان مختلف مدلهای زبانی بزرگ مانند OpenAI، Azure AI، Ollama و حتی مدلهای میزبانیشده شخصی را فراهم میکند. سپس، شرکتکنندگان نحوه راهاندازی و پیکربندی ارائهدهندگان مدلهای زبانی بزرگ را میآموزند. این شامل تنظیماتی برای GitHub Models، Ollama و Azure AI Foundry است تا بتوانند بهترین گزینه را برای موارد استفاده خود انتخاب کنند. بخش مهم دیگر، آموزش استفاده از مدلهای زبانی بزرگ برای تکمیل متن با مدلهای OpenAI gpt-5-mini و Ollama llama3.2 است. در این قسمت، آنها یاد میگیرند که چگونه با استفاده از داتنت، مدلهای زبانی بزرگ را برای انجام وظایفی مانند طبقهبندی، خلاصهسازی، استخراج داده، تشخیص ناهنجاری، ترجمه و تحلیل احساسات ادغام کنند.
در دوره آموزشی GenAI for .NET: Build LLM Apps with OpenAI and Ollama با توسعه برنامههای هوش مصنوعی مولد با استفاده از داتنت و مدلهای زبانی بزرگ آشنا خواهید شد.
این دوره آموزشی برای آشنایی با دنیای جذاب پایگاههای داده برداری (Vector Databases) و نحوه ادغام آنها با مدلهای زبان بزرگ (LLMs) مانند GPT طراحی شده است. این ترکیب قدرتمند، جستجوی معنایی، توصیههای شخصیسازیشده، چتباتها و اپلیکیشنهای هوشمند را در صنایع مختلف ممکن میسازد. همچنین، شرکتکنندگان با استراتژیهای مختلف ایندکسگذاری، مکانیزمهای کشینگ و ادغام با ابزارهای شخص ثالث آشنا میشوند تا درک کاملی از هر دو بخش نظری و عملی داشته باشند. از طریق دموها و مثالهای واضح، نحوه استفاده از عملیات برداری، جستجوی شباهت، و تکنیکهای پیشرفته جستوجو برای ایجاد فرصتهای جدید را فرا خواهند گرفت. چه دانشجو، برنامهنویس، دانشمند داده یا علاقهمند به هوش مصنوعی باشید، این دوره به شما کمک میکند تا با ترکیب پایگاههای داده برداری و مدلهای زبان بزرگ، پتانسیل کامل این فناوری را برای ساخت سیستمهای مقیاسپذیر، هوشمند و آماده برای آینده آزاد کنید.
در دوره آموزشی Vector database using LLM with demo با پایگاههای داده برداری و نحوه ادغام آنها با مدلهای زبان بزرگ آشنا خواهید شد.
نرمافزار Cherry Studio یکی از ابزارهای پیشرفته و تخصصی در حوزه طراحی، تولید و مدیریت پروژههای دیجیتال است که با تمرکز بر افزایش بهرهوری و تسهیل فرایندهای کاری، توجه ویژهای به نیازهای کاربران حرفهای و تیمهای توسعه داده است. این نرمافزار با ترکیب امکانات گرافیکی قدرتمند، قابلیتهای مدیریت پروژه و ابزارهای همکاری تیمی، محیطی یکپارچه و کارآمد را فراهم میکند.
Cherry Studio یک پلتفرم جامع دستیار هوش مصنوعی است که به شما امکان میدهد تمام مدلهایی را که استفاده میکنید در یک مکان واحد متمرکز کنید. میتوانید با دستیارهای مختلف چت کنید، آثار هنری تولید شده توسط هوش مصنوعی خلق کنید یا محتوا را بدون نیاز به جابجایی بین ابزارهای مختلف ترجمه کنید.
دوره Master RAG for AI + DevOps، دورهای آموزشی است که شما را با تکنیکهای پیشرفته Retrieval Augmented Generation یا به اختصار RAG و کاربردهای آن در دنیای واقعی آشنا میکند. این دوره از آمادهسازی دادهها تا ساخت بازیابها، استفاده از پایگاه دادههای برداری و اتصال همه آنها به مدلهای زبانی بزرگ (LLM) مانند Gemini را به صورت گامبهگام به شما آموزش میدهد. هدف این دوره، ایجاد سیستمهای هوش مصنوعی قدرتمند و حساس به محتواست. این دوره برای افرادی طراحی شده که به دنبال یادگیری مفاهیم تئوری و پیادهسازی عملی RAG هستند، به ویژه در حوزههایی مانند DevOps و هوش مصنوعی سازمانی. هر جلسه از دوره بر مباحث جلسه قبل بنا شده و به تدریج به شما کمک میکند تا بر جریان کاری RAG، از اصول پایه تا موضوعات پیشرفته، مسلط شوید. در طول این دوره، شما با بارگذاریکنندههای اسناد، تکهتکهکردن (chunking)، جاسازیها (embeddings) و جستجوی برداری آشنا میشوید. با استفاده از مثالهای دنیای واقعی در زمینه DevOps، مانند عیبیابی کانتینرها و مدیریت پیکربندیهای پویا، کاربرد این مفاهیم را به صورت عملی یاد میگیرید و متوجه میشوید که RAG چگونه محدودیتهای LLMها را برطرف میکند. این دوره، یک سفر کامل از تئوری تا عمل برای ساخت سیستمهای هوش مصنوعی پیشرفته است.
در دوره آموزشی Master RAG for AI + DevOps با تکنیک RAG برای هوش مصنوعی و DevOps آشنا خواهید شد.
مدلهای زبان بزرگ (LLMs) در کانون انقلاب هوش مصنوعی کنونی قرار دارند و به چتباتها، سیستمهای خودکارسازی و اپلیکیشنهای هوشمند قدرت میبخشند. با این حال، استقرار و سفارشیسازی آنها اغلب پیچیده و وابسته به خدمات ابری به نظر میرسد. Ollama این وضعیت را تغییر داده و اجرای، مدیریت و تنظیم دقیق LLMها را به صورت محلی بر روی سیستم شخصی شما آسان میسازد. این دوره برای توسعهدهندگان، علاقهمندان به هوش مصنوعی و متخصصانی طراحی شده است که میخواهند با استفاده از Ollama بر LLMها بر روی سختافزار یا لپتاپ خود مسلط شوند. شرکتکنندگان همه چیز را از راهاندازی محیط کاری تا ساخت مدلهای هوش مصنوعی سفارشی، تنظیم دقیق آنها و یکپارچهسازی آنها در اپلیکیشنهای واقعی، بدون اتکا به زیرساختهای ابری گرانقیمت، فرا خواهند گرفت. در مجموع، این دوره یک مسیر عملی و جامع برای تسلط بر مدلهای زبان بزرگ به صورت محلی ارائه میدهد که کنترل کامل و انعطافپذیری بالایی را در اختیار شما قرار میدهد. این رویکرد به شما امکان میدهد تا بدون نگرانی از هزینههای ابری یا مسائل مربوط به حریم خصوصی، پروژههای هوش مصنوعی خود را به پیش ببرید.
در دوره آموزشی Mastering LLMs Locally using Ollama | Hands-On با نحوه اجرای و مدیریت مدلهای زبان بزرگ بر روی کامپیوتر شخصی خود آشنا خواهید شد.
به این دوره جامع خوش آمدید که به شما نحوه کار مدلهای زبان بزرگ (LLM) را آموزش میدهد! در سالهای اخیر، LLMها حوزه هوش مصنوعی را متحول کردهاند و به برنامههایی مانند ChatGPT، DeepSeek و دیگر دستیاران پیشرفته هوش مصنوعی قدرت بخشیدهاند. اما این مدلها چگونه متن شبیه به انسان را درک کرده و تولید میکنند؟ در این دوره، مفاهیم اساسی پشت LLMها، از جمله مکانیزمهای توجه، ترانسفورمرها، و معماریهای مدرن مانند DeepSeek را به تفصیل بررسی خواهیم کرد. در ابتدا، ایده اصلی مکانیزمهای توجه را کاوش خواهیم کرد که به مدلها اجازه میدهند روی مرتبطترین بخشهای متن ورودی تمرکز کنند و درک متنی را بهبود بخشند. سپس، به ترانسفورمرها، ستون فقرات LLMها، خواهیم پرداخت و تحلیل خواهیم کرد که چگونه پردازش موازی کارآمد متن را امکانپذیر میسازند و منجر به عملکردی پیشرو در پردازش زبان طبیعی (NLP) میشوند. همچنین با خود-توجهی (self-attention)، رمزگذاریهای موقعیتی (positional encodings) و توجه چند-سر (multi-head attention) آشنا خواهید شد که اجزای کلیدی هستند و به مدلها کمک میکنند تا وابستگیهای بلندمدت در متن را ثبت کنند. فراتر از اصول اولیه، DeepSeek را که یک مدل متنباز پیشرفته طراحی شده برای گسترش مرزهای کارایی و عملکرد هوش مصنوعی است، بررسی خواهیم کرد. شما درک خواهید کرد که DeepSeek چگونه مکانیزمهای توجه را بهینهسازی میکند و چه چیزی آن را به یک رقیب قدرتمند برای سایر LLMها تبدیل کرده است.
در دوره آموزشی Introduction to LLMs Transformer,Attention, Deepseek pytorch با عملکرد، ساختار و کاربرد مدلهای زبان بزرگ (LLM) آشنا خواهید شد.
این دوره آموزشی جامع به بررسی کاربردهای هوش مصنوعی و یادگیری ماشین در شبکههای 5G میپردازد. مدرس با ارائه مفاهیم اساسی و کلیدی، چالشها و راهکارهای پیادهسازی این فناوریها را در شبکههای مخابراتی تشریح میکند. در این دوره، مخاطبان با مفاهیم هوش مصنوعی مولد، مدلهای زبان بزرگ و یادگیری فدرال آشنا شده و پتانسیل استفاده از آنها در زمینههای مختلف مانند بهینهسازی شبکه، مدیریت ترافیک، امنیت شبکه و برش شبکه را درک خواهند کرد. همچنین، جنبههای نظارتی، روندهای آتی و ملاحظات اخلاقی و حفظ حریم خصوصی مرتبط با استفاده از هوش مصنوعی در صنعت مخابرات نیز مورد بحث و بررسی قرار میگیرد. این دوره برای مدیران، مهندسان و دانشجویانی که علاقهمند به درک عمیق و کاربردی از نقش هوش مصنوعی در شبکههای 5G هستند، بسیار مفید خواهد بود.
در دوره آموزشی AI in 5G Networks: Deployment Aspects, Risks and Telecom LLM با کاربردهای هوش مصنوعی در شبکههای 5G آشنا خواهید شد.
برای سالها، هوش مصنوعی مبتنی بر فضای ابری، راهحل اصلی برای توسعهدهندگان بوده است. راحتی مدلهای مبتنی بر API، ادغام هوش مصنوعی در برنامهها را بدون نگرانی در مورد زیرساخت، آسان میکرد. با این حال، این راحتی با معاوضههایی همراه است: هزینههای بالا، نگرانیهای مربوط به حریم خصوصی دادهها، و وابستگی به ارائهدهندگان شخص ثالث. با رشد پذیرش هوش مصنوعی، توسعهدهندگان بیشتری در حال بازنگری رویکرد خود و روی آوردن به مدلهای هوش مصنوعی خودمیزبان هستند که به طور کامل روی دستگاههای محلی آنها اجرا میشوند. این تغییر نه تنها به دلیل کاهش هزینههای ابری است، بلکه در مورد کنترل کامل، عملکرد و استقلال نیز هست. هوش مصنوعی ابری باعث تأخیر میشود. هر درخواست باید از طریق اینترنت منتقل شود، با سرورهای راه دور تعامل داشته باشد و نتایج را بازگرداند. اجرای هوش مصنوعی به صورت محلی، تأخیر شبکه را از بین میبرد و برنامههای مبتنی بر هوش مصنوعی را به طور قابل توجهی سریعتر و پاسخگوتر میکند. بسیاری از صنایع، به ویژه بخشهای مراقبتهای بهداشتی، مالی و حقوقی، به امنیت دادههای سختگیرانه نیاز دارند. ارسال اطلاعات حساس به ارائهدهندگان ابری، خطرات حریم خصوصی را افزایش میدهد. با اجرای مدلهای هوش مصنوعی به صورت محلی، توسعهدهندگان دادههای خود را در داخل مجموعه نگه میدارند و از انطباق با مقررات امنیتی اطمینان حاصل میکنند.
در دوره آموزشی AI Development with Grok, Qwen2.5, Deepseek & ChatGPT با توسعه هوش مصنوعی به صورت محلی و مستقل از سرویسهای ابری آشنا خواهید شد.
در سالهای اخیر، مدلهای زبانی بزرگ انقلابی در حوزه هوش مصنوعی ایجاد کردهاند و به برنامههایی مانند ChatGPT، DeepSeek و سایر دستیارهای پیشرفته هوش مصنوعی قدرت میبخشند. اما این مدلها چگونه متن شبیه به انسان را درک و تولید میکنند؟ در این دوره، مفاهیم اساسی پشت مدلهای زبانی بزرگ، شامل مکانیزمهای توجه، ترنسفورمرها و معماریهای مدرن مانند DeepSeek، به صورت جزء به جزء بررسی خواهد شد. این دوره با کاوش در ایده اصلی مکانیزمهای توجه آغاز میشود که به مدلها اجازه میدهد بر روی مرتبطترین بخشهای متن ورودی تمرکز کنند و درک متنی را بهبود بخشند. سپس، به بررسی ترنسفورمرها، ستون فقرات مدلهای زبانی بزرگ، پرداخته میشود و تحلیل میشود که چگونه این مدلها پردازش موازی کارآمد متن را ممکن میسازند و منجر به عملکردی پیشرفته در پردازش زبان طبیعی (NLP) میشوند. همچنین، با توجه به خود (self-attention)، کدگذاریهای موقعیتی (positional encodings) و توجه چند سر (multi-head attention)، که اجزای کلیدی برای کمک به مدلها در درک وابستگیهای بلندمدت در متن هستند، آشنا خواهید شد. فراتر از اصول اولیه، DeepSeek، یک مدل متنباز پیشرفته که برای پیشبرد کارایی و عملکرد هوش مصنوعی طراحی شده است، مورد بررسی قرار میگیرد. در این بخش، بینشهایی در مورد چگونگی بهینهسازی مکانیزمهای توجه توسط DeepSeek و آنچه آن را به رقیبی قدرتمند برای سایر مدلهای زبانی بزرگ تبدیل میکند، به دست خواهید آورد.
در دوره آموزشی Introduction to LLMs Transformer,Attention, Deepseek pytorch با عملکرد مدلهای زبانی بزرگ (LLM) شامل ترنسفورمرها، مکانیزمهای توجه و مدل DeepSeek آشنا خواهید شد.