دانلود ها ی دارای تگ: "آموزش پروژه محور"
2 مورد برای عبارت مورد نظر پیدا شد.
2 مورد برای عبارت مورد نظر پیدا شد.
عبارات منظم یا همان Regex، اغلب به عنوان مبحثی گیجکننده و دشوار برای تسلط کامل شناخته میشوند. بسیاری از برنامهنویسان در مواجهه با الگوهای پیچیده دچار سردرگمی میشوند، زیرا اکثر آموزشهای موجود صرفاً بر نحوه استفاده از این الگوها تمرکز دارند و تعداد بسیار کمی از آنها به توضیح این مطلب میپردازند که یک موتور عبارات منظم در واقع چگونه در لایههای زیرین و داخلی خود عمل میکند. این دوره آموزشی دقیقاً برای پر کردن این خلاء طراحی شده است تا دانشجو را از یک استفادهکننده صرف، به یک توسعهدهنده ابزار تبدیل کند.
در این دوره آموزشی، مدرس از سطح نوشتن الگوهای ساده فراتر رفته و دانشجو را در مسیر ساخت یک موتور کامل عبارات منظم (Regular Expression Engine) از صفر مطلق با استفاده از زبان برنامهنویسی پایتون همراهی میکند. این پروژه کاملاً عملی به شرکتکننده کمک میکند تا به درکی واقعی و عمیق از نحوه پردازش، تجزیه (Parsing) و تطبیق الگوهای متنی در پشت صحنه دست یابد. در واقع، هدف این است که ابهاماتی که همیشه پیرامون سرعت و کارایی سیستمهای پردازش متن وجود دارد، برطرف شود.
در دوره آموزشی Build Your Own Regex Engine from Scratch in Python با نحوه طراحی و پیادهسازی داخلی سیستمهای پردازش و تطبیق الگوهای متنی آشنا خواهید شد.
دوره بروزرسانی شد.
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. Apache Spark، یک چارچوب محاسباتی برای داده های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark میتواند در Yarn اجرا شود و با فرمت دادهای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه داده های بین کارها، در حافظه، شناخته می شود. این قابلیت Spark سبب می شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه داده های همیشه از دیسک بار می شوند، عمل کند.
در دوره آموزشی A Big Data Hadoop and Spark project for absolute beginners با آموزش مقدماتی بیگ دیتا هادوپ و اسپارک اشنا خواهید شد.