دانلود ها ی دارای تگ: "spark"

6 مورد برای عبارت مورد نظر پیدا شد.

دانلود Building a Modern Data Warehouse - Data Engineering Bootcamp - آموزش ساخت انبار داده مدرن

  • بازدید: 120
دانلود Building a Modern Data Warehouse - Data Engineering Bootcamp - آموزش ساخت انبار داده مدرن

با این دوره آموزشی، متخصص انبار داده شوید: در زمینه‌های ETL، SQL و مدل‌سازی داده با پروژه‌های واقعی سازمانی و راهنمایی متخصصان، مهارت کسب کنید! این دوره که به طور خاص برای مهندسان داده مشتاق، تحلیلگران داده، افرادی که قصد تغییر شغل دارند و متخصصانی که به دنبال مهارت‌های پیشرفته هستند طراحی شده است، به شما کمک می‌کند تا به نتایج شغلی واقعی دست یابید؛ نتایجی مانند به دست آوردن مشاغل پردرآمد، انتقال شغلی روان و آمادگی برای مصاحبه‌های شغلی.  این دوره آموزشی جامع، افراد را برای تبدیل شدن به متخصصان انبار داده آماده می‌کند و مهارت‌های کلیدی در زمینه‌های ETL، SQL و مدل‌سازی داده را از طریق پروژه‌های عملی سازمانی و راهنمایی‌های تخصصی ارائه می‌دهد.
در دوره آموزشی Building a Modern Data Warehouse - Data Engineering Bootcamp با مفاهیم و ابزارهای مرتبط با انبار داده آشنا خواهید شد.

دانلود Data Lake Fundamentals - آموزش مبانی دیتا لیک

  • بازدید: 374
دانلود Data Lake Fundamentals - آموزش مبانی دیتا لیک

در دنیای امروزی که بر پایه داده بنا شده است، سازمان‌ها حجم بسیار زیادی از داده‌ها را جمع‌آوری و ذخیره می‌کنند. Data Lake ها به عنوان یک جزء حیاتی در این اکوسیستم داده ظهور کرده‌اند. دوره Data Lake Fundamentals برای این طراحی شده است که شما را با دانش و مهارت‌های ضروری برای حرکت در دنیای Data Lake ها مجهز کند. چه یک متخصص داده با تجربه باشید، چه یک دانشمند داده مشتاق، یا یک رهبر کسب‌وکار که می‌خواهد از داده برای تصمیم‌گیری‌های استراتژیک استفاده کند، این دوره برای پاسخگویی به نیازهای شما تنظیم شده است. در این دوره، شرکت‌کنندگان با مفاهیم بنیادی Data Lake ها آشنا می‌شوند و تفاوت آن‌ها را با راهکارهای سنتی ذخیره‌سازی داده درک خواهند کرد. آن‌ها یاد خواهند گرفت که چگونه داده‌ها را با استفاده از روش‌های مختلف، از جمله پردازش دسته‌ای (batch processing) و جریان داده بی‌درنگ (real-time streaming)، به یک Data Lake وارد کنند (ingest). همچنین، دنیای فرمت‌های داده و راهکارهای ذخیره‌سازی، از جمله فرمت‌های فایل محبوب و سیستم‌های ذخیره‌سازی مورد بررسی قرار خواهد گرفت. بخش مهم دیگری از دوره به آماده‌سازی، پاک‌سازی و تبدیل داده‌ها (data transformation) در یک Data Lake برای انجام تحلیل‌های معنادار اختصاص دارد. شرکت‌کنندگان هنر پرس و جو (querying) و تحلیل داده‌های ذخیره شده در Data Lake ها را با استفاده از SQL، Apache Hive و سایر ابزارها فرا خواهند گرفت. در نهایت، جنبه‌های حیاتی حکمرانی داده (data governance)، امنیت (security) و انطباق (compliance) در محیط‌های Data Lake مورد بحث و بررسی قرار خواهد گرفت تا شرکت‌کنندگان بتوانند Data Lake های ایمن و قابل اعتمادی را مدیریت کنند.
در دوره آموزشی Data Lake Fundamentals با مفاهیم کلیدی و نحوه کار با Data Lake ها آشنا خواهید شد.

دانلود Udemy Learn Spark and Hadoop Overnight on GCP - آموزش اسپارک و هادوپ

  • بازدید: 4,244
دانلود Udemy Learn Spark and Hadoop Overnight on GCP - آموزش اسپارک و هادوپ
Apache Spark ، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم ­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای بصورت تکراری تا حصول شرط خروج، اعمال می­گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده­ ها، اعمال می­ کنند) است. همچنین اسپارک APIهایی در زبان­های Java، Scala و Python، ارایه می ­کند. پروژه Apache Spark شامل ماژول ­های یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است. هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند.
در دوره آموزشی Udemy Learn Spark and Hadoop Overnight on GCP با اسپارک و هادوپ آشنا می شوید.

دانلود Lynda Spark for Machine Learning and AI - آموزش اسپارک برای یادگیری ماشین و هوش مصنوعی

  • بازدید: 7,389
دانلود Lynda Spark for Machine Learning and AI - آموزش اسپارک برای یادگیری ماشین و هوش مصنوعی
Apache Spark، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. به عنوان یکی از شاخه‌های وسیع و پرکاربرد هوش مصنوعی، یادگیری ماشینی (Machine learning) به تنظیم و اکتشاف شیوه‌ها و الگوریتم‌هایی می‌پردازد که بر اساس آنها رایانه‌ها و سامانه‌ها توانایی تعلٌم و یادگیری پیدا می‌کنند. هدف یادگیری ماشین این است که کامپیوتر (در کلی‌ترین مفهوم آن) بتواند به تدریج و با افزایش داده‌ها کارایی بهتری در انجام وظیفهٔ مورد نظر پیدا کند.
در دوره آموزشی Lynda Spark for Machine Learning and AI با اسپارک برای یادگیری ماشین و هوش مصنوعی آشنا می شوید.

دانلود Packt From 0 to 1 : Spark for Data Science with Python - آموزش کامل اسپارک و پایتون برای علوم داده

  • بازدید: 22,124
دانلود Packt From 0 to 1 : Spark for Data Science with Python - آموزش کامل اسپارک و پایتون برای علوم
Apache Spark، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم ­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای بصورت تکراری تا حصول شرط خروج، اعمال می­گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده­ ها، اعمال می­ کنند) است. همچنین اسپارک APIهایی در زبان­های Java، Scala و Python، ارایه می ­کند. پروژه Apache Spark شامل ماژول ­های یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است.
در دوره آموزشی Packt From 0 to 1: Spark for Data Science with Python با آپاچی اسپارک و پایتون برای علوم داده آشنا می شوید.

دانلود Udemy Big Data Analytics with Apache Spark and Python - آموزش آنالیز داده های حجیم با آپاچی اسپارک و پایتون

  • بازدید: 17,411
دانلود Udemy Big Data Analytics with Apache Spark and Python - آموزش آنالیز داده های حجیم با آپاچی ا
داده‌ های عظیم، ابر داده، بزرگ‌داده یا داده‌ های بزرگ (Big Data) اصطلاحی است که به مجموعه داده‌ هایی اطلاق می‌شود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرم‌افزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ‌ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونه‌هایی از بزرگ‌ داده، گــزارش‌ های وبی، سامانه‌ های بازشناسی با امواج رادیویی، شبکه‌های حسگر، شبکه‌های اجتماعی، متون و اسناد اینترنتی، نمایه‌های جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهش‌های زمین‌شناسی و تجارت در مقیاس بزرگ هستند. آپاچی اسپارک فعال ترین و بهترین پروژه آپاچی است که برای آنالیز داده های حجیم به کار می رود. در دوره آموزشی Udemy Big Data Analytics with Apache Spark and Python با اصول و موارد اساسی کار با داده های حجیم و آپاچی اسپارک آشنا می شوید.