دانلود ها ی دارای تگ: "آپاچی اسپارک"

9 مورد برای عبارت مورد نظر پیدا شد.

دانلود Python, Databricks & Apache Spark: Complete ETL Engineering آموزش پایتون، دیتابریکس و آپاچی اسپارک

دانلود Python, Databricks & Apache Spark: Complete ETL Engineering - آموزش پایتون، دیتابریکس و آپاچی

پایتون به عنوان یکی از منعطف‌ترین و پرکاربردترین زبان‌های برنامه‌نویسی در حوزه مهندسی و تحلیل داده شناخته می‌شود. اکوسیستم غنی این زبان، شامل کتابخانه‌های محبوبی نظیر Pandas ،PySpark و NumPy، به متخصصان اجازه می‌دهد تا داده‌ها را با سرعت بالا پردازش کرده، حجم کاری را خودکارسازی کنند و سیستم‌های ETL مقیاس‌پذیری را ایجاد نمایند که توانایی مدیریت حجم عظیم اطلاعات را داشته باشند. از سوی دیگر، دیتا‌بریکس به عنوان یک پلتفرم یکپارچه برای تحلیل و مهندسی داده معرفی می‌شود که جهت ساده‌سازی فرآیندهای داده‌های حجیم (Big Data) و یادگیری ماشین توسعه یافته است. این پلتفرم که بر پایه آپاچی اسپارک بنا شده، محیطی بهینه برای ایجاد خطوط لوله ETL با کارایی بالا فراهم می‌کند. شرکت‌کنندگان در این دوره می‌آموزند که چگونه از نوت‌بوک‌های مشارکتی استفاده کنند و حاکمیت داده‌ها را در سطح سازمانی با ابزارهایی مانند Unity Catalog مدیریت نمایند.
این دوره آموزشی تمام دانش لازم برای تبدیل شدن به یک متخصص مهندسی داده را در اختیار کاربران قرار می‌دهد. آموزش‌ها با استفاده از نمودارهای بصری، مثال‌های کاربردی و پروژه‌های واقعیِ توسعه خط لوله ETL همراه است تا مفاهیم به عمیق‌ترین شکل ممکن منتقل شوند. در طول این مسیر، از مراحل اولیه ورود داده‌ها تا پاکسازی، تغییر شکل و در نهایت بارگذاری آن‌ها در مخازن داده، به صورت گام‌به‌گام بررسی خواهد شد.
در دوره آموزشی Python, Databricks & Apache Spark: Complete ETL Engineering با اصول طراحی و اجرای فرآیندهای مهندسی داده آشنا خواهید شد.

دانلود Complete Guide to Databricks for Data Engineering آموزش دیتابریکس

دانلود Complete Guide to Databricks for Data Engineering - آموزش دیتابریکس

این دوره آموزشی برای تبدیل شدن به یک مهندس داده حرفه‌ای در Databricks طراحی شده است. شرکت‌کنندگان در این دوره، با راهنمایی‌های مربی، Deepak Goyal، نحوه دیباگ کردن، پردازش و تحلیل حجم عظیمی از داده‌ها و ساختن راه‌حل‌های مقیاس‌پذیر را به صورت عمیق فرا خواهند گرفت. این دوره به بررسی دقیق نحوه عملکرد پلتفرم Databricks می‌پردازد. شرکت‌کنندگان با PySpark transformation و Spark SQL در Databricks، همچنین نحوه خواندن و نوشتن DataFrame در Databricks آشنا خواهند شد. علاوه بر این، موضوعاتی مانند Delta Lake، join optimizations، notebook scheduling، cluster management، workflows و موارد دیگر نیز در این دوره پوشش داده می‌شوند.
در دوره آموزشی Complete Guide to Databricks for Data Engineering با مهندسی داده با پلتفرم Databricks آشنا خواهید شد.

دانلود Udemy Apache Spark Project for Beginners: A Complete Project Guide آموزش کامل مقدماتی آپاچی اسپارک

دانلود Udemy Apache Spark Project for Beginners: A Complete Project Guide - آموزش کامل مقدماتی آپاچی
Apache Spark ، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم ­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای به‌صورت تکراری تا حصول شرط خروج، اعمال می­گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده­ ها، اعمال می­ کنند) است. همچنین اسپارک APIهایی در زبان­های Java، Scala و Python، ارایه می ­کند. پروژه Apache Spark شامل ماژول ­های یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است.
در دوره آموزشی Udemy Apache Spark Project for Beginners: A Complete Project Guide با آموزش کامل مقدماتی آپاچی اسپارک اشنا خواهید شد.

دانلود Udemy Apache Spark for Java Developers آموزش آپاچی اسپارک برای توسعه دهندگان جاوا

دانلود Udemy Apache Spark for Java Developers - آموزش آپاچی اسپارک برای توسعه دهندگان جاوا
Apache Spark ، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم ­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای به‌صورت تکراری تا حصول شرط خروج، اعمال می­گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده­ ها، اعمال می­ کنند) است. همچنین اسپارک APIهایی در زبان­های Java، Scala و Python، ارایه می ­کند. پروژه Apache Spark شامل ماژول ­های یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است.
در دوره آموزشی Udemy Apache Spark for Java Developers با آموزش آپاچی اسپارک برای توسعه دهندگان جاوا اشنا خواهید شد.

دانلود Udemy Complete Apache Spark Course آموزش کامل آپاچی اسپارک

دانلود Udemy Complete Apache Spark Course - آموزش کامل آپاچی اسپارک
Apache Spark ، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم ­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای به‌صورت تکراری تا حصول شرط خروج، اعمال می­گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده­ ها، اعمال می­ کنند) است. همچنین اسپارک APIهایی در زبان­های Java، Scala و Python، ارایه می ­کند. پروژه Apache Spark شامل ماژول ­های یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است.
در دوره آموزشی Udemy Complete Apache Spark Course با آپاچی اسپارک و ویژگی های آن آشنا می شوید.

دانلود Udemy Apache Spark with Scala - Learn Spark from a Big Data Guru آموزش آپاچی اسپارک و اسکالا برای داده های حجیم

دانلود Udemy Apache Spark with Scala - Learn Spark from a Big Data Guru - آموزش آپاچی اسپارک و اسکال
Apache Spark، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم ­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای به‌صورت تکراری تا حصول شرط خروج، اعمال می­گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده­ ها، اعمال می­ کنند) است. اسکالا (Scala) یک زبان برنامه‌نویسی شیءگرا و تابعی است. نام اسکالا آمیزه‌ای است از "scalable" و "language" به معنی زبان مقایس‌پذیر، از اهداف اصلی ایجاد زبان اسکالا، ارائه زبانی است برای تولید نرم‌افزار مقیاس‌پذیر به روشی چابک و سریع، و به دور از مشکلات مرسوم. اسکالا تلفیق زبان‌های شی‌گرا همچون روبی و جاوا با زبان‌های تابعی همچون Haskell و Erlang است. از نقطه نظر چابکی و کارایی، عده‌ای اسکالا را جمع دو دنیای زبان‌های پویا (Dynamic-Type) و ایستا (Static-Type) می‌دانند.
در دوره آموزشی Udemy Apache Spark with Scala - Learn Spark from a Big Data Guru به معرفی آپاچی اسپارک و اسکالا برای داده های حجیم می پردازیم. 

دانلود Packt Apache Spark with Scala آموزش آپاچی اسپارک با اسکالا

دانلود Packt Apache Spark with Scala - آموزش آپاچی اسپارک با اسکالا
Apache Spark، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم ­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای به‌صورت تکراری تا حصول شرط خروج، اعمال می­گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده­ ها، اعمال می­ کنند) است. اسکالا (Scala) یک زبان برنامه‌نویسی شیءگرا و تابعی است. نام اسکالا آمیزه‌ای است از "scalable" و "language" به معنی زبان مقایس‌پذیر، از اهداف اصلی ایجاد زبان اسکالا، ارائه زبانی است برای تولید نرم‌افزار مقیاس‌پذیر به روشی چابک و سریع، و به دور از مشکلات مرسوم. اسکالا تلفیق زبان‌های شی‌گرا همچون روبی و جاوا با زبان‌های تابعی همچون Haskell و Erlang است. از نقطه نظر چابکی و کارایی، عده‌ای اسکالا را جمع دو دنیای زبان‌های پویا (Dynamic-Type) و ایستا (Static-Type) می‌دانند.
در دوره آموزشی Packt Apache Spark with Scala به معرفی آپاچی اسپارک و اسکالا می پردازیم.

دانلود Lynda Apache Spark Essential Training آموزش آپاچی اسپارک

دانلود Lynda Apache Spark Essential Training - آموزش آپاچی اسپارک
Apache Spark ، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم ­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای به‌صورت تکراری تا حصول شرط خروج، اعمال می­گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده­ ها، اعمال می­ کنند) است. همچنین اسپارک APIهایی در زبان­های Java، Scala و Python، ارایه می ­کند. پروژه Apache Spark شامل ماژول ­های یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است.
در دوره آموزشی Lynda Apache Spark Essential Training با آپاچی اسپارک و ویژگی های آن آشنا می شوید.

دانلود O'Reilly Learning Path: Getting Up and Running with Apache Spark آموزش شروع کار با آپاچی اسپارک

دانلود O'Reilly Learning Path: Getting Up and Running with Apache Spark - آموزش شروع کار با آپاچی اس
Apache Spark ، یک چارچوب محاسباتی برای داده­ های عظیم است. Spark از MapReduce به عنوان موتور اجرای خودش، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگه داشتن مجموعه ­های داده­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ های داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای به‌صورت تکراری تا حصول شرط خروج، اعمال می­ گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه­ی داده­ای، اعمال می­ کنند) است. همچنین اسپارک APIهایی در زبان­های Java، Scala و Python، ارایه می­ کند. پروژه Apache Spark شامل ماژول­ هایی یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است.
در دوره آموزشی O'Reilly Learning Path: Getting Up and Running with Apache Spark با آپاچی اسپارک و امکانات آن آشنا می شوید.