این دوره آموزشی با محوریت کلان داده یا بیگ دیتا است که توسط اکادمی یودمی منتشر شده است. بیگ دیتا در واقع مجموعه ای بسیار حجیم از سه نوع داده مختلف یعنی داده های ساختار یافته، نیمه ساختار یافته و بدون ساختار است که توسط شرکت ها و موسسات مختلف برای اهداف خاصی جمع آوری می شود. از جمله مهم ترین کاربرد های بیگ دیتا می توان در حوزه های یادگیری ماشین، ساخت مدل های پیش بینی کننده و سایر آنالیز های تخصصی و پیشرفته اشاره کرد. امروز سیستم های مختلفی برای جمع آوری، ذخیره و پردازش داده های کلان به وجود آمده است و این سیستم ها به بخش بسیار مهمی از ساختار مدیریت داده شرکت های مختلف تبدیل شده است. این سیستم ها معمولا به یکسری ابزارهای تخصصی به منظور پردازش داده ها مجهز هستند. در دوره آموزشی Udemy Big Data Complete Course با آموزش داده های حجیم به صورت کامل اشنا خواهید شد.
این دوره یک مجموعه آموزشی کار با کلان داده ها است که در آن اصول مبانی روش های کار با کلان داده ها را در 6 دوره یاد خواهید گرفت. اگر شما هم نیاز دارید که کلان داده ها را درک کنید و بدانید چگونه بر کسب و کار موثر هستند، پس این دوره مناسب شماست. شما با گذراندن این دوره خواهید فهمید که کلان داده چه توانایی هایی دارد. شما همچنین برای گذراندن این دوره به تجربه برنامه نویسی قبلی نیاز ندارید. با استفاده از Hadoop MapReduce, Spark, Pig و Hive مفاهیم مقدماتی را یاد خواهید گرفت و پس از آن یاد خواهید گرفت چگونه مدل های پیشبینی کننده را اعمال کنید. در دوره آموزشی Coursera Big Data Specialization با آموزش دوره های داده های حجیم اشنا خواهید شد.
این دوره آموزش جامع کلان داده و ابزار ها و چارچوب های معروف آن نظیر Apache Spark ، Hadoop ، Sqoop ، Flume و Apache Hive است . در این دوره ابتدا با فایل سیستم توزیع یافته Hadoop و کاربرد آن آشنا شده و متداول ترین دستورات آن را فرا میگیرید . سپس نحوه ورود داده با استفاده از Sqoop ، چرخه حیات دستورات آن ، نحوه انتقال داده از Mysql به HDFS و Hive و استفاده از فرمت های مختلف فایلها ، فشرده سازی و کوئری ها آموزش داده میشود . علاوه بر آن ، دریافت خروجی از داده ها به کمک Sqoop ( از HDFS و Hive به Mysql ) را نیز یاد میگیرید . در دوره آموزشی Udemy Master Big Data - Apache Spark/Hadoop/Sqoop/Hive/Flume با آموزش تسلط بر داده های حجیم اشنا خواهید شد.
Apache Spark ، یک چارچوب محاسباتی برای داده های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark میتواند در Yarn اجرا شود و با فرمت دادهای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه داده های بین کارها، در حافظه، شناخته می شود. این قابلیت Spark سبب می شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه داده های همیشه از دیسک بار می شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می برند، الگوریتم های تکرار شونده (که یک تابع بر روی مجموعه دادهای بصورت تکراری تا حصول شرط خروج، اعمال میگردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده ها، اعمال می کنند) است. همچنین اسپارک APIهایی در زبانهای Java، Scala و Python، ارایه می کند. پروژه Apache Spark شامل ماژول های یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است. در دوره آموزشی Udemy Big Data Analysis with Apache Spark PySpark: Hands on Python با آموزش آنالیز داده های حجیم با پای اسپارک اشنا خواهید شد.
با ورود به عصر اطلاعات و ارتباطات و آغاز استفاده از داده ها و اطلاعات به
عنوان سرمایه های اصلی در حرکت علمی، اقتصادی، اجتماعی و فرهنگی جوامع،
سازمان ها و شرکت های مختلف و توسعه مشارکت افراد در جهان اینترنت و
ارتباطات شبکه ای در دنیا، دغدغه ای بروز پیدا کرد که از جنس همین داده
هایی بود که همه روز و با سرعت وحشتناک در دنیا و در عرصه های مختلفی که
فناوری اطلاعات ورود پیدا کرده بود، تولید می شود و آن اینکه چگونه این حجم
بزرگ و متنوع داده ها و اطلاعات را با توجه به ساختار هایی که در فضای
فناوری اطلاعات وجود دارد، می توان مدیریت، کنترل و پردازش کرد و از آن در
جهت بهبود ساختارها و سودآوری بیشتر بهره جست؟ از سال 2012 به بعد در هر
روز هزار پتابایت (1000 Pebibyte) داده تولید می شود که به دنبال خود
مستلزم ذخیره سازی، تحلیل، جستجوها، تمیزکاری داده ها، اشتراک ها و... در
داده هاست که باید در حوزه مختلف انجام شود. داده های بزرگ معمولا به مجمعه
از داده ها اطلاق می شود که اندازه آنها فراتر از حدی است که با نرم
افزارهای معمول بتوان آنها را در یک زمان معقول اخذ، دقیق سازی، مدیریت و
پردازش کرد (Snijders, 2012). مفهوم «اندازه» در داده های بزرگ بطور مستمر
در حال تغییر است و به مرور بزرگتر می شود. داده های بزرگ مجموعه از تکنیک
ها و تاکتیک هایی است که نیازمند شکل جدیدی از یکپارچگی هستند تا بتوانند
ارزش های بزرگی را که در مجموعه های بزرگ، وسیع، پیچیده و متنوع داده پنهان
شده اند، آشکار سازند. در دوره Livelessons Working with Big Data LiveLessons (Video Training): Infrastructure, Algorithms, and Visualizations با آموزش کار با داده های حجیم، زیرساخت، الگوریتم ها و تجسم ها آشنا می شوید.
داده های عظیم، ابر داده، بزرگداده یا داده های بزرگ (Big Data) اصطلاحی است که به مجموعه داده هایی اطلاق میشود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرمافزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونههایی از بزرگ داده، گــزارش های وبی، سامانه های بازشناسی با امواج رادیویی، شبکههای حسگر، شبکههای اجتماعی، متون و اسناد اینترنتی، نمایههای جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهشهای زمینشناسی و تجارت در مقیاس بزرگ هستند. در دوره آموزشی Packt Hands-On PySpark for Big Data Analysis با آموزش مقدماتی پای اسپارک برای آنالیز داده های حجیم آشنا می شوید.
داده های عظیم، ابر داده، بزرگداده یا داده های بزرگ (Big Data) اصطلاحی است که به مجموعه داده هایی اطلاق میشود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرمافزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونههایی از بزرگ داده، گــزارش های وبی، سامانه های بازشناسی با امواج رادیویی، شبکههای حسگر، شبکههای اجتماعی، متون و اسناد اینترنتی، نمایههای جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهشهای زمینشناسی و تجارت در مقیاس بزرگ هستند. هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. در دوره آموزشی Udemy Bigdata and Hadoop [Scalebyte] با هادوپ و داده های حجیم آشنا می شوید.
داده های عظیم، ابر داده، بزرگداده یا داده های بزرگ (Big Data) اصطلاحی است که به مجموعه داده هایی اطلاق میشود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرمافزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونههایی از بزرگ داده، گــزارش های وبی، سامانه های بازشناسی با امواج رادیویی، شبکههای حسگر، شبکههای اجتماعی، متون و اسناد اینترنتی، نمایههای جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهشهای زمینشناسی و تجارت در مقیاس بزرگ هستند. در دوره آموزشی Udemy Big Data Testing: 150+ Interview Questions and Answers با نحوه تجزیه و تحلیل داده های حجیم و تست آنها با ابزارهای مختلف آشنا می شوید.
داده های عظیم، ابر داده، بزرگداده یا داده های بزرگ (Big Data) اصطلاحی است که به مجموعه داده هایی اطلاق میشود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرمافزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونههایی از بزرگ داده، گــزارش های وبی، سامانه های بازشناسی با امواج رادیویی، شبکههای حسگر، شبکههای اجتماعی، متون و اسناد اینترنتی، نمایههای جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهشهای زمینشناسی و تجارت در مقیاس بزرگ هستند. در دوره آموزشی Packt Learning Path Big Data Analytics با نحوه تجزیه و تحلیل داده های حجیم با استفاده از هادوپ و آپاچی اسپارک 2 آشنا می شوید.
داده های عظیم، ابر داده، بزرگداده یا داده های بزرگ (Big Data) اصطلاحی است که به مجموعه داده هایی اطلاق میشود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرمافزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونههایی از بزرگ داده، گــزارش های وبی، سامانه های بازشناسی با امواج رادیویی، شبکههای حسگر، شبکههای اجتماعی، متون و اسناد اینترنتی، نمایههای جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهشهای زمینشناسی و تجارت در مقیاس بزرگ هستند. آپاچی اسپارک فعال ترین و بهترین پروژه آپاچی است که برای آنالیز داده های حجیم به کار می رود. در دوره آموزشی Packt Taming Big Data with Apache Spark and Python با اصول و موارد اساسی کار با داده های حجیم و آپاچی اسپارک آشنا می شوید.