دانلود ها ی دارای تگ: "bigdata"

17 مورد برای عبارت مورد نظر پیدا شد.

دانلود Udemy Big Data Complete Course - آموزش داده های حجیم به صورت کامل

  • بازدید: 3,328
دانلود Udemy Big Data Complete Course - آموزش داده های حجیم به صورت کامل
این دوره آموزشی با محوریت کلان داده یا بیگ دیتا است که توسط اکادمی یودمی منتشر شده است. بیگ دیتا در واقع مجموعه ای بسیار حجیم از سه نوع داده مختلف یعنی داده های ساختار یافته، نیمه ساختار یافته و بدون ساختار است که توسط شرکت ها و موسسات مختلف برای اهداف خاصی جمع آوری می شود. از جمله مهم ترین کاربرد های بیگ دیتا می توان در حوزه های یادگیری ماشین، ساخت مدل های پیش بینی کننده و سایر آنالیز های تخصصی و پیشرفته اشاره کرد. امروز سیستم های مختلفی برای جمع آوری، ذخیره و پردازش داده های کلان به وجود آمده است و این سیستم ها به بخش بسیار مهمی از ساختار مدیریت داده شرکت های مختلف تبدیل شده است. این سیستم ها معمولا به یکسری ابزارهای تخصصی به منظور پردازش داده ها مجهز هستند.
در دوره آموزشی Udemy Big Data Complete Course با آموزش داده های حجیم به صورت کامل اشنا خواهید شد.

دانلود Coursera Big Data Specialization - آموزش دوره های داده های حجیم

  • بازدید: 3,963
دانلود Coursera Big Data Specialization - آموزش دوره های داده های حجیم
این دوره یک مجموعه آموزشی کار با کلان داده ها است که در آن اصول مبانی روش های کار با کلان داده ها را در 6 دوره یاد خواهید گرفت. اگر شما هم نیاز دارید که کلان داده ها را درک کنید و بدانید چگونه بر کسب و کار موثر هستند، پس این دوره مناسب شماست. شما با گذراندن این دوره خواهید فهمید که کلان داده چه توانایی هایی دارد. شما همچنین برای گذراندن این دوره به تجربه برنامه نویسی قبلی نیاز ندارید. با استفاده از Hadoop MapReduce, Spark, Pig و Hive مفاهیم مقدماتی را یاد خواهید گرفت و پس از آن یاد خواهید گرفت چگونه مدل های پیشبینی کننده را اعمال کنید.
در دوره آموزشی Coursera Big Data Specialization با آموزش دوره های داده های حجیم اشنا خواهید شد.

دانلود Udemy Master Big Data - Apache Spark/Hadoop/Sqoop/Hive/Flume - آموزش تسلط بر داده های حجیم

  • بازدید: 2,653
دانلود Udemy Master Big Data - Apache Spark/Hadoop/Sqoop/Hive/Flume - آموزش تسلط بر داده های حجیم
این دوره آموزش جامع کلان داده و ابزار ها و چارچوب های معروف آن نظیر Apache Spark ، Hadoop ، Sqoop ، Flume و Apache Hive است . در این دوره ابتدا با فایل سیستم توزیع یافته Hadoop و کاربرد آن آشنا شده و متداول ترین دستورات آن را فرا می‌گیرید . سپس نحوه ورود داده با استفاده از Sqoop ، چرخه حیات دستورات آن ، نحوه انتقال داده از Mysql به HDFS و Hive و استفاده از فرمت های مختلف فایلها ، فشرده سازی و کوئری ها آموزش داده میشود . علاوه بر آن ، دریافت خروجی از داده ها به کمک Sqoop ( از HDFS و Hive به Mysql ) را نیز یاد می‌گیرید .
در دوره آموزشی Udemy Master Big Data - Apache Spark/Hadoop/Sqoop/Hive/Flume با آموزش تسلط بر داده های حجیم اشنا خواهید شد.

دانلود Udemy Data Science using Machine Learning Algorithm with Big Data - آموزش علوم داده با الگوریتم های یادگیری ماشین همراه با کلان داده

  • بازدید: 3,463
دانلود Udemy Data Science using Machine Learning Algorithm with Big Data - آموزش علوم داده با الگوری
علم داده (data science)، یک زمینه میان رشته‌ای است که از روش‌ها، فرآیندها، الگوریتم‌ها و سیستم‌های علمی برای استخراج دانش و بینش از داده‌ها در اشکال گوناگون (ساختار یافته و ساختار نیافته) استفاده می‌کند. چیزی مشابه داده‌کاوی! علم داده مفهومی برای یکپارچه‌سازی آمار، تحلیل داده، یادگیری ماشین و دیگر مفاهیم مرتبط تحت یک عنوان واحد است. این کار به منظور درک و تحلیل پدیده‌ها با استفاده از داده‌ها انجام می‌شود.
در دوره آموزشی Udemy Data Science using Machine Learning Algorithm with Big Data با آموزش علوم داده با الگوریتم های یادگیری ماشین همراه با کلان داده اشنا خواهید شد.

دانلود Udemy Big Data Analysis with Apache Spark PySpark: Hands on Python - آموزش آنالیز داده های حجیم با پای اسپارک

  • بازدید: 6,737
دانلود Udemy Big Data Analysis with Apache Spark PySpark: Hands on Python - آموزش آنالیز داده های حج
 Apache Spark ، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می­ برند، الگوریتم ­های تکرار شونده (که یک تابع بر روی مجموعه داده­ای بصورت تکراری تا حصول شرط خروج، اعمال می­گردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده­ ها، اعمال می­ کنند) است. همچنین اسپارک APIهایی در زبان­های Java، Scala و Python، ارایه می ­کند. پروژه Apache Spark شامل ماژول ­های یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است.
در دوره آموزشی Udemy Big Data Analysis with Apache Spark PySpark: Hands on Python با آموزش آنالیز داده های حجیم با پای اسپارک اشنا خواهید شد.

دانلود Working with Big Data LiveLessons (Video Training): Infrastructure, Algorithms, and Visualizations - آموزش کار با داده های حجیم: زیرساخت، الگوریتم ها و تجسم ها

  • بازدید: 5,007
دانلود Working with Big Data LiveLessons (Video Training): Infrastructure, Algorithms, and Visualiza
با ورود به عصر اطلاعات و ارتباطات و آغاز استفاده از داده ها و اطلاعات به عنوان سرمایه های اصلی در حرکت علمی، اقتصادی، اجتماعی و فرهنگی جوامع، سازمان ها و شرکت های مختلف و توسعه مشارکت افراد در جهان اینترنت و ارتباطات شبکه ای در دنیا، دغدغه ای بروز پیدا کرد که از جنس همین داده هایی بود که همه روز و با سرعت وحشتناک در دنیا و در عرصه های مختلفی که فناوری اطلاعات ورود پیدا کرده بود، تولید می شود و آن اینکه چگونه این حجم بزرگ و متنوع داده ها و اطلاعات را با توجه به ساختار هایی که در فضای فناوری اطلاعات وجود دارد، می توان مدیریت، کنترل و پردازش کرد و از آن در جهت بهبود ساختارها و سودآوری بیشتر بهره جست؟
از سال 2012 به بعد در هر روز هزار پتابایت (1000 Pebibyte) داده تولید می شود که به دنبال خود مستلزم ذخیره سازی، تحلیل، جستجوها، تمیزکاری داده ها، اشتراک ها و... در داده هاست که باید در حوزه مختلف انجام شود. داده های بزرگ معمولا به مجمعه از داده ها اطلاق می شود که اندازه آنها فراتر از حدی است که با نرم افزارهای معمول بتوان آنها را در یک زمان معقول اخذ، دقیق سازی، مدیریت و پردازش کرد (Snijders, 2012). مفهوم «اندازه» در داده های بزرگ بطور مستمر در حال تغییر است و به مرور بزرگتر می شود. داده های بزرگ مجموعه از تکنیک ها و تاکتیک هایی است که نیازمند شکل جدیدی از یکپارچگی هستند تا بتوانند ارزش های بزرگی را که در مجموعه های بزرگ، وسیع، پیچیده و متنوع داده پنهان شده اند، آشکار سازند.
در دوره Livelessons Working with Big Data LiveLessons (Video Training): Infrastructure, Algorithms, and Visualizations با آموزش کار با داده های حجیم، زیرساخت، الگوریتم ها و تجسم ها آشنا می شوید.

دانلود Udemy Hands on Big Data with Apache Hadoop, Python and HDInsight - آموزش کار با داده های عظیم با آپاچی هادوپ، پایتون و اچ دی اینسایت

  • بازدید: 4,798
دانلود Udemy Hands on Big Data with Apache Hadoop, Python and HDInsight - آموزش کار با داده های عظیم
 داده‌ های عظیم، ابر داده، بزرگ‌داده یا داده‌ های بزرگ (Big Data) اصطلاحی است که به مجموعه داده‌ هایی اطلاق می‌شود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرم‌افزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ‌ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونه‌هایی از بزرگ‌ داده، گــزارش‌ های وبی، سامانه‌ های بازشناسی با امواج رادیویی، شبکه‌های حسگر، شبکه‌های اجتماعی، متون و اسناد اینترنتی، نمایه‌های جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهش‌های زمین‌شناسی و تجارت در مقیاس بزرگ هستند. هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند.
در دوره آموزشی Udemy Hands on Big Data with Apache Hadoop, Python and HDInsight با آموزش کار با داده های عظیم با آپاچی هادوپ، پایتون و اچ دی اینسایت آشنا می شوید.

دانلود Packt Hands-On PySpark for Big Data Analysis - آموزش مقدماتی پای اسپارک برای آنالیز داده های حجیم

  • بازدید: 4,146
دانلود Packt Hands-On PySpark for Big Data Analysis - آموزش مقدماتی پای اسپارک برای آنالیز داده های
داده‌ های عظیم، ابر داده، بزرگ‌داده یا داده‌ های بزرگ (Big Data) اصطلاحی است که به مجموعه داده‌ هایی اطلاق می‌شود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرم‌افزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ‌ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونه‌هایی از بزرگ‌ داده، گــزارش‌ های وبی، سامانه‌ های بازشناسی با امواج رادیویی، شبکه‌های حسگر، شبکه‌های اجتماعی، متون و اسناد اینترنتی، نمایه‌های جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهش‌های زمین‌شناسی و تجارت در مقیاس بزرگ هستند.
در دوره آموزشی Packt Hands-On PySpark for Big Data Analysis با آموزش مقدماتی پای اسپارک برای آنالیز داده های حجیم آشنا می شوید.

دانلود Udemy Bigdata and Hadoop [Scalebyte] - آموزش کار با هادوپ و داده های حجیم

  • بازدید: 5,953
دانلود Udemy Bigdata and Hadoop [Scalebyte] - آموزش کار با هادوپ و داده های حجیم
داده‌ های عظیم، ابر داده، بزرگ‌داده یا داده‌ های بزرگ (Big Data) اصطلاحی است که به مجموعه داده‌ هایی اطلاق می‌شود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرم‌افزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ‌ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونه‌هایی از بزرگ‌ داده، گــزارش‌ های وبی، سامانه‌ های بازشناسی با امواج رادیویی، شبکه‌های حسگر، شبکه‌های اجتماعی، متون و اسناد اینترنتی، نمایه‌های جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهش‌های زمین‌شناسی و تجارت در مقیاس بزرگ هستند. هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند.
در دوره آموزشی Udemy Bigdata and Hadoop [Scalebyte] با هادوپ و داده های حجیم آشنا می شوید.

دانلود O'Reilly Legal Landscape for Big Data - آموزش چشم انداز حقوقی برای داده های بزرگ

  • بازدید: 8,158
دانلود O'Reilly Legal Landscape for Big Data - آموزش چشم انداز حقوقی برای داده های بزرگ
داده‌ های عظیم، ابر داده، بزرگ‌داده یا داده‌ های بزرگ (Big Data) اصطلاحی است که به مجموعه داده‌ هایی اطلاق می‌شود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرم‌افزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ‌ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونه‌هایی از بزرگ‌ داده، گــزارش‌ های وبی، سامانه‌ های بازشناسی با امواج رادیویی، شبکه‌های حسگر، شبکه‌های اجتماعی، متون و اسناد اینترنتی، نمایه‌های جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهش‌های زمین‌شناسی و تجارت در مقیاس بزرگ هستند.
در دوره آموزشی O'Reilly Legal Landscape for Big Data با چشم انداز حقوقی برای داده های بزرگ آشنا می شوید.