دانلود ها ی دارای تگ: "hadoop"

11 مورد برای عبارت مورد نظر پیدا شد.

دانلود Data Lake Fundamentals - آموزش مبانی دیتا لیک

  • بازدید: 374
دانلود Data Lake Fundamentals - آموزش مبانی دیتا لیک

در دنیای امروزی که بر پایه داده بنا شده است، سازمان‌ها حجم بسیار زیادی از داده‌ها را جمع‌آوری و ذخیره می‌کنند. Data Lake ها به عنوان یک جزء حیاتی در این اکوسیستم داده ظهور کرده‌اند. دوره Data Lake Fundamentals برای این طراحی شده است که شما را با دانش و مهارت‌های ضروری برای حرکت در دنیای Data Lake ها مجهز کند. چه یک متخصص داده با تجربه باشید، چه یک دانشمند داده مشتاق، یا یک رهبر کسب‌وکار که می‌خواهد از داده برای تصمیم‌گیری‌های استراتژیک استفاده کند، این دوره برای پاسخگویی به نیازهای شما تنظیم شده است. در این دوره، شرکت‌کنندگان با مفاهیم بنیادی Data Lake ها آشنا می‌شوند و تفاوت آن‌ها را با راهکارهای سنتی ذخیره‌سازی داده درک خواهند کرد. آن‌ها یاد خواهند گرفت که چگونه داده‌ها را با استفاده از روش‌های مختلف، از جمله پردازش دسته‌ای (batch processing) و جریان داده بی‌درنگ (real-time streaming)، به یک Data Lake وارد کنند (ingest). همچنین، دنیای فرمت‌های داده و راهکارهای ذخیره‌سازی، از جمله فرمت‌های فایل محبوب و سیستم‌های ذخیره‌سازی مورد بررسی قرار خواهد گرفت. بخش مهم دیگری از دوره به آماده‌سازی، پاک‌سازی و تبدیل داده‌ها (data transformation) در یک Data Lake برای انجام تحلیل‌های معنادار اختصاص دارد. شرکت‌کنندگان هنر پرس و جو (querying) و تحلیل داده‌های ذخیره شده در Data Lake ها را با استفاده از SQL، Apache Hive و سایر ابزارها فرا خواهند گرفت. در نهایت، جنبه‌های حیاتی حکمرانی داده (data governance)، امنیت (security) و انطباق (compliance) در محیط‌های Data Lake مورد بحث و بررسی قرار خواهد گرفت تا شرکت‌کنندگان بتوانند Data Lake های ایمن و قابل اعتمادی را مدیریت کنند.
در دوره آموزشی Data Lake Fundamentals با مفاهیم کلیدی و نحوه کار با Data Lake ها آشنا خواهید شد.

دانلود Udemy SQL, NoSQL, Big Data and Hadoop - آموزش اس کیو ال، نو اس کیو ال، بیگ دیتا و هادوپ

  • بازدید: 5,187
دانلود Udemy SQL, NoSQL, Big Data and Hadoop - آموزش اس کیو ال، نو اس کیو ال، بیگ دیتا و هادوپ
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. Apache Spark، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند.
در دوره آموزشی Udemy SQL, NoSQL, Big Data and Hadoop با آموزش اس کیو ال، نو اس کیو ال، بیگ دیتا و هادوپ اشنا خواهید شد.

دانلود Udemy A Big Data Hadoop and Spark project for absolute beginners - آموزش مقدماتی بیگ دیتا هادوپ و اسپارک

  • بازدید: 4,700
دانلود Udemy A Big Data Hadoop and Spark project for absolute beginners - آموزش مقدماتی بیگ دیتا هاد
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. Apache Spark، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند.
در دوره آموزشی Udemy A Big Data Hadoop and Spark project for absolute beginners با آموزش مقدماتی بیگ دیتا هادوپ و اسپارک اشنا خواهید شد.

دانلود Udemy Hadoop Administration: Online Hadoop Admin Training - آموزش مدیریت هادوپ

  • بازدید: 3,815
دانلود Udemy Hadoop Administration: Online Hadoop Admin Training - آموزش مدیریت هادوپ
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند.
در دوره آموزشی Udemy Hadoop Administration: Online Hadoop Admin Training به شرح و توضیح ویژگی ها و امکانات مدیریت هادوپ می پردازیم.

دانلود Livelessons Hadoop and Spark Fundamentals - آموزش اصول و مبانی هادوپ و اسپارک

  • بازدید: 7,975
دانلود Livelessons Hadoop and Spark Fundamentals - آموزش اصول و مبانی هادوپ و اسپارک
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. Apache Spark، یک چارچوب محاسباتی برای داده ­های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی­ کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark می­تواند در Yarn اجرا شود و با فرمت داده­ای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه ­داده ه­ای بین کارها، در حافظه، شناخته می­ شود. این قابلیت Spark سبب می­ شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه­ داده­ های همیشه از دیسک بار می­ شوند، عمل کند.
در دوره آموزشی Livelessons Hadoop and Spark Fundamentals با اصول و مبانی هادوپ و اسپارک آشنا می شوید.

دانلود Packt Learn By Example - Hadoop, MapReduce for Big Data problems - آموزش هادوپ و مپ ریداک برای مشکل های داده های حجیم همراه با مثال

  • بازدید: 7,751
دانلود Packt Learn By Example - Hadoop, MapReduce for Big Data problems - آموزش هادوپ و مپ ریداک برا
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. MapReduce، یک مدل برنامه نویسی ساده است که برای حل مسائل محاسباتی در مقیاس وسیع و نیز به صورت توزیعی، مورد استفاده قرار می‌گیرد. مفهوم MapReduce توسط گوگل در سال ۲۰۰۳ توسعه داده شد و ارائه شد MapReduce یک چارچوب نرم‌افزاری است که بستری امن و مقیاس پذیر برای توسعه کاربردهای توزیعی فراهم میکند.MapReduce، به زبان‌های مختلف پیاده‌سازی شده است.
در دوره آموزشی Packt Learn By Example - Hadoop, MapReduce for Big Data problems با هادوپ و مپ ریداک برای مشکل های داده های حجیم همراه با مثال آشنا می شوید.

دانلود Packt The Ultimate Hands-on Hadoop - آموزش کامل هادوپ

  • بازدید: 11,791
دانلود Packt The Ultimate Hands-on Hadoop - آموزش کامل هادوپ
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند.
در دوره آموزشی Packt The Ultimate Hands-on Hadoop با هادوپ و ویژگی های آن آشنا می شوید.

دانلود O'Reilly Learning Path: Hadoop, 2nd Edition - آموزش هادوپ، ویرایش دوم

  • بازدید: 13,720
دانلود O'Reilly Learning Path: Hadoop, 2nd Edition - آموزش هادوپ، ویرایش دوم
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند.
در دوره آموزشی O'Reilly Learning Path: Hadoop, 2nd Edition با ویرایش دوم آموزش هادوپ و ویژگی های آن آشنا می شوید.

دانلود O'Reilly Introduction to Hadoop Security - آموزش مقدماتی امنیت در هدوپ

  • بازدید: 8,520
دانلود O'Reilly Introduction to Hadoop Security - آموزش مقدماتی امنیت در هدوپ
هدوپ توسط Doug Cutting سازنده Apache Lucene که بصورت گسترده برای عمیات جستجوی متن ها استفاده می شود، تولید شد. در حقیقت به وجود آمدن هدوپ از کار بر روی Nutch شروع شد. Apache Nutch یک فریم ورک متن باز برای ایجاد موتور جستجو است که بصورت گسترده ، عملیات جستجوی متن ها را به روشی که خزیدن یا Crawling نام گرفت انجام می دهد. ایده اولیه هدوپ اولین بار در شركت گوگل رقم خورد اما خیلی ها باور به پیاده سازی این سیستم نداشتن و در چند سال اول این ایده تنها بصورت تئوری مطرح بود. هدوپ امكان ذخیره سازی اطلاعات را در چندین سرور (پی سی) با هزینه ای پایین فراهم می آورد. تكنولوژی هدوپ از دو بخش كلی اچ دی اف اس یا سیستم فایل انتشاری هدوپ (Hadoop Distribition File System) و همچنین تكنیك با كیفیت پردازی اطلاعات به نام مپ ریدیوس (MapReduce) استفاده می كند. داده‌ های عظیم، ابر داده، بزرگ‌داده یا داده‌ های بزرگ (Big Data) اصطلاحی است که به مجموعه داده‌ هایی اطلاق می‌شود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرم‌افزاری در یک زمان قابل تحمل و مورد انتظار است.
در دوره آموزشی O'Reilly Introduction to Hadoop Security با مباحث مقدماتی امنیت در هدوپ آشنا می شوید.

دانلود Udemy Become a Certified Hadoop Developer - آموزش توسعه هادوپ

  • بازدید: 9,961
دانلود Udemy Become a Certified Hadoop Developer - آموزش توسعه هادوپ
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند.
در دوره آموزشی Udemy Become a Certified Hadoop Developer به شرح و توضیح ویژگی ها و امکانات هادوپ می پردازیم.