دانلود ها ی دارای تگ: "هدوپ"
5 مورد برای عبارت مورد نظر پیدا شد.
5 مورد برای عبارت مورد نظر پیدا شد.
با این دوره آموزشی، متخصص انبار داده شوید: در زمینههای ETL، SQL و مدلسازی داده با پروژههای واقعی سازمانی و راهنمایی متخصصان، مهارت کسب کنید! این دوره که به طور خاص برای مهندسان داده مشتاق، تحلیلگران داده، افرادی که قصد تغییر شغل دارند و متخصصانی که به دنبال مهارتهای پیشرفته هستند طراحی شده است، به شما کمک میکند تا به نتایج شغلی واقعی دست یابید؛ نتایجی مانند به دست آوردن مشاغل پردرآمد، انتقال شغلی روان و آمادگی برای مصاحبههای شغلی. این دوره آموزشی جامع، افراد را برای تبدیل شدن به متخصصان انبار داده آماده میکند و مهارتهای کلیدی در زمینههای ETL، SQL و مدلسازی داده را از طریق پروژههای عملی سازمانی و راهنماییهای تخصصی ارائه میدهد.
در دوره آموزشی Building a Modern Data Warehouse - Data Engineering Bootcamp با مفاهیم و ابزارهای مرتبط با انبار داده آشنا خواهید شد.
در دنیای امروزی که بر پایه داده بنا شده است، سازمانها حجم بسیار زیادی از دادهها را جمعآوری و ذخیره میکنند. Data Lake ها به عنوان یک جزء حیاتی در این اکوسیستم داده ظهور کردهاند. دوره Data Lake Fundamentals برای این طراحی شده است که شما را با دانش و مهارتهای ضروری برای حرکت در دنیای Data Lake ها مجهز کند. چه یک متخصص داده با تجربه باشید، چه یک دانشمند داده مشتاق، یا یک رهبر کسبوکار که میخواهد از داده برای تصمیمگیریهای استراتژیک استفاده کند، این دوره برای پاسخگویی به نیازهای شما تنظیم شده است. در این دوره، شرکتکنندگان با مفاهیم بنیادی Data Lake ها آشنا میشوند و تفاوت آنها را با راهکارهای سنتی ذخیرهسازی داده درک خواهند کرد. آنها یاد خواهند گرفت که چگونه دادهها را با استفاده از روشهای مختلف، از جمله پردازش دستهای (batch processing) و جریان داده بیدرنگ (real-time streaming)، به یک Data Lake وارد کنند (ingest). همچنین، دنیای فرمتهای داده و راهکارهای ذخیرهسازی، از جمله فرمتهای فایل محبوب و سیستمهای ذخیرهسازی مورد بررسی قرار خواهد گرفت. بخش مهم دیگری از دوره به آمادهسازی، پاکسازی و تبدیل دادهها (data transformation) در یک Data Lake برای انجام تحلیلهای معنادار اختصاص دارد. شرکتکنندگان هنر پرس و جو (querying) و تحلیل دادههای ذخیره شده در Data Lake ها را با استفاده از SQL، Apache Hive و سایر ابزارها فرا خواهند گرفت. در نهایت، جنبههای حیاتی حکمرانی داده (data governance)، امنیت (security) و انطباق (compliance) در محیطهای Data Lake مورد بحث و بررسی قرار خواهد گرفت تا شرکتکنندگان بتوانند Data Lake های ایمن و قابل اعتمادی را مدیریت کنند.
در دوره آموزشی Data Lake Fundamentals با مفاهیم کلیدی و نحوه کار با Data Lake ها آشنا خواهید شد.
دوره بروزرسانی شد.
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. Apache Spark، یک چارچوب محاسباتی برای داده های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark میتواند در Yarn اجرا شود و با فرمت دادهای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه داده های بین کارها، در حافظه، شناخته می شود. این قابلیت Spark سبب می شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه داده های همیشه از دیسک بار می شوند، عمل کند.
در دوره آموزشی A Big Data Hadoop and Spark project for absolute beginners با آموزش مقدماتی بیگ دیتا هادوپ و اسپارک اشنا خواهید شد.