دانلود ها ی دارای تگ: "bigdata"
52 مورد برای عبارت مورد نظر پیدا شد.
52 مورد برای عبارت مورد نظر پیدا شد.
علم داده در مقیاسی گسترده و جهانی در حال گسترش و توسعه است. در همه جای جامعه، حرکتی برای پیادهسازی و استفاده از روشها و الگوریتمهای علم داده برای توسعه و بهینهسازی تمام جنبههای زندگی، کسبوکارها، جوامع، دولتها و کشورها وجود دارد. این دوره مجموعهای مفید از روشها و الگوریتمهای پیشرفته علم داده به همراه Pandas و Python را به شما آموزش میدهد. این دوره دارای محتوای انحصاری است که موارد جدیدی را در مورد روشها و الگوریتمها به شما آموزش میدهد.
در دوره آموزشی Advanced Data Science Methods and Algorithms با روش ها و الگوریتم های پیشرفته علم داده آشنا خواهید شد.
در دنیای داده محور امروزی، کسب و کارها با حجم عظیمی از اطلاعات که در سیستمهای مختلف، اعم از SAP و غیر SAP، پراکنده است، سروکار دارند. مدیریت، یکپارچهسازی و استخراج بینشهای معنادار از این منابع داده میتواند یک چالش باشد. این دوره یک رویکرد ساختاریافته برای مدیریت کارآمد دادهها ارائه میدهد و سازمانها را قادر میسازد تا فرآیندهای خود را بهینه کرده و تصمیمات بهتری بگیرند.
در دوره آموزشی SAP Data Intelligence Training با مدیریت و تحلیل داده های سازمانی آشنا خواهید شد.
این دوره آموزشی برای آموزش مهندسی داده در محیط Azure cloud طراحی شده است. این دوره شامل مباحثی از جمله SQL، data warehousing، Azure Data factory، Python programming، big data، Databricks، PySpark، Delta lake، Spark structured streaming و Azure devops می باشد. این دوره برای افرادی که می خواهند در زمینه مهندسی داده در Azure cloud فعالیت کنند، مناسب است.
در دوره آموزشی Azure Data Engineering End-to-end Course (English) با ابزار ها و تکنولوژی های مهندسی داده در محیط Azure cloud آشنا خواهید شد.
دوره بروزرسانی شد.
هادوپ یک نرم افزار کد باز (Open source) است که برای تقسیم بندی و توزیع فایل های متمرکز به کار می رود. هادوپ تحت لیسانس آپاچی (Apache) ارائه می شود و توسط جاوا برنامه نویسی شده است. امّا هادوپ چگونه به وجود آمد؟ شرکت گوگل در پی افزایش حجم تبادل اطلاعات، به دنبال راه حلّی برای افزایش سرعت و راندمان سرورهای خود بود که سیستم توزیع (Distribution) منحصر به فردی برای خود ابداع کرد به نام GFS که مخفف Google File System بود. در پی این موفقیت، انجمن توزیع Apache به فکر گسترش این تکنولوژی در سطح وسیع تری افتاد و سیستم هادوپ به وجود آمد. هادوپ یک فریم ورک یا مجموعه ای از نرم افزارها و کتابخانه هایی است که ساز و کار پردازش حجم عظیمی از داده های توزیع شده را فراهم می کند. در واقع Hadoop را می توان به یک سیستم عامل تشبیه کرد که طراحی شده تا بتواند حجم زیادی از داده ها را بر روی ماشین های مختلف پردازش و مدیریت کند. Apache Spark، یک چارچوب محاسباتی برای داده های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark میتواند در Yarn اجرا شود و با فرمت دادهای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه داده های بین کارها، در حافظه، شناخته می شود. این قابلیت Spark سبب می شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه داده های همیشه از دیسک بار می شوند، عمل کند.
در دوره آموزشی A Big Data Hadoop and Spark project for absolute beginners با آموزش مقدماتی بیگ دیتا هادوپ و اسپارک اشنا خواهید شد.
دوره بروزرسانی شد.
Apache Kafka یک پروژه متن باز message broker هست که توسط بنیان Apache به زبان scala نوشته شده است. این پروژه با هدف یکپارچه سازی و بازدهی بالا (high-throughput و low-latency) برای ساماندهی اطلاعات بلادرنگ (realtime) طراحی شده است. Apache Kafka در واقع اول توسط linkedin توسعه پیدا کرد تا زمانی که در سال ۲۰۱۱ به صورت متن باز درآمد. و بعد از تکمیل شدن توسط بنیان Apache مهندس هایی که روی این پروژه در linkedin کار میکردند با ثبت یک شرکت به نام Confluent با تمرکز روی Kafka آن را توسعه دادند.
در دوره آموزشی Apache Kafka Series - KSQL on ksqlDB for Stream Processing ! با آموزش آپاچی کافکا و کا اس کیو ال برای خواندن جریان اشنا خواهید شد.
Apache Spark ، یک چارچوب محاسباتی برای داده های عظیم است. Spark از MapReduce به عنوان موتور اجرای خود، استفاده نمی کند اما بخوبی با هادوپ یکپارچه است. در واقع Spark میتواند در Yarn اجرا شود و با فرمت دادهای هادوپ و HDFS کار کند. Spark بیشتر بخاطر توانایی نگهداشتن مجموعه داده های بین کارها، در حافظه، شناخته می شود. این قابلیت Spark سبب می شود تا سریعتر از جریان کاری MapReduce معادل که مجموعه داده های همیشه از دیسک بار می شوند، عمل کند. دو نوع کاربردی که از مدل پردازشی Spark بهره می برند، الگوریتم های تکرار شونده (که یک تابع بر روی مجموعه دادهای بهصورت تکراری تا حصول شرط خروج، اعمال میگردد، و تحلیل تعاملی(که یک کاربر مجموعه ای از پرس و جوهای اکتشافی تک کاره را بر روی مجموعه ای داده ها، اعمال می کنند) است. همچنین اسپارک APIهایی در زبانهای Java، Scala و Python، ارایه می کند. پروژه Apache Spark شامل ماژول های یادگیری ماشین(MLlib)، پردازش گراف (GraphX)، پردازش جریانی( (Spark Streaming)، و SQL (Spark SQL است.
در دوره آموزشی Big Data Analysis with Apache Spark PySpark: Hands on Python با آموزش آنالیز داده های حجیم با پای اسپارک اشنا خواهید شد.