Hướng dẫn Apache Spark
Apache Spark là một máy tính cụm nhanh như chớp được thiết kế để tính toán nhanh chóng. Nó được xây dựng dựa trên Hadoop MapReduce và nó mở rộng mô hình MapReduce để sử dụng hiệu quả hơn các loại tính toán bao gồm Truy vấn tương tác và Xử lý luồng. Đây là một hướng dẫn ngắn gọn giải thích các kiến thức cơ bản về lập trình Spark Core.
Hướng dẫn này đã được chuẩn bị cho các chuyên gia mong muốn tìm hiểu kiến thức cơ bản về Phân tích dữ liệu lớn bằng cách sử dụng Spark Framework và trở thành Nhà phát triển Spark. Ngoài ra, nó cũng sẽ hữu ích cho các Chuyên gia Analytics và các nhà phát triển ETL.
Trước khi bạn bắt đầu tiếp tục với hướng dẫn này, chúng tôi giả định rằng bạn đã từng tiếp xúc với lập trình Scala, các khái niệm cơ sở dữ liệu và bất kỳ phiên bản hệ điều hành Linux nào.