Trang Chủ Cơ sở dữ liệu Phân tích dữ liệu quy mô lớn là gì? - định nghĩa từ techopedia

Phân tích dữ liệu quy mô lớn là gì? - định nghĩa từ techopedia

Mục lục:

Anonim

Định nghĩa - Phân tích dữ liệu quy mô lớn có nghĩa là gì?

Phân tích dữ liệu quy mô lớn là quá trình áp dụng các kỹ thuật phân tích dữ liệu cho một lượng lớn dữ liệu, điển hình là trong các kho dữ liệu lớn. Nó sử dụng các thuật toán, hệ thống và quy trình chuyên dụng để xem xét, phân tích và trình bày thông tin dưới dạng có ý nghĩa hơn đối với các tổ chức hoặc người dùng cuối.

Techopedia giải thích Phân tích dữ liệu quy mô lớn

Phân tích dữ liệu quy mô lớn là một thuật ngữ rộng bao gồm một loạt các công cụ và hệ thống khác nhau để xử lý dữ liệu lớn. Thông thường, phân tích dữ liệu quy mô lớn được thực hiện thông qua hai kỹ thuật phổ biến: hệ thống quản lý cơ sở dữ liệu song song (DBMS) hoặc hệ thống hỗ trợ MapReduce. Hệ thống DBMS song song yêu cầu dữ liệu nằm trong lược đồ được hỗ trợ DBMS, trong khi tùy chọn MapReduce hỗ trợ dữ liệu dưới mọi hình thức. Hơn nữa, dữ liệu được trích xuất hoặc phân tích trong phân tích dữ liệu quy mô lớn có thể được hiển thị dưới nhiều hình thức khác nhau, chẳng hạn như bảng, biểu đồ, số liệu và phân tích thống kê, tùy thuộc vào hệ thống phân tích.

Phân tích dữ liệu quy mô lớn là gì? - định nghĩa từ techopedia