Mục tiêu nghiên cứu
Mục tiêu chính của luận văn là khảo sát thực trạng Big Data và phân tích dữ liệu từ Big Data trong các công ty kiểm toán tại Việt Nam Để hoàn thành mục tiêu này, luận văn đề xuất một số mục tiêu nghiên cứu cụ thể nhằm làm rõ hơn về ứng dụng và hiệu quả của Big Data trong lĩnh vực kiểm toán.
Thứ nhất, hệ thống hóa lý luận cơ bản về ảnh hưởng của Big Data đến quá trình phân tích dữ liệu kiểm toán
Thứ hai, đánh giá thực trạng ảnh hưởng của Big Data và phân tích dữ liệu kiểm toán đến các doanh nghiệp kiểm toán của Việt Nam
Để nâng cao khả năng ứng dụng Big Data và phân tích dữ liệu trong kiểm toán, cần đề xuất các phương hướng và giải pháp cụ thể Việc tích hợp công nghệ phân tích dữ liệu tiên tiến sẽ giúp cải thiện chất lượng kiểm toán, tăng cường độ chính xác và hiệu quả trong việc phát hiện rủi ro Đồng thời, đào tạo nhân lực về kỹ năng phân tích dữ liệu cũng là một yếu tố quan trọng để đảm bảo các chuyên gia kiểm toán có thể khai thác tối đa tiềm năng của Big Data.
Câu hỏi nghiên cứu
Để đạt được những mục tiêu đề ra, nghiên cứu cần trả lời những câu hỏi sau:
- Thế nào là Big Data và phân tích dữ liệu kiểm toán?
- Các doanh nghiệp kiểm toán của Việt Nam hiện nay đang sử dụng Big Data và phân tích dữ liệu như thế nào?
- Giải pháp nào được đưa ra để vận dụng tốt nhất Big Data và phân tích dữ liệu trong quá trình kiểm toán?
Phương pháp nghiên cứu
Để đạt được mục tiêu nghiên cứu và trả lời các câu hỏi đã đặt ra, nghiên cứu này chủ yếu áp dụng phương pháp định tính, đồng thời kết hợp với phương pháp phân tích và tổng hợp.
- Phương pháp phân tích tổng hợp: khái quát lý thuyết về các vấn đề nghiên cứu và các nghiên cứu có liên quan
Phương pháp định tính được áp dụng để thu thập và hệ thống hóa thông tin từ các nguồn uy tín, bao gồm nghiên cứu của hiệp hội nghề nghiệp và các công ty kiểm toán lớn toàn cầu Tác giả sử dụng thống kê mô tả, thông qua bảng câu hỏi, để thu thập dữ liệu, sau đó tiến hành thống kê, so sánh và phân tích nhằm đánh giá việc áp dụng Big Data và phân tích dữ liệu kiểm toán trong hoạt động kiểm toán độc lập tại các doanh nghiệp kiểm toán ở Việt Nam.
Những đóng góp khoa học và thực tiễn của luận văn
Trong bài viết này, chúng tôi sẽ khám phá các khái niệm và quan điểm liên quan đến Big Data và phân tích dữ liệu, đồng thời đánh giá những lợi ích và thách thức khi áp dụng Big Data trong kiểm toán tại các công ty kiểm toán độc lập Việc hiểu rõ những khía cạnh này sẽ giúp các kiểm toán viên (KTV) tận dụng tối đa tiềm năng của Big Data trong quá trình làm việc.
Nghiên cứu trong luận văn này sẽ cung cấp những giá trị tham khảo thiết thực cho các kiểm toán viên (KTV) và các công ty kiểm toán độc lập (KTĐL) tại Việt Nam, giúp họ hiểu rõ hơn về Big Data và phân tích dữ liệu Bên cạnh đó, những giải pháp được đề xuất trong nghiên cứu sẽ hỗ trợ ứng dụng Big Data và phân tích dữ liệu một cách hiệu quả, từ đó nâng cao chất lượng kiểm toán.
Kết cấu của luận văn
Ngoài phần mở đầu, nghiên cứu được thiết kế gồm 3 chương:
Chương 1: Tổng quan về Big Data và phân tích dữ liệu trong kiểm toán
Chương 1 tóm tắt các khía cạnh quan trọng của Big Data và phân tích dữ liệu, đồng thời đề cập đến các nghiên cứu mới nhất liên quan đến hai lĩnh vực này.
Chương 2: Thực trạng ảnh hưởng của Big Data và phân tích dữ liệu kiểm toán tại các doanh nghiệp kiểm toán của Việt Nam
Chương 2 trình bày số liệu chi tiết về tình hình nhận thức và ứng dụng Big Data cũng như phân tích dữ liệu trong các doanh nghiệp kiểm toán Qua đó, bài viết chỉ ra những lợi ích và thách thức mà các doanh nghiệp này đang gặp phải, đồng thời phân tích nguyên nhân của các vấn đề liên quan đến Big Data và phân tích dữ liệu.
Chương 3: Giải pháp nâng cao tính hữu ích của Big Data và phân tích dữ liệu kiểm toán tại các doanh nghiệp kiểm toán của Việt Nam
Chương này trình bày quan điểm tổng quát về các giải pháp nhằm nâng cao chất lượng kiểm toán, sau đó đi sâu vào các giải pháp cụ thể và hỗ trợ liên quan đến Big Data và phân tích dữ liệu.
TỔNG QUAN VỀ BIG DATA VÀ PHÂN TÍCH DỮ LIỆU
Big Data
1.1.1 Tóm lược một số thay đổi trong dữ liệu
Big Data và phân tích dữ liệu hiện nay đóng vai trò trung tâm trong khoa học và kinh doanh hiện đại, với dữ liệu được tạo ra từ nhiều nguồn như giao dịch trực tuyến, email, video, âm thanh, hình ảnh, cú nhấp chuột, blog, truy vấn tìm kiếm, hồ sơ sức khỏe, và tương tác trên mạng xã hội Những dữ liệu này được lưu trữ trong các nền tảng cơ sở dữ liệu đang phát triển mạnh, khiến việc nắm bắt, lưu trữ, quản lý, chia sẻ, phân tích và hình dung trở nên khó khăn hơn với các phần mềm cơ sở dữ liệu truyền thống.
Đến năm 2003, con người đã tạo ra 5 exabytes dữ liệu, nhưng hiện nay lượng thông tin này có thể được sản xuất chỉ trong hai ngày Năm 2012, dữ liệu số toàn cầu đạt 2.72 zettabytes và dự kiến sẽ tăng gấp đôi sau mỗi hai năm, với khoảng 8 zettabytes vào năm 2015 Theo IBM, mỗi ngày có 2.5 exabytes dữ liệu được tạo ra, tương đương với 90% dữ liệu trong hai năm qua Để lưu trữ toàn bộ dữ liệu thế giới, sẽ cần khoảng 20 tỷ máy tính cá nhân, mỗi máy chứa khoảng 500 gigabytes Quá trình giải mã bộ gen con người trước đây mất 10 năm, giờ chỉ còn dưới một tuần Dữ liệu đa phương tiện dự kiến tăng 70% vào năm 2013 Google hiện sở hữu hơn một triệu máy chủ toàn cầu Với hơn 6 tỷ thuê bao điện thoại di động, hơn một tỷ tin nhắn được gửi mỗi ngày Dự báo đến năm 2020, sẽ có 50 tỷ thiết bị kết nối với mạng và internet.
Năm 2012, Big Data đã đạt được hình thái dữ liệu toàn cầu với dự án thu thập, hình dung và phân tích khối lượng lớn dữ liệu Theo thống kê, Facebook có 955 triệu tài khoản hoạt động hàng tháng, với 140 tỷ hình ảnh được tải lên và 30 tỷ nội dung được đăng mỗi ngày Mỗi phút, có 48 giờ video được tải lên YouTube, tạo ra 4 tỷ lượt xem hàng ngày Google giám sát 7.2 tỷ trang web mỗi ngày và xử lý 20 petabyte dữ liệu dịch sang 66 ngôn ngữ Twitter ghi nhận khoảng 1 tỷ Tweets sau mỗi 72 giờ từ hơn 140 triệu người dùng Dự báo rằng trong thập kỷ tới, khối lượng thông tin sẽ tăng gấp bội.
50 lần, tuy nhiên số lượng các chuyên gia về công nghệ thông tin theo kịp với tiến độ phát triển đó chỉ tăng 1.5 lần (C Tankard et al., 2012)
Hình 1.1: Số lượng tài khoản Facebook trên thế giới vào 06/2017 1.1.2 Big Data
1.1.2.1 Các vấn đề quan trọng
Big Data là thuật ngữ chỉ các bộ dữ liệu đa dạng và phức tạp, gây khó khăn trong việc lưu trữ, phân tích và hiển thị Các đặc trưng chính của Big Data bao gồm sự đa dạng (variety), tốc độ (velocity) và dung lượng (volume) (Intel IT Center, 2012).
Sự đa dạng của Big Data tạo nên nguồn dữ liệu khổng lồ, bao gồm ba loại chính: có cấu trúc, bán cấu trúc và không có cấu trúc Dữ liệu có cấu trúc được tổ chức trong kho dữ liệu, dễ dàng sắp xếp và phân tích, trong khi dữ liệu không có cấu trúc thường ngẫu nhiên và khó xử lý Dữ liệu bán cấu trúc chứa các phần tử dữ liệu riêng biệt, không phù hợp với các lĩnh vực cố định, góp phần làm phong phú thêm bức tranh tổng thể của Big Data.
Dung lượng dữ liệu hiện nay đã vượt qua terabytes và petabytes, cho thấy quy mô lớn và sự gia tăng dữ liệu vượt xa khả năng của các kỹ thuật phân tích và lưu trữ truyền thống.
Tốc độ đề cập đến vận tốc mà dữ liệu được tạo ra và xử lý, nhằm đáp ứng các nhu cầu và thách thức trong quá trình tăng trưởng và phát triển.
Cụ thể từng thành phần được minh họa như sau:
Hình 1.2: Ba thành phần đặt trưng cấu thành Big Data
Dưới áp lực từ sự phát triển của thông tin, việc xác minh nguồn dữ liệu trở thành một vấn đề quan trọng, đặc biệt khi khó kiểm soát các nguồn dữ liệu lớn Để tạo ra giá trị gia tăng cho tổ chức, các chuyên gia quản lý cần chú ý đến một số vấn đề được nêu trong nghiên cứu của TDWI – Transforming Data with Intelligence (P Russom, 2011).
Sau khi áp dụng các hình thức phân tích Big Data, doanh nghiệp có thể đạt được nhiều lợi ích đáng kể như cải thiện chiến lược marketing, nâng cao hiểu biết về hoạt động kinh doanh, mở rộng các phân khúc khách hàng, và ghi nhận sự thay đổi tích cực trong doanh thu cũng như vị thế trên thị trường.
Trong quá trình phân tích Big Data, người dùng thường gặp phải nhiều rào cản như thiếu chuyên môn, chi phí cao, khó khăn trong thiết kế hệ thống phân tích và thiếu phần mềm cơ sở cần thiết Mặc dù Big Data mang lại cơ hội lớn cho việc phân tích toàn diện trong hiện tại và tương lai, nhưng cũng đặt ra thách thức lớn về khả năng tiếp cận và quản lý.
Big Data hiện nay được lưu trữ và sử dụng thông qua các kỹ thuật tiên tiến, bao gồm dữ liệu có cấu trúc, bán cấu trúc, phức hợp, dữ liệu sự kiện và không cấu trúc.
Khi chuyển đổi nền tảng phân tích, có thể gặp phải một số vấn đề như không tương thích với khối lượng dữ liệu lớn, không hỗ trợ các mô hình phân tích cần thiết, tốc độ tải dữ liệu chậm và công nghệ thông tin không theo kịp nhu cầu.
Nghiên cứu cho thấy phân tích Big Data cần được chú trọng hơn nữa, không chỉ vì tính đa dạng, dung lượng lớn và tốc độ vượt trội mà còn vì tiềm năng tạo ra những hiểu biết mới giúp tối ưu hóa quyết định Big Data không chỉ dành cho các doanh nghiệp lớn; "big" ở đây không chỉ đề cập đến số lượng mà còn đến độ sâu của phân tích Điều quan trọng là doanh nghiệp cần biết cách khai thác và phân tích dữ liệu để mang lại lợi ích tối ưu cho hoạt động của mình Hình 1.2 minh họa dự báo doanh thu toàn cầu cho ngành công nghiệp Big Data và phân tích kinh doanh từ 2015-2020 (tỷ đô la Mỹ) theo thống kê của Statistics Portal.
Hình 1.3: Doanh thu dự báo từ Big Data và phân tích kinh doanh toàn thế giới từ năm 2015 đến 2020 (tỷ đô la Mỹ)
1.1.2.2 Những yếu tố tạo nên Big Data
Theo ICAEW (2015), xu hướng Big Data được thúc đẩy bởi ba yếu tố chính: năng lực tính toán, nguồn dữ liệu mới và cơ sở hạ tầng để tạo ra dữ liệu Những yếu tố này đã góp phần tạo ra những tiến bộ đáng kể trong việc hình thành và phát triển Big Data.
Năng lực tính toán là yếu tố cốt lõi của Big Data, thể hiện qua sự tăng trưởng mạnh mẽ về khả năng tính toán và lưu trữ trong những năm gần đây Điều này cho phép thu thập và xử lý toàn bộ bộ dữ liệu, bất kể kích thước và độ phức tạp, được mô tả như sự gia tăng theo cấp số nhân trong năng lực tính toán.
Các nghiên cứu về Big Data và phân tích dữ liệu kiểm toán
1.3.1 Các nghiên cứu về Big Data trong kiểm toán
Mối quan tâm về Big Data trong lĩnh vực kiểm toán đang gia tăng, với việc sử dụng phân tích dữ liệu ngày càng phổ biến trong các lĩnh vực kinh doanh Điều này đặt ra nhiều câu hỏi cho kiểm toán viên (KTV), như liệu có nên phát triển các phương pháp phân tích mới trong kiểm toán hay không, và phương pháp nào là hiệu quả nhất Các trường hợp cụ thể nào trong quá trình kiểm toán có thể áp dụng các phương pháp này? Liệu có cần thay đổi các chuẩn mực kiểm toán để tạo điều kiện thuận lợi cho việc áp dụng các phương pháp mới? Ngoài ra, KTV có cần tìm hiểu và báo cáo thêm thông tin không, và họ cần có năng lực gì để thích nghi với môi trường mới này?
Các mối quan tâm hiện nay liên quan đến việc nhiều hệ thống làm việc của khách hàng tích hợp với các đám mây, Internet of Things (IoT) và các nguồn dữ liệu bên ngoài như mạng xã hội, dẫn đến khối lượng và tốc độ dữ liệu khách hàng rất lớn và đa dạng về cấu trúc Dữ liệu này có thể xuất phát từ cảm biến, video, âm thanh và văn bản trên các nền tảng truyền thông xã hội Mặc dù nguồn dữ liệu này mang lại nhiều cơ hội vô hạn cho các nghiên cứu phân tích hiện có, Big Data thực sự mở ra nhiều cơ hội cho kiểm toán viên tiến hành kiểm toán hiệu quả và chất lượng hơn trong môi trường dữ liệu lớn.
Sự kết nối ngày càng tăng giữa các thiết bị cá nhân và Internet vạn vật với hệ thống nội bộ doanh nghiệp đã thúc đẩy sự phát triển của phần cứng và phần mềm hiệu quả hơn so với các hệ thống truyền thống Các phương pháp phân tích dữ liệu như hồi quy có thể được tích hợp vào chip phần mềm, cung cấp kết quả và đề xuất cho người dùng Tiến bộ trong công nghệ như nhận dạng giọng nói và xử lý văn bản đã giảm độ trễ thông tin, khiến các báo cáo truyền thống trở nên kém ý nghĩa trong thế giới đo lường thời gian thực Big Data, bao gồm dữ liệu cấu trúc, bán cấu trúc và không có cấu trúc từ cả bên trong và bên ngoài doanh nghiệp, sẽ thay đổi cách thức cạnh tranh và hoạt động của doanh nghiệp Các doanh nghiệp biết cách khai thác dữ liệu sẽ có lợi thế hơn so với đối thủ Tuy nhiên, KTV cần thảo luận về tiêu chuẩn chứng cứ kế toán trong bối cảnh Big Data, và tìm cách phân tích khối lượng lớn dữ liệu này, đồng thời xem xét liệu dữ liệu lớn có thể bù đắp cho dữ liệu không chắc chắn hay chất lượng thấp hay không Trong trường hợp nguồn dữ liệu không đáng tin cậy, các chứng minh kế toán hiện tại cho thấy không có giá trị nào có thể bù đắp cho dữ liệu thiếu giá trị và không đáng tin cậy.
Gian lận trong môi trường Big Data là một thách thức lớn đối với đội ngũ kiểm toán viên (KTV) Sự phức tạp của Big Data làm tăng khó khăn trong việc đánh giá bằng chứng kiểm toán liên quan đến gian lận Việc phát hiện gian lận cần tập trung vào việc đánh giá hệ thống kiểm soát nội bộ, mặc dù công nghệ hiện nay cho phép xử lý 100% giao dịch Tuy nhiên, bất kể hệ thống kiểm soát có hiệu quả đến đâu, vẫn có khả năng xảy ra gian lận, do khối lượng và sự phức tạp của Big Data có thể làm cản trở việc xác định rủi ro này.
Trong môi trường Big Data, việc đo lường số lượng và chất lượng bằng chứng kiểm toán trở nên phức tạp hơn, đòi hỏi các kiểm toán viên (KTV) phải đánh giá lại các tiêu chuẩn về bằng chứng kiểm toán để phù hợp với công nghệ số Mục tiêu của kiểm toán độc lập là đảm bảo rằng báo cáo tài chính không chứa sai sót trọng yếu, do đó KTV cần thiết kế và thực hiện các thủ tục nhằm thu thập bằng chứng đầy đủ và thích hợp Tuy nhiên, trong bối cảnh Big Data, chất lượng bằng chứng trở nên quan trọng hơn số lượng, với những thách thức từ bằng chứng điện tử, như khó khăn trong việc truy nguyên nguồn gốc và độ tin cậy So với bằng chứng giấy, bằng chứng điện tử dễ thay đổi và khó phát hiện, yêu cầu KTV có trình độ chuyên môn cao hơn để đánh giá Do đó, việc sửa đổi các tiêu chuẩn quy định về độ tin cậy của bằng chứng điện tử là cần thiết để đảm bảo tính đầy đủ và thích hợp trong quá trình thu thập bằng chứng.
1.3.2 Các nghiên cứu về phân tích dữ liệu kiểm toán
Trong kỷ nguyên Big Data, các chuyên gia kiểm toán đang khám phá cách tận dụng dữ liệu lớn để nâng cao quy trình kiểm toán Họ đầu tư vào phân tích dữ liệu nhằm mở rộng phạm vi kiểm toán, cho phép kiểm toán viên (KTV) truy cập toàn bộ hệ thống sổ sách và cơ sở dữ liệu của công ty, thay vì chỉ một số mẫu giao dịch Sự chuyển mình này từ phương pháp kiểm toán truyền thống sang phân tích dữ liệu cho phép KTV xem xét 100% giao dịch, phát hiện các bất thường và dấu vết kiểm toán Các công ty kiểm toán lớn như Big4 đang đầu tư vào công nghệ phân tích dữ liệu để cải thiện chất lượng kiểm toán, giảm rủi ro và nâng cao hiệu suất Deloitte & Touche, ví dụ, tiếp cận phân tích dữ liệu từ Big Data qua ba khía cạnh: kiểm tra bộ dữ liệu lớn, thúc đẩy trí thông minh nhân tạo để phát hiện gian lận và tìm kiếm dữ liệu liên quan từ nhiều nguồn khác nhau Mặc dù công nghệ không thay thế KTV, nhưng nó giúp loại bỏ công việc thủ tục, tăng cường kiểm tra dữ liệu và cung cấp thông tin giá trị hơn cho quá trình kiểm toán.
- Phân tích tất cả dữ liệu trong tổng thể, phân tầng cho tổng thể và xác định các ngoại lệ để kiểm tra thêm;
- Thực hiện lại các tính toán liên quan đến BCTC;
- Khớp các giao dịch khi chúng đi qua chu trình xử lý;
- Hỗ trợ phân chia nhiệm vụ kiểm tra;
- So sánh dữ liệu phân tích với dữ liệu bên ngoài thu được;
- Vận dụng dữ liệu để đánh giá tác động của các giả định khác nhau
Theo đánh giá của FRC, nhiều kỹ thuật phân tích dữ liệu trong kiểm toán báo cáo tài chính (BCTC) vẫn chưa được áp dụng hiệu quả Cụ thể, các phương pháp như giám sát kiểm soát liên tục, đo điểm chuẩn dữ liệu giữa các khách hàng kiểm toán ở cấp độ giao dịch, và phân tích dữ liệu phi cấu trúc (bao gồm phân tích tự động nội dung email và tài liệu văn bản) cần được triển khai rộng rãi hơn.
Một dạng phân tích quan trọng mà KTV cần chú ý là phân tích doanh nghiệp (BA – Business Analytics), giúp sử dụng dữ liệu, công nghệ thông tin, và các phương pháp phân tích thống kê để hỗ trợ nhà quản lý trong việc hiểu rõ hoạt động của doanh nghiệp và đưa ra quyết định dựa trên thực tế Theo các nghiên cứu, BA được chia thành ba loại khác nhau.
Phân tích mô tả không chỉ cung cấp cái nhìn về những sự kiện đã xảy ra trong quá khứ, mà còn mang lại giá trị thực sự qua khả năng dự đoán tương lai Điều này cho phép chúng ta hiểu "những gì sẽ xảy ra" và xác định "những gì nên làm" dựa trên dữ liệu hiện có cùng với lợi thế công nghệ.
Phân tích dự đoán là quá trình giúp hiểu và đưa ra những dự đoán về tương lai bằng cách xác định các mẫu từ dữ liệu trong quá khứ Qua đó, chúng ta có thể nhận định điều gì sẽ xảy ra, thời điểm cụ thể và lý do phía sau những biến động đó.
Phân tích theo quy trình, hay còn gọi là phân tích nguyên tắc, đóng vai trò quan trọng trong việc xác định lựa chọn tối ưu nhằm giải quyết các kết quả dự đoán thông qua các kỹ thuật tối ưu hóa Với loại hình phân tích này, công nghệ sẽ hỗ trợ trong việc xác định phương pháp thực tiễn hoặc cách tiếp cận hiệu quả để thực hiện.
KTV cần chú trọng đến phân tích kinh doanh (BA) vì nó ảnh hưởng đến cả nội bộ doanh nghiệp và là kỹ thuật được nhiều công ty lớn áp dụng Sự lựa chọn kỹ thuật của khách hàng phụ thuộc vào kỳ vọng về quy trình phân tích và loại dữ liệu; khi mong đợi cao và nguồn dữ liệu đa dạng, khối lượng lớn, khả năng phân tích theo quy trình và phân tích dự đoán sẽ tăng lên Đối với nhà quản lý, BA được sử dụng để đưa ra dự báo cho quyết định quản lý, nâng cao hiệu quả hoạt động doanh nghiệp, trong khi KTV nội bộ dùng BA để xác minh tính chính xác của thông tin KTV độc lập áp dụng BA để xác nhận các thông tin trên báo cáo tài chính Khi khách hàng kiểm toán sử dụng BA, KTV có thể áp dụng các kỹ thuật như phân tích xu hướng, phân tích tỷ lệ và đọc lướt, miễn là họ hài lòng với kết quả đạt được (Glover et al, 2014).
Sự phát triển nhanh chóng của công nghệ đã tạo ra nhiều thách thức trong kiểm toán, đặc biệt liên quan đến dữ liệu Để đảm bảo chất lượng kiểm toán, các kiểm toán viên (KTV) cần nắm vững các thủ tục phân tích theo quy định của các chuẩn mực kiểm toán tại Việt Nam và quốc tế Bước đầu tiên trong quá trình phân tích dữ liệu là hiểu rõ số liệu để đạt được sự nhất quán trong thời gian, công việc và kết quả dự báo Việc chú trọng vào phân tích dữ liệu và Big Data sẽ giúp KTV đưa ra những ý kiến kiểm toán trung thực và hợp lý hơn.
Theo Stewart (2015), phân tích dữ liệu kiểm toán là quá trình xem xét các dữ liệu cơ bản trong báo cáo tài chính, kết hợp với thông tin tài chính và phi tài chính liên quan, nhằm mục đích phát hiện các rủi ro tiềm ẩn hoặc những rủi ro có thể dẫn đến sai sót trọng yếu.
Năm 2014, đã có đề xuất về việc áp dụng phân tích dữ liệu trong kiểm toán nhằm phát hiện các rủi ro tiềm ẩn Liu (2014) và Stewart (2015) nhấn mạnh rằng phân tích dữ liệu là yếu tố thiết yếu trong quy trình kiểm toán và cần được quy định trong các chuẩn mực kiểm toán.