5. Kiểm định giả thiết và tính độc lập / phụ thuộc của số liệu

Trở về Mục lục cuốn sách

Ở mục trước, bạn đã học các hiển thị số liệu, chủ yếu là số liệu kết quả từ những phép phân tích cơ bản đã đề cập trong Mục 3. Ở mục này, ta tiếp tục với những phương pháp phân tích tinh vi hơn. Một cách quan trọng để phân tích số liệu từ mô phỏng là để kiểm định các giả thiết liên quan đến kết quả. Giả thiết được kiểm định thường được gọi là giả thiết không H0. Các ví dụ về giả thiết không gồm có:

  • Trong một hệ thống giao thông, việc mở một tuyến đường mới sẽ làm giảm giá trị trung bình của thời gian đi, \overline{t}_{{\rm{}A}\to{\rm{}B}}, từ A → B xuống dưới một mức cần đạt được, tđích.
  • Trong một mạng lưới quen biết, mỗi sự thay đổi các thông lệ quy định gặp mặt giữa hai người sẽ làm thay đổi sự phân bố của số người mà mỗi cá nhân biết được.
  • Sự phân bố của các năng lượng mức số không trong nam châm phi trật tự thì tuân theo dạng phân bố Fisher-Tippett.
  • Trong một mô hình sinh thái, kích thước quần thể cáo thì phụ thuộc vào kích thước quần thể bọ hung.
  • Đối với một loại protein hòa tan trong nước tại nhiệt độ trong phòng, việc thêm một loại muối nhất định vào nước sẽ làm thay đổi cấu trúc của protein đó.


Bây giờ ta có thể mô hình hóa những vấn đề trên và dùng mô phỏng để giải đáp những câu hỏi đặt ra. Mục đích là tìm được những phương pháp để cho ta biết liệu rằng, theo các kết quả mô phỏng, ta nên chấp nhận một giả thiết không, hay bác bỏ nó. Sẽ không có phương pháp chung nào. Cách mà ta có thể kiểm định H0 phụ thuộc vào cách thiết lập giả thiết không. Trong bất kì trường hợp nào, kết quả của ta sẽ dựa vào một loạt những kết quả đo đạc, chẳng hạn như một mẫu các điểm số liệu độc lập nhau, {x0, x1, …, xn − 1}, nhận được một cách chính thức qua việc lấy mẫu từ biến ngẫu nhiêns {X0, X1, …, Xn − 1} (một lần nữa, ở đây tất cả đều được mô tả bởi cùng hàm phân bố FX). Để thu được một diễn giải thống kê chắc chắn, ta dùng một đại lượng kiểm định, vốn là một hàm của mẫu t = t(x0, x1, …, xn − 1). Dạng phân bố của nó miêu tả biến ngẫu nhiên T tương ứng. Điều này nghĩa là, bạn có thể dùng một ước lượng bất kì, vốn cũng là một hàm phụ thuộc vào mẫu, làm đại lượng kiểm định. Dù vậy, có nhiều đại lượng kiểm định không được dùng làm ước lượng.

Để hình dung được rằng đại lượng thống kê t như thế nào, bây giờ ta hãy xét đến những đại lượng kiểm định ứng với các ví dụ trên. Với trường hợp (A), hiển nhiên là ta có thể dùng trị trung bình mẫu. Nó phải được so sánh với giá trị ngưỡng. Quá trình được tiến hành cùng với diễn giải thống kê, để cho phép một giả thiết không được chấp nhận hoặc bác bỏ. Đối với (B), ta cần so sánh hai dạng phân bố số người quen biết trước và sau khi thay đổi. Việc so sánh hai dạng phân bố có thể tiến hành theo nhiều cách. Ta có thể chỉ cần so sánh một số mô-men nhất định, hoặc định nghĩa một “khoảng cách” giữa hai phân bố này dựa trên hiệu số về diện tích giữa các hàm phân bố, chẳng hạn. Đối với biến ngẫu nhiên rời rạc, hiệu số quân phương là đặc biệt thích hợp, từ đó dẫn đến phép kiểm định khi-bình phương, xem Mục 5.1. Đối với ví dụ (C), nhiệm vụ cũng tương tự so với (B), chỉ khác ở chỗ những kết quả quan sát được so sánh với một phân bố cho trước và các biến ngẫu nhiên tương ứng đều có dạng liên tục. Ở đây, một phương pháp dựa trên khoảng cách cực đại giữa hai hàm phân bố được sử dụng rộng rãi, đó là phép kiểm định Kolmogorov-Smirnov (KS) (xem Mục 5.2). Để kiểm định giả thiết (D), đồng nghĩa với việc kiểm tra sự độc lập thống kê, ta có thể ghi lại một histogram hai chiều của kích thước quần thể cáo và bọ hung. Các histogram này được so sánh với những phân bố trong đó cả hai quần thể được giả thiết là độc lập nhau, nghĩa là so sánh với tích của hai hàm phân bố một quần thể. Ở đây, một dạng khác của kiểm định khi-bình phương được áp dụng, xem Mục 5.3. Trong trường hợp (E), mẫu không phải là một tập hợp đơn thuần các số một chiều, mà kết quả mô phỏng là những cấu trúc của protein được cho bởi các véc-tơ 3N − chiều chứa những vị trí \vec{r}_i (i = 1, …, N) của N chất điểm. Ở đây, ta có thể giới thiệu một phương pháp nhằm so sánh hai cấu trúc protein \{\vec{r}_i^A\}, \{\vec{r}_i^B\} theo cách sau: Trước hết, ta “di chuyển” phân tử protein thứ hai về phía phân tử thứ nhất sao cho vị trí của các khối tâm hợp với nhau. Bước thứ hai, ta lần lượt xét các trục qua hai khối tâm và qua những nguyên tử trước đây. Ta xoay phân tử protein thứ hai quanh tâm khối của nó sao cho các trục này trở nên song song nhau. Bước thứ ba, phân tử protein thứ hai được xoay quan trục trên sao cho khoảng cách giữa hai nguyên tử cuối cùng của hai protein này đạt cực tiểu. Sau cùng, đối với những vị trí chuẩn –\{\vec{r}^{B\star}_i\} này, ta tính hiệu số bình phương của mọi cặp vị trí nguyên tử, d=\sum_i (\vec{r}^A_i-\vec{r}^{B\star}_i)^2 với vai trò là hàm kiểm định. Trong một phân tích thông kê, dạng phân bố của d ở một protein dao động nhiệt có thể được xác định thông qua mô phỏng rồi so sánh với giá trị trung bình quan sát được khi thay đổi các điều kiện. Ta sẽ không đi sâu vào vấn đề này ở đây.

Ý tưởng chung để kiểm định một giả thiết không bằng cách dùng đại lượng kiểm định có ý nghĩa về mặt thống kê là như sau:

  1. Bạn phải biết được, ít nhất là với một mức xấp xỉ nào đó, hàm phân bố xác suất FT của đại lượng kiểm định với giả sử rằng giả thiết không là đúng. Đây là bước chính và sẽ được xét đến chi tiết.
  2. Bạn chọn một mức ý nghĩa nhất định α. Sau đó đi tính một khoảng [al, au] sao cho xác suất lũy tích của T bên ngoài khoảng này bằng α, chẳng hạn bằng cách phân phối trọng lượng (xác suất) một cách cân bằng cho bên ngoài khoảng: F(al) = α / 2, F(au) = 1 − α / 2. Đôi khi các khoảng một phía lại phù hợp hơn, chẳng hạn [∞, au] với F(au) = 1 − α, mà sau đây ta sẽ xét đến với ví dụ (A).
  3. Bạn tính giá trị thực, t, của đại lượng thống kê từ kết quả mô phỏng. Nếu t ∈ [al, au] thì chấp nhận giả thiết, còn nếu không thì bác bỏ nó. Một cách tương ứng, khoảng [al, au] được gọi là khoảng chấp nhận.

Vì đây là cách diễn giải theo xác suất, nên có một xác suất α nhỏ để bạn không chấp nhận giả thiết không, dù giả thiết này đúng. Xác suất đó gọi là sai số loại I (còn gọi là phủ định sai), nhưng sai số này có thể kiểm soát được, vì α đã biết.

Mặt khác, điều quan trọng là nhất thấy rằng, nhìn chung, việc giá trị của đại lượng kiểm định rơi vào bên trong khoảng chấp nhận thì không có nghĩa là giả thiết không đã đúng! Một đối thiết H1 có thể đã đúng, có điều là đại lượng kiểm định được dùng không phân biệt được giữa hai giả thiết này. Hoặc, với một xác suất β nhỏ, bạn có thể thu được một giá trị nào đó của đại lượng kiểm định vốn không ủng hộ cho H1, mà lại ủng hộ H0. Việc chấp nhận giả thiết không, dù nó không đúng, được gọi là sai số loại II (cũng được gọi là khẳng định sai). Thông thường, H1 không được biết trước, vì vậy ta không thể tính hẳn ra β được. Các trường hợp khác nhau cùng những khả năng tương ứng được tóm tắt trên Hình 24. Kết luận ngắn gọn: Nếu bạn muốn chứng minh một giả thiết H (đến một độ tin cậy 1 − α nào đó), thì nên chọn điều ngược lại làm giả thiết không, nếu có thể.

Hình 24. Giả thiết không H0 có thể đúng, hoặc đối thiết (thường không biết trước) H1 có thể đúng. Việc kiểm định giả thiết không có thể dẫn đến sự chấp nhận hoặc bác bỏ. Điều này cho ta bốn tình huống có thể xảy ra, với các xác suất như trên.


Nói chung, giả thiết không phải được thiết lập phù hợp, sao cho nó có thể được kiểm định, nghĩa là sao cho hàm phân bố FT mô tả T phải xác định được, ít ra là về nguyên tắc. Chẳng hạn với (A), vì đại lượng kiểm định T là một trị trung bình mẫu, nên ta có thể yên tâm chọn một phân bố Gauss cho T: Ta có thể dễ dàng thực hiện đủ các mô phỏng để áp dụng được định lý giới hạn trung tâm. Ta dùng điều ngược lại của giả thiết đã lập (A) làm giả thiết không. Dù vậy, không thể tính được một khoảng chấp nhận cho phân bố Gauss dựa trên giả định rằng trị trung bình lớn hơn một giá trị cho trước. Ở đây ta có thể thay đổi giả thiết không, sao cho thay vào đó, một giá trị kì vọng bằng với tđích được giả sử. Như vậy, giả thiết không đã coi rằng đại lượng kiểm định có một phân bố Gauss with giá trị kì vọng tđích. Phương sai of T thì chưa biết, nhưng để tính các thang sai số, ta có thể dùng phương sai mẫu s2 chia cho n − 1. Bây giờ, dựa vào đây ta tìm được một khoảng [al, ∞] với FT(al) = α. Do đó, ta bác bỏ giả thiết không nếu t < al, điều này xảy ra với xác suất α. Mặt khác, nếu giá trị kì vọng thật thậm chí còn lớn hơn cả tđích, thì xác suất tìm được một trị trung bình với t < al trở nên còn nhỏ hơn cả α, nghĩa là càng ít có khả năng xảy ra. Vì vậy, giả thiết (A) có thể được chấp nhận hoặc bác bỏ dựa trên cơ sở một giá trị kì vọng cố định.

Với kiểm định giả thiết nói chung, để tính phân bố của đại lượng kiểm định T, ta có thể thực hiện một mô phỏng Monte Carlo. Điều này có nghĩa là ta liên tiếp rút các mẫu với kích thước n theo một phân bố FX xác định bởi giả thiết không. Mỗi lần rút, ta lại tính đại lượng kiểm định t rồi ghi lại histogram của những giá trị này (hoặc là một hàm phân bố mẫu F_{\hat T}) vốn là xấp xỉ của FT. Bằng cách này, có thể nhận được thông tin thống kê tương ứng. Để tiết kiệm thời gian tính toán, trong nhiều trường hợp người ta không thực hiện mô phỏng Monte Carlo, mà dùng kiến thức nào đó để tính hoặc xấp xỉ FT.

Trong các mục tiếp theo, những trường hợp tương ứng với các ví dụ (B), (C), (D) sẽ được phân tích kĩ. Điều này nghĩa là, sẽ có giải thích cách kiểm định sự giống nhau của các phân bố rời rạc bằng phép kiểm định khi-bình phương, và kiểm định sự giống nhau của các phân bố liên tục bằng phương pháp KS. Sau cùng, một số phương pháp kiểm định tính chất độc lập hoặc phụ thuộc của số liệu, và định lượng mức độ phụ thuộc sẽ được đề cập đến.

5.1 Kiểm định khi-bình phương

Phép kiểm định khi-bình phương là một phương pháp để so sánh các histogram và các phân bố xác suất rời rạc. Phương pháp này có tác dụng với các phân bố liên tục được chia ngăn (còn gọi là phân bố chia ngăn), trong đó các xác suất nhận được bằng cách lấy tích phân hàm mật độ xác suất qua các ngăn khác nhau. Phép kiểm định có hai dạng sau:

  • Nếu bạn muốn so sánh histogram {hk} cho các ngăn Bk (xem Mục 3.3) mô tả mẫu {x0, x1,  …, xn − 1} với hàm khối xác suất rời rạc, hoặc được làm rời, với những xác suất {pk} = Pr(x ∈ Bk), thì giả thiết không H0 cũng là: “mẫu tuân theo một phân bố cho bởi {pk}’’.Lưu ý rằng xác suất được định nghĩa là cố định và độc lập đối với mẫu số liệu. Nếu như xác suất này được gắn tham số và tham số đó được quy định bởi mẫu (chẳng hạn bằng trị trung bình của bộ số liệu) để cho các xác suất này khớp với số liệu nhất, thì ta phải áp dụng các phương pháp có liên quan được mô tả ở Mục 6.2.
  • Còn nếu bạn muốn so sánh hai histogram \{h_k\},\,\{\hat h_k\} nhận được từ hai mẫu khác nhau {x0, x1,  …, xn − 1}\{\hat x_0, \hat x_1, …, \hat x_{n-1}\} được định nghĩa cho các ngăn Bk, như nhau thì giả thiết không H0 sẽ là: “hai mẫu này tuân theo cùng dạng phân bố’’.1

Trong trường hợp phép thử được dùng để so sánh dữ liệu có bản chất rời rạc, thì các khoảng Bk có thể được chọn luôn sao cho từng kết cục có thể xảy ra sẽ tương ứng với một khoảng. Lưu ý rằng nhờ việc chia ngăn, phép kiểm định cũng có thể áp dụng được với cả số liệu nhiều chiều, trong đó mẫu là một tập hợp các véc-tơ. Ngoài ra, dữ liệu không thuộc dạng số cũng có thể được chia ngăn. Trong những trường hợp như vậy, mỗi ngăn sẽ biểu thị cho một tập con của không gian nhiều chiều, hoặc nói chung là một tập con của những kết cục có thể xảy ra. Để đơn giản, ở đây ta chỉ xét các mẫu số liệu một chiều.

Hình 25. Đại lượng kiểm định khi-bình phương: histogram (nét liền) được so sánh với phân bố xác suất rời rạc (nét đứt). Với từng ngăn, tổng bình phương các hiệu số giữa số đếm trong ngăn, hk , với kì vọng số đếm, npk, được tính ra (nét đứt dọc), xem PT (45). Trong trường hợp này, các hiệu số khá lớn, do vậy xác suất để histogram này nhận được từ những phép thử ngẫu nhiên với biến ngẫu nhiên mô tả bởi các xác suất {pk} (giả thiết không), sẽ khá nhỏ.


Ta bắt đầu với trường hợp thứ nhất, ở đâ một histogram được so sánh với một phân bố xác suất, tương ứng với ví dụ (C). Đại lượng kiểm định, gọi là χ2, được định nghĩa là:

\chi^2 = {\sum_k}^\prime\frac{(h_k-np_k)^2}{np_k}\,  \label{ex:chi2A}     (68)

với npk là số kì vọng các điểm mẫu trong ngăn Bk. Dấu phẩy ở kí hiệu tổng được dùng để lưu ý các ngăn hk = npk = 0 sẽ không được tính đến. Số các ngăn tham gia tính toán được kí hiệu bằng K. Nếu hàm khối xác suất pk khác không ở một số vô hạn các ngăn, thì tổng này sẽ lược bỏ đi các số hạng npk ≪ 1. Điều đó nghĩa là số ngăn tham gia vào tính toán sẽ luôn hữu hạn. Lưu ý rằng những ngăn nào có hk > 0 nhưng pk = 0 thì vẫn được tính đến. Như vậy sẽ cho ta một giá trị vô hạn của χ2; điều này hợp lý vì với những số liệu có hk > 0 nhưng pk = 0, thì số liệu này không thể mô tả được bằng những xác suất pk.

Phân bố khi-bình phương với ν = K − 1 bậc tự do (xem PT (45)) mô tả đại lượng kiểm định khi-bình phương, nếu số ngăn và số các điểm trong từng ngăn là lớn. Số hạng  − 1 trong số các bậc tự do bắt nguồn từ việc tổng số các điểm số liệu n bằng với kì vọng tổng số các điểm số liệu ∑ knkpk = n∑ kpk = n, do vậy Kʹ số hạng khác nhau không độc lập thống kê. Mật độ xác suất của phân bố khi-bình phương được cho bởi PT (45). Để tiến hành kiểm định, bạn nên dùng chương trình lập trong thư viện khoa học GNU (GSL).

Mã nguồn: file chi2.c

Tiếp theo, một hàm C có tên chi2_hd() sau đây phục vụ tính toán xác suất lũy tích (giá trị p) sao cho ta nhận được một giá trị χ2 hoặc lớn hơn, khi cho trước giả thiết không rằng mẫu được phát sinh bằng cách dùng các xác suất pk. Những tham số của chi2_hd() bao gồm số ngăn, và hai mảng h[]p[] lần lượt chứa histogram hk và các xác suất pk:

double chi2_hd(int n_bins, int *h, double *p)
{
  int n;                      /* total number of sample points */
  double chi2;                                  /* chi^2 value */
  int K_prime;                  /* number of contributing bins */
  int i;                                            /* counter */

  n = 0;
  for(i=0; i<n_bins; i++)
    n += h[i];      /* calculate total number of sample_points */

  chi2 = 0.0; K_prime = 0;
  for(i=0; i<n_bins; i++)                   /* calculate chi^2 */
  {
    if(p[i] > 0)
    {
      chi2 += (h[i]-n*p[i])*(h[i]/(n*p[i])-1.0);
      K_prime ++;
    } 
    else if(h[i] >0)       /* bin entry for zero probability ? */
    {
      chi2 = 1e60;
      K_prime ++;
    }
  }
  return(gsl_cdf_chisq_Q(chi2, K_prime-1));
}

Trước hết, ở các dòng 8–10, tổng số các điểm mẫu thu được bằng cách cộng lại tất cả những phần tử của histogram. Ở vòng lặp chính, các dòng 12–25, giá trị của χ2 được tính toán. Cùng lúc đó, số các ngăn tham gia được xác định. Sau cùng (dòng 26) giá trị p nhận được bằng cách dùng hàm GSL có tên gsl_cdf_chisq_Q(). Giá trị p này có thể được so sánh với mức ý nghĩa α. Nếu giá trị p lớn hơn thì giả thiết không được chấp nhận, còn ngược lại sẽ bị bác bỏ.

Lưu ý rằng kết quả của giá trị p rõ ràng phụ thuộc vào số ngăn, và, có lúc phụ thuộc và cách chọn ngăn. Dù sao, tất cả những cách chọn hợp lý, cho dù có thể đưa ra con số kết quả khác nhau một chút, song vẫn sẽ dẫn đến quyết định giống nhau đối với giả thiết không trong phần lớn các trường hợp.

Tiếp theo, ta xét trường hợp ở đó cần phải so sánh hai histogram là \{h_k\},\{\hat h_k\} tương ứng với ví dụ (B). Trong trường hợp này đại lượng χ2 được tính như sau:

\chi^2 = {\sum_k}^\prime\frac{(h_k-\hat h_k)^2}{h_k+\hat h_k}\,  \label{eq:chi2B}      (69)

Phép lấy tổng được thực hiện với tất cả những ngăn hk ≠ 0 hoặc \hat h_k \neq 0, và K là số tương ứng các ngăn tham gia. Do đó, những ngăn nào cần được tính đền đều được xác định duy nhất, trái ngược với trường hợp mà một histogram được so sánh với dạng phần bố xác định cho vô số các kết cục có thể. Lưu ý rằng ở mẫu số có tổng của các phần tử trong ngăn, chứ không phải là giá trị trung bình. Lý do là vì phân bố khi-bình phương là một tổng của các số theo phân bố chuẩn hóa (phương sai bằng 1) và ở đây, khi hiệu số của hai đại lượng (xấp xỉ) chuẩn được tính đến, thì kết quả phương sai là tổng của các phương sai thành phần, được xấp xỉ bởi các thành phần thuộc histogram. Để tính giá trị p, một lần nữa phân bố khi-bình phương với ν = K − 1 bậc tự do được áp dụng. Ở đây, không có mã lệnh chương trình C, mà bạn đọc cần tự lập trình, thông qua Bài tập (6).

5.2 Kiểm định Kolmogorov-Smirnov

Tiếp theo, ta xét đến trường hợp mà những thuộc tính thống kê của một mẫu {x0, x1,  …, xn − 1}, nhận được từ một phép thử lặp lại dùng một biến ngẫu nhiên liên tục, được so sánh với một hàm phân bố FX cho trước. Về nguyên tắc, ta có thể so sánh một histogram với một phân bố xác suất được chia ngăn tương ứng, bằng cách dùng kiểm định khi-bình phương đã trình bày ở mục trước. Không may là, việc chia ngăn lại phụ thuộc chủ quan và có ảnh hưởng đến kết quả (hãy tưởng tượng khi chia một vài ngăn rất lớn). Do vậy, phương pháp được trình bày trong mục này thường hay được dùng hơn, vì nó không yêu cầu chia ngăn. Lưu ý rằng nếu hàm phân bố được gắn tham số và nếu tham số này được xác định bởi mẫu (chẳng hạn bằng trị trung bình của số liệu) sao cho FX khớp nhất với số liệu, thì ta cần áp dụng những phương pháp ở Mục 6.2.

Ý tưởng cơ bản của phép kiểm định Kolmogorov-Smirnov là đi so sánh hàm phân bố với hàm phân bố mẫu đo được, F_{\hat X} định nghĩa ở PT (65). Lưu ý rằng F_{\hat X}(x) có dạng không đổi trên từng đoạn với bước nhảy có kích thước 1 / n tại những vị trí xi (với giả sử rằng mỗi điểm số liệu xuất hiện duy nhất trong mẫu).

Một lần nữa, ở đây ta có vài cách lựa chọn đại lượng kiểm định. Chẳng hạn, ta có thể tính diện tích giữa FXF_{\hat X}. Hoặc, thông thường chỉ cần tính khoảng chênh lệch lớn nhất giữa hai hàm này:

        (70)

Vì hàm phân bố mẫu chỉ biến đổi ở các điểm mẫu, nên ta phải tiến hành so sánh ngay trước và sau bước nhảy. Như vậy, PT (70) tương đương với

d_{\text{max}} \equiv \text{max}_{x_i} \left\{\left|F_X(x_i)-1/n-F_{\hat X}(x_i)\right|,  \left|F_X(x_i)-F_{\hat X}(x_i)\right|\right\}
Đại lượng mẫu này được minh họa trên Hình 26.

Hình 26. Kiểm định Kolmogorov-Smirnov test: Một hàm phân bố mẫu (nét liền) được so sánh với một hàm phân bố xác suất cho trước(nét đứt). Đại lượng mẫu dmax là khoảng cách lớn nhất giữa hai hàm này.


Giá trị p, nghĩa là xác suất để một giá trị dmax qua đo đạc () bằng hoặc kém hơn, khi cho trước giả thiết không rằng mẫu được rút từ FX, có thể được xấp xỉ bằng (xem [Press và nnk. (1995)]  cùng các trích dẫn trong đó):

    (71)

Phép xấp xỉ này đã tương đối tốt với n ≥ 8. Ở đây, một hàm xác suất phụ trợ như sau được dùng đến:

\label{eq:QKS}  Q_{\rm KS}(\lambda) = 2\sum_{i=1}^{\infty} (-1)^{i+1} e^{-2i^2\lambda^2}\,      (72)

với Q_{\rm KS}(0)=1 và Q_{\rm KS}(\infty)=0. Hàm này có thể được lập trình dễ dàng nhất bằng cách lấy tổng trực tiếp [Press và nnk. (1995)]. Hàm Q_ks() nhận giá trị của λ làm tham số rồi trả lại Q_{\rm KS}(\lambda):

double Q_ks(double lambda)
{
  const double eps1 = 0.0001;  /* relative margin for stop */
  const double eps2 = 1e-10;   /* relative margin for stop */
  int i;                                   /* loop counter */
  double sum;                               /* final value */
  double factor;            /* constant factor in exponent */
  double sign;                               /* of summand */
  double term, last_term;        /* summands, last summand */

  sum = 0.0; last_term = 0.0; sign = 1.0;    /* initialize */
  factor = -2.0*lambda*lambda;
  for(i=1; i<100; i++)                           /* sum up */
  {
    term = sign*exp(factor*i*i);
    sum += term;
    if( (fabs(term) <= eps1*fabs(last_term)) || 
        (fabs(term) <= eps2*sum))
      return(2*sum);
    sign =- sign;
    last_term = term;
  }
  return(1.0);                /* in case of no convergence */
}

Mã nguồn: file ks.c

Phép lấy tổng (các dòng 13–22) được tiến hành nhiều nhất là 100 lần lặp. Nếu phần tử hiện thời còn nhỏ so với phần tử trước hoặc rất nhỏ so với tổng thu được đến giờ, thì phép lấy tổng sẽ bị ngừng lại (các dòng 17–18). Nếu điều này không xảy ra trong 100 lần lặp, thì tổng vẫn chưa hội tụ (đồng nghĩa với λ rất nhỏ) và giá trị Q(0) = 1 được trả lại.

Nhận xét này dẫn đến cách lập hàm C như sau để kiểm định KS. Hàm ks() nhận vào các tham số là số các điểm mẫu n, mẫu x[] và một con trỏ F tới hàm phân bố:

double ks(int n, double *x, double (*F)(double))
{
  double d, d_max;                    /* (maximum) distance */
  int i;                                    /* loop counter */
  double F_X;            /* empirical distribution function */

  qsort(x, n, sizeof(double), compare_double);

  F_X = 0; d_max = 0.0;
  for(i=0; i<n; i++)                    /* scan through F_X */
  {
    d = fabs(F_X-F(x[i]));   /* distance before jump of F_X */
    if( d> d_max)
      d_max = d;
    F_X += 1.0/n;
    d = fabs(F_X-F(x[i]));    /* distance after jump of F_X */
    if( d> d_max)
      d_max = d;
  }
  return(Q_ks( d_max*(sqrt(n)+0.12+0.11/sqrt(n))));
}

Đầu tiên, mẫu được sắp xếp (dòng 7). Việc này cho phép lập hàm phân bố mẫu rất đơn giản, vì tại từng điểm số liệu mẫu, theo thứ tự xuất hiện, giá trị của F_{\hat X} sẽ tăng thêm là 1 / n. Khi nhận được khoảng cách lớn nhất (các dòng 10–19), ta phải so sánh F_{\hat X} với hàm phân bố FX ngay trước (các dòng 12–14) và ngay sau (các dòng 15–18) bước nhảy. Lưu ý rằng cách lập trình này cũng dùng được với các mẫu mà trong đó có những điểm số liệu xuất hiện nhiều lần.

Khi bước vào kiểm định, ta tính giá trị p đối với một mẫu bằng cách dùng ks(). Nếu giá trị p vượt quá mức ý nghĩa α định trước, thì giả thiết không sẽ được chấp nhận, nghĩa là số liệu phù hợp với phân bố trên, với xác suất cao. Các mức ý nghĩa rất nhỏ thường được dùng đến, chẳng hạn α = 0.05. Điều này nghĩa là ngay cả những giá trị lớn đáng kể của dmax cũng được chấp nhận. Vì vậy như thường lệ, ta chỉ bác bỏ giả thiết không khi xác suất của sai lầm loại I là nhỏ.

Cũng có thể so sánh hai mẫu có kích thước n1, n2 bằng phép kiểm định KS. Một lần nữa, đại lượng kiểm định của hai hàm phân bố mẫu lại là khoảng cách lớn nhất. Xác suất để tìm thấy một giá trị bằng dmax như nhận được, hoặc một giá trị xấu hơn—khi cho trước giả thiết không rằng các mẫu được rút ra từ cùng một phân bố—thì cũng giống như xác suất ở PT (71), chỉ khác là ta cần thay n bằng kích thước mẫu “hiệu quả” n_{\rm eff}= n_1n_2/(n_1+n_2). Để biết thêm thông tin, hãy xem [Press và nnk. (1995)  cùng những tài liệu tham khảo trong đó. Rất dễ lập trình cho phương pháp kiểm định này khi dùng mẫu là hàm C, ks(), nêu trên.

5.3 Độc lập / phụ thuộc thống kê

Ở đây, ta xét đến những mẫu có chứa các cặp điểm số liệu (xi, yi) (i = 0, 1, …, n − 1) Dễ thấy rằng có thể khái quát cho số liệu nhiều chiều hơn. Câu hỏi đặt là liệu các giá trị yi có phụ thuộc vào các giá trị xi (hoặc ngược lại) hay không. Trong trường hợp này, ta cũng nói rằng chúng có quan hệ thống kê. Nếu đúng, thì có nghĩa là khi ta biết một trong hai giá trị thì sẽ dự đoán được giá trị còn lại với độ chính xác cao. Định nghĩa chặt chẽ cho sự phụ thuộc (hoặc độc lập) thống kê đã được đưa ra ở Mục 1. Một ví dụ về sự phụ thuộc thống kê là trong mô phỏng thời tiết: Lượng tuyết rơi có phụ thuộc thống kê vào nhiệt độ: Nếu trời quá ấm hoặc quá lạnh, thì sẽ không có tuyết rơi. Điều này cũng cho thấy rằng sự phụ thuộc của hai đại lượng không nhất thiết phải là đồng biến. Trong trường hợp ta quan tâm đến tính đồng biến và thậm chí là cả phụ thuộc tuyến tính, thì ta sẽ thường nói rằng các biến có tương quan với nhau, như dưới đây sẽ trình bày.

Mã nguồn: các file  points0A.dat  points0B.dat  points1A.dat  points1B.dat

Cần nhận thấy rằng ta phải phân biệt giữa ý nghĩa thống kê của sự phụ thuộc thống kê cùng với độ mạnh của sự phụ thuộc này. Chẳng hạn, phép kiểm định đang tiến hành cho ta biết rằng những giá trị x có quan hệ thống kê, với xác suất cao. Thông thường điều này chỉ có ý nghĩa rằng ta có một mẫu lớn. Mặt khác, độ mạnh của sự phụ thuộc thống kê có thể lại vẫn nhỏ. Chẳng hạn, có thể do một giá trị x cho trước chỉ hơi ảnh hưởng đến phân bố xác suất của y. Ngược lại, độ mạnh này có thể lớn, nghĩa là chẳng hạn, biết được x sẽ gần như là xác định được y. Nhưng nếu ta chỉ có một ít điểm mẫu, thì không thể chắc rằng liệu các điểm số liệu có liên hệ hay không. Dù vậy, vẫn có một sự kết nối nào đó: độ mạnh càng lớn, thì càng dễ cho thấy rằng sự phụ thuộc là đáng kể. Để minh họa điều này, hãy xét một mẫu trong đó có xi số được phát sinh từ một phân bố chuẩn hóa (giá trị kì vọng 0, phương sai 1), còn mỗi số yi được rút từ một phân bố chuẩn với giá trị kì vọng κxi (phương sai 1).2 Vì vậy, nếu κ = 0, các điểm số liệu là độc lập nhau. Các biểu đồ chấm điểm, trong đó mỗi điểm mẫu (xi, yi) biểu thị bằng một chấm trên mặt phẳng x − y được trình bày trên Hình 27. Ở đây có bốn khả năng, k = 0 / 1 cùng với n = 50 / 5000. Sau đây, ta sẽ xem rằng những phương pháp được dùng đến sẽ nói cho ta biết điều gì về bộ số liệu hiện có.

Hình 27. Đồ thị điểm chấm của n điểm số liệu (xi, yi) trong đó các số xi được phát sinh từ một phân bố chuẩn hóa (giá trị kì vọng 0, phương sai 1), còn mỗi số yi được rút từ một phân bố chuẩn với giá trị kì vọng κxi (phương sai 1).


Ở mục này, một dạng kiểm định khi-bình phương sẽ được trình bày, dạng phương pháp này cho phép ta kiểm tra xem số liệu có tính độc lập không. Tiếp theo, hệ số tương quan tuyến tính sẽ được đề cập đến, nhằm đặc trưng cho độ mạnh của mối tương quan tuyến tính. Sau cùng là phần thảo luận về cách định lượng sự phụ thuộc ngay trong một mẫu, chẳng hạn giữa các điểm mẫu xi, xi + τ.

Để kiểm tra sự phụ thuộc thống kê cho mẫu {(x0, y0),  (x1, y1),  …, (xn − 1, yn − 1)}, ta thường xét giả thiết không: H0= “Các điểm mẫu x và các điểm mẫu y độc lập với nhau.” Để kiểm định H0, ta đặt các cặp điểm mẫu lên hai histogram hai chiều {hkl}. Số đếm hkl sẽ tăng thêm một, nếu như với điểm số liệu (xi, yi) ta có xi ∈ Bk(x)yi ∈ Bl(y), với những ngăn được xác định phù hợp, {Bk(x)}{Bl(y)}. Gọi kxky lần lượt là số ngăn theo các chiều xy. Tiếp theo, ta tính các histogram đơn (một chiều) \{\hat h^{(x)}_k\}\{\hat h^{(y)}_l\} theo công thức

\begin{aligned}  \hat h^{(x)}_k & = & \sum_l h_{kl} \nonumber \\  \hat h^{(y)}_l & = & \sum_k h_{kl} \label{eq:rowColum}\end{aligned} (73)

Hai histogram một chiều này cho thấy có bao nhiêu lần đếm ở một ngăn nhất định cho từng biến, bất kể giá trị của biến kia là bao nhiêu. Ở đây coi như tất cả những phần tử thuộc hai histogram này đều khác 0. Nếu không, cần chỉnh lại các ngăn. Lưu ý rằng ta luôn có n=\sum_k \hat h^{(x)}_k = \sum_l \hat h^{(y)}_l  = \sum_{kl} h_{kl}.

Tần suất—ước lượng của xác suất—được tính bằng cách chuẩn hóa tần số cho n, nghĩa là \hat h^{(x)}_k/n và \hat h^{(y)}_l/n. Nếu như hai biến xi, yi độc lập với nhau, thì tần suất nhận được một cặp giá trị (x, y) trong các ngăn {Bk(x)}{Bl(y)} phải bằng tích của hai tần suất của từng biến. Do đó, bằng cách nhân với n, ta thu được các số kì vọng nkl các lần đếm, nếu coi giả thiết Ho là đúng:

n_{kl} = n \frac{\hat h^{(x)}_k}{n}\frac{\hat h^{(y)}_l}{n} =  \frac{\hat h^{(x)}_k\hat h^{(y)}_l}{n}      (74)

Các số kì vọng này được so sánh với những số thực sự trên histogram hai chiều, {hkl} qua đại lượng kiểm định χ2, tương ứng với PT (68):

\chi^2 = \sum_{kl} \frac{(h_{kl}-n_{kl})^2}{n_{kl}}       (75)

Cách diễn giải thống kê cho χ2, một lần nữa, lại theo phân bố khi-bình phương. Số các bậc tự do được xác định bởi số ngăn (kxky) trong histogram hai chiều trừ đi số ràng buộc. Ở đây, những ràng buộc được cho bởi PT (73), ngoại trừ việc tổng của các số đếm bằng n thì xuất hiện hai lần, nên tổng số ràng buộc bằng kx + ky − 1. Do đó, số bậc tự do là

ν = kxky − kx − ky + 1 .          (76)

Như vậy, với giả sử rằng các điểm mẫu x and y độc lập với nhau, thì p = 1 − F(χ2, ν) cho ta xác suất (giá trị p) để quan sát được đại lượng kiểm định có giá trị χ2 hoặc lớn hơn. Ở đây, F là hàm phân bố khi-bình phương, xem PT (45). Giá trị p này phải được so sánh với mức ý nghĩa α. Nếu p < α, thì giả thiết không bị bác bỏ.

Mã nguồn: file chi2indep.c

Hàm C sau đây thiết lập kiểm định khi-bình phương về tính độc lập: chi2_indep(). Hàm này nhận vào các tham số, gồm số các ngăn theo chiều xy, cũng như một mảng hai chiều lưu trữ histogram:

double chi2_indep(int n_x, int n_y, int **h)
{
  int n;                      /* total number of sample points */
  double chi2;                                  /* chi^2 value */
  int k_x, k_y;                 /* number of contributing bins */
  int k, l;                                        /* counters */
  int *hx, *hy;                  /* one-dimensional histograms */

  hx = (int *) malloc(n_x*sizeof(int));            /* allocate */
  hy = (int *) malloc(n_y*sizeof(int));

  n = 0;            /* calculate total number of sample_points */
  for(k=0; k<n_x; k++)
    for(l=0; l<n_y; l++)
      n += h[k][l]; 

  k_x = 0;                  /* calculate 1-dim histogram for x */
  for(k=0; k<n_x; k++)
  {
    hx[k] = 0;
    for(l=0; l<n_y; l++)
      hx[k] += h[k][l];
    if(hx[k] > 0)                   /* does x bin contribute ? */
      k_x++;
  }
  k_y = 0;                  /* calculate 1-dim histogram for y */
  for(l=0; l<n_y; l++)
  {
    hy[l] = 0;
    for(k=0; k<n_x; k++)
      hy[l] += h[k][l];
    if(hy[l] > 0)                   /* does y bin contribute ? */
      k_y++;
  }

  chi2 = 0.0; 
  for(k=0; k<n_x; k++)                      /* calculate chi^2 */
    for(l=0; l<n_y; l++)
      if( (hx[k] != 0)&&(hy[l] != 0) )
        chi2 += pow(h[k][l]-(double) hx[k]*hy[l]/n, 2.0)/
          ((double) hx[k]*hy[l]/n);

  free(hx);
  free(hy);
  return(gsl_cdf_chisq_Q(chi2, k_x*k_y - k_x -k_y + 1));
}

Đầu tiên, bộ nhớ dành cho các histogram một chiều được huy động (các dòng 9–10). Tiếp theo, tổng các số lần đếm, nghĩa là the kích thước mẫu, được tính ra (các dòng 12–15). Ở các dòng 17–26, sẽ thu được giá trị histogram một chiều dành cho x. Đồng thời số lượng các ngăn hiệu quả theo phương đó được tính ra. Ở các dòng 27–35, điều tương tự được thực hiện với chiều y. Giá trị thực của đại lượng kiểm định χ2 được xác định ở các dòng 37–42. Sau cùng, dung lượng bộ nhớ đã huy động sẽ được giải phóng (các dòng 44-45) và giá trị p sẽ tìm được (dòng 46), một lần nữa, hàm GSL có tên gsl_cdf_chisq_Q() được dùng đến.

Các giá trị p của những bộ mẫu cho thấy trên Hình 27 như sau: p(κ = 0, n = 50) = 0. 077, p(κ = 0, n = 5000) = 0.457, p(κ = 1, n = 50) = 0. 140, p(κ = 1, n = 5000) < 10 − 100. Vì vậy, giả thiết không về sự độc lập sẽ không bị bác bỏ (chẳng hạn α = 0. 05) cho trường hợp κ = 1, n = 50, vốn có sự tương quan thực sự. Mặt khác, nếu số lượng mẫu đủ lớn, thì chẳng nghi ngờ gì.

Một khi đã được khẳng định rằng một mẫu có chứa số liệu phụ thuộc, thì ta có thể thử đo độ mạnh của sự phụ thuộc này. Một cách tiêu chuẩn là dùng đến hệ số tương quan tuyến tính (còn được gọi là số r của Pearson r) được cho bởi

\label{eq:linearCorrelation}  r \equiv \frac{\sum_i (x_i-\overline{x})(y_i-\overline{y})}  {\sqrt{\sum_i (x_i-\overline{x})^2}  \sqrt{\sum_i (y_i-\overline{y})^2}}\,.      (77)

Hệ số này, theo tên gọi của nó, đã có giả sử rằng tồn tại một mối tương quan tuyến tính trong số liệu. Cách lập trình một hàm C là rất đơn giản, xem Bài tập (7). Với số liệu chỉ ra trên Hình 27, ta tìm được những hệ số tương quan sau đây: r(κ = 0, n = 50) = 0. 009, r(κ = 0, n = 5000) = 0. 009, r(κ = 1, n = 50) = 0. 653, r(κ = 1, n = 5000) = 0. 701. Ở đây, cũng trong hai trường hợp, khi đặc trưng kiểm định còn thấp, giá trị của r phản ánh việc liệu những số liệu có tương quan hay không. Dù vậy, điều này chỉ đúng vì ta so sánh những số liệu tương quan mạnh với số liệu không có tương quan. Nếu ta so sánh số liệu tương quan yếu nhưng có ý nghĩa, thì vẫn nhận được giá trị r nhỏ. Do vậy, để kiểm định mức ý nghĩa, ta nên dùng kiểm định giả thiết dựa trên đại lượng kiểm định χ2.

Sau cùng, lưu ý rằng có thể xảy ra một dạng tương quan khác: Đến giờ ta mới giả sử rằng các điểm mẫu xi, xj khác nhau (hay véc-tơ mẫu) là độc lập thống kê với nhau. Tuy vậy, cũng có trường hợp, chẳng hạn, mẫu được phát sinh theo một mô phỏng Monte Carlo với chuỗi Markov [Newman và Barkema (2000); Landau và Binder (2000); Robert và Casella (2004); Liu (2008)], với từng điểm số liệu xi + 1 được tính theo một quá trình ngẫu nhiên nào đó, nhưng cũng phụ thuộc vào điểm số liệu xi trước đó, như vậy i kiểu như là một thời gian lấy mẫu nhân tạo trong mô phỏng. Sự phụ thuộc sẽ giảm dần theo độ dài khoảng thời gian giữa các điểm mẫu. Một cách để xem độ giảm phụ thuộc này nhanh chậm ra sao là dùng một dạng của hệ số tương quan, PT (78), nghĩa là một hàm tương quan:

\begin{aligned}  \tilde C(\tau) & = &  \frac{1}{n-\tau}\sum_{i=0}^{n-1-\tau} x_i x_{i+\tau} \nonumber\\  & & - \left(\frac{1}{n-\tau}\sum_{i=0}^{n-1-\tau}x_i\right) \times  \left( \frac{1}{n-\tau}\sum_{i=0}^{n-1-\tau}x_{i+\tau}\right)\end{aligned}       (78)

Số hạng \frac{1}{n-\tau}\sum_{i=0}^{n-1-\tau}x_i \times  \frac{1}{n-\tau}\sum_{i=0}^{n-1-\tau}x_{i+\tau} sẽ hội tụ về \overline{x}^2 for n → ∞ nếu có thể coi rằng phân bố của các điểm mẫu là tĩnh tại, nghĩa là phân bố này không phụ thuộc vào thời gian lấy mẫu. Do vậy, \tilde C(\tau) xấp xỉ bằng , cỡ bằng tử sổ của hệ số tương quan tuyến tính PT (77). Thông thường, hàm tương quan được chuẩn hóa bằng \tilde C(0), chính là phương sai mẫu của trường hợp tĩnh tại, xem PT (51):

C(\tau)=\tilde C(\tau)/C(0).       (79)

Hình 28. Hàm tương quan C(τ) của mô phỏng một hệ sắt từ, xi là độ từ hóa tại bước thời gian thứ i. (Về phần chuyên môn: Đây là hệ Ising có kích thước 16 × 16 spin được mô phỏng với mô phỏng Monte Carlo, single-spin flip, tại nhiệt độ (giản lược) T = 2. 269 sát với nhiệt độ chuyển pha, ở đó thời gian tương quan τc rất lớn).


Do vậy, với bất kì số liệu nào, chẳng hạn nhận được từ một mô phỏng Monte Carlo chuỗi Markov, C(0) = 1 sẽ luôn đúng. Sau đó C(τ) giảm dần khi hiệu số τ tăng, chẳng hạn ở Hình 28. Thường thì dạng hàm hóa giống với một hàm mũ  ∼ exp( − τ / τc). Theo lý thuyết, C(τ) phải hội tụ về 0 khi τ → ∞, nhưng do kích thước có hạn của mẫu nên thường xuất hiện những nhiễu động khi τ tiệm cận đến n. Một thời gian điển hình τc đo mức độ giảm nhanh sự phụ thuộc của các điểm mẫu được cho bởi C(τc) = 1 / e, điều này thống nhất với biểu thức nêu trên nếu như hàm tương quan giảm theo cấp số mũ. Khi khoảng cách rộng ra gấp đôi thì mức độ tương quan đã giảm đi đáng kể (hạ thấp còn 1 / e2). Vì vậy, nếu bạn muốn thu được các thang sai số cho mẫu lấy từ số liệu phụ thuộc, bạn có thể, chẳng hạn, chỉ thêm vào những điểm x0, x2τc, x4τc, x6τc, … trong mẫu, hoặc là chỉ dùng n / (2τc) thay cho n để tính thang sai số bất kì. Dù các thang sai số này khác với trường hợp nếu mẫu đã cho thực sự độc lập, song cách làm này cũng cho ta ấn tượng khá rõ về sai số thống kê.

Mặt khác, để thu được thời gian điển hình τc mà không phải tính một hàm tương quan, bạn cũng có thể dùng phương pháp khối [Flyvbjerg (1998)]. Theo phương pháp này, bạn lặp lại việc ghép nối những điểm số liệu cạnh nhau bằng những công thức xi(z + 1) = (x2i(z) + x2i + 1(z)) / 2n(z + 1) = n(z) / 2 (lần lặp z = 0 ứng với mẫu ban đầu). Bạn đi tính thang sai số chuẩn \sigma^{(z)}/\sqrt{n^{(z)}-1} với từng lần lặp. Một khi sai số này đạt đến sự ổn định ở mức zc, thì số liệu đã (gần như là) độc lập và thang sai số chính xác được cho bởi giá trị của mức ổn định này. Khi đó τc = 2zc là một thời gian điển hình cho tính độc lập của các điểm số liệu.

Nếu thực sự bạn chỉ để tâm đến các thang sai số, nghĩa là bạn không cần biết giá trị của τc, thì bạn cũng có thể dùng phương pháp bootstrap; phương pháp này không bị ảnh hưởng bới tính phụ thuộc của số liệu, xem Mục 3.4.

Bài tập

(6) Kiểm định khi-bình phương

Hãy thiết kế, lập trình và kiểm tra một hàm để tính đại lượng kiểm định χ2 cho hai histogram latex \{h_i\},\{\hat h_i\} theo PT (69). Hàm sẽ phải trả lại giá trị p, nghĩa là

xác suất lũy tích (“giá trị p”) mà một giá trị χ2 hoặc lớn hơn sẽ nhận được với giả sử rằng hai histogram này thu được qua việc lấy mẫu từ cùng một biến ngẫu nhiên (rời rạc).

Mẫu của hàm này như sau:

/********************* chi2_hh() ***********************/
/** For chi^2 test: comparison of two histograms      **/
/** to probabilities: Probability to                  **/
/** obtain the corresponding  chi2 value or worse.    **/
/** It is assumed that the total number of sample points**/
/** in the two histograms is equal !                  **/
/**                                                   **/
/** Parameters: (*) = return parameter                **/
/**  n_bins: number of bins                           **/
/**       h: array of histogram values                **/
/**      h2: 2nd array of histogram values            **/
/**                                                   **/
/** Returns:                                          **/
/**       p value                                     **/
/*******************************************************/
double chi2_hh(int n_bins, int *h, int *h2)

Gợi ý: Dùng hàm chi2_hd() làm ví dụ. Hãy thêm một đoạn chương trình kiểm tra để xác nhận rằng tổng số đếm trong hai histogram này bằng nhau.

Để kiểm tra hàm này: Phát sinh hai histogram tuân theo một phân bố nhị thức với các tham số n =  par_n = 10p =  0.5 hoặc p =  par_p. Thực hiện một vòng lặp đối với các giá trị khác nhau của par_p rồi tính giá trị p mỗi lần bằng the gsl_cdf_chisq_Q() function of the thư viện khoa học GNU (GSL).

Lời giải: chi2hh.c

(7) Hệ số tương quan tuyến tính

Hãy thiết kế, lập trình và kiểm tra một hàm để tính hệ số tương quan tuyến tính r đặc trưng cho độ mạnh của tương quan trong mẫu {(x0, y0),  (x1, y1),  …, (xn − 1, yn − 1)}.

Hàm này có mẫu như sau:

/**************************** lcc() ********************/
/** Calculates the linear correlation coefficient     **/
/**                                                   **/
/** Parameters: (*) = return parameter                **/
/**     n: number of sample points                    **/
/**     x: first element of sample set                **/
/**     y: second element of sample set               **/
/**                                                   **/
/** Returns:                                          **/
/**       r                                           **/
/*******************************************************/
double lcc(int n, double *x, double *y)

Nhận xét: Hãy viết một hàm main() để phát sinh ra mẫu theo cách sau đây: các số xi được phát sinh từ một phân bố chuẩn hóa N(0, 1) trong đó mỗi số yi được rút từ một phân bố chuẩn với giá trị kì vọng κxi (phương sai 1). Hãy phân tích kết quả với những giá trị khác nhau của κn.

Lời giải: lcc.c

Tài liệu được trích dẫn

Landau, D.P. and Binder, K. (2000). A Guide to Monte Carlo Simulations in Statistical Physics, (Cambridge University Press, Cambridge (UK)).

Liu, J. S. (2008). Monte Carlo Strategies in Scienti c Computing, (Springer, Heidelberg).

Newman, M. E. J. and Barkema, G. T. (1999). Monte Carlo Methods in Statistical Physics, (Clarendon Press, Oxford).

Press, W. H., Teukolsky, S. A., Vetterling, W. T., and Flannery, B. P. (1995). Numerical Recipes in C, (Cambridge University Press, Cambridge).

Robert, C. P. and Casella, G. (2004). Monte Carlo Statistical Methods, (Springer, Berlin)


  1. Lưu ý rằng ở đây ta coi như hai mẫu có cùng kích thước, vốn dễ tạo được khi mô phỏng. Một trường hợp khác xảy ra khi số các điểm mẫu lại là biến ngẫu nhiên, lúc đó sự khác biệt về số các điểm mẫu sẽ làm cho khả năng chấp nhận Ho giảm xuống, xem .
  2. Đây là ví dụ trong đó các biến ngẫu nhiên Yi mô tả cho mẫu không giống hệt nhau.
Advertisements

1 Phản hồi

Filed under Ngẫu nhiên và mô phỏng

One response to “5. Kiểm định giả thiết và tính độc lập / phụ thuộc của số liệu

  1. Pingback: Ngẫu nhiên và xác suất trong mô phỏng máy tính | Blog của Chiến

Trả lời

Mời bạn điền thông tin vào ô dưới đây hoặc kích vào một biểu tượng để đăng nhập:

WordPress.com Logo

Bạn đang bình luận bằng tài khoản WordPress.com Log Out / Thay đổi )

Twitter picture

Bạn đang bình luận bằng tài khoản Twitter Log Out / Thay đổi )

Facebook photo

Bạn đang bình luận bằng tài khoản Facebook Log Out / Thay đổi )

Google+ photo

Bạn đang bình luận bằng tài khoản Google+ Log Out / Thay đổi )

Connecting to %s