Categories
Machine Learning

Phân loại Gaussian Naive Bayes

Hôm nay:

  • Naïve Bayes
    • Xi có giá trị rời rạc
    • Phân loại tài liệu
  • Gaussian Naïve Bayes
    • Xi có giá trị thực
    • Phân loại hình ảnh não

Bài đọc:

Bắt buộc:

  • Mitchell: “Naïve Bayes và Logistic Regression” (có trên trang web của lớp)

Tùy chọn

  • Bishop 1.2.4
  • Bishop 4.2

Gần đây:

  • Phân loại Bayes để học P(Y|X)
  • Ước tính MLE và MAP cho các tham số của P
  • Độc lập có điều kiện
  • Naïve Bayes → làm cho việc học Bayes trở nên thiết thực

Tiếp theo:

  • Phân loại văn bản
  • Naïve Bayes và các biến liên tục Xi:
    • Bộ phân loại Gaussian Naïve Bayes
  • Học trực tiếp P(Y|X)
    • Hồi quy logistic, Chính quy hóa, tăng dần độ dốc
  • Bayes Naïve hay Hồi quy logistic?
    • Các phân loại tạo sinh và phân biệt

Sơ lược về Naïve Bayes

Quy tắc Bayes:

HÌNH 5.1. Sơ lược về Naïve Bayes.

Giả định sự độc lập có điều kiện giữa Xi‘s:

HÌNH 5.1. Sơ lược về Naïve Bayes.

Vì vậy, quy tắc phân loại cho Xnew = < X1, …, Xn > là:

HÌNH 5.1. Sơ lược về Naïve Bayes.

Ví dụ: Sống ở Sq Hill? P(S|G,D,B)

  • S=1 nếu sống ở Squirrel Hill
  • G=1 nếu mua sắm tại SH Giant Eagle
  • D=1 nếu lái xe hoặc đi chung xe đến CMU
  • B=1 nếu sinh nhật trước ngày 1 tháng 7

HÌNH 5.2. Ví dụ: Sống ở Sq Hill? P(S|G,D,B).

HÌNH 5.2. Ví dụ: Sống ở Sq Hill? P(S|G,D,B).

Tom: D=1, G=0, B=0

P(S=1|D=1,G=0,B=0) = 

P(S=1) P(D=1|S=1) P(G=0|S=1) P(B=0|S=1)


[P(S=1) P(D=1|S=1) P(G=0|S=1) P(B=0|S=1) + P(S=0) P(D=1|S=0) P(G=0|S=0) P(B=0|S=0)]

Một cách khác để xem Naïve Bayes (Boolean Y):

Quy tắc quyết định: đại lượng này lớn hơn hay nhỏ hơn 1?

HÌNH 5.3. Một cách khác để xem Naïve Bayes (Boolean Y):.

Naïve Bayes: phân loại tài liệu văn bản

  • Phân loại email nào là thư rác?
  • Phân loại những email hứa hẹn một tập tin đính kèm?

HÌNH 5.4. Naïve Bayes: phân loại tài liệu văn bản.

Làm thế nào chúng ta sẽ trình bày các tài liệu văn bản cho Naïve Bayes?

Học cách phân loại tài liệu: P(Y|X)

HÌNH 5.5. Học cách phân loại tài liệu: P(Y|X).

  • Y có giá trị rời rạc.
    • ví dụ: Spam hay không
  • X = <X1, X2, … Xn> = tài liệu
  • Xi là biến ngẫu nhiên mô tả…

Học phân loại tài liệu: P(Y|X)

HÌNH 5.6. Học phân loại tài liệu: P(Y|X).

  • Y có giá trị rời rạc.
    • ví dụ: Spam hay không
  • X = <X1, X2, … Xn> = tài liệu
  • Xi là một biến ngẫu nhiên mô tả…

Trả lời 1: Xi là boolean, 1 nếu từ i trong tài liệu, ngược lại 0,

ví dụ: Xpleased = 1

Vấn đề?

Học cách phân loại tài liệu: P(Y|X)

HÌNH 5.7. Học cách phân loại tài liệu: P(Y|X).

  • Y có giá trị rời rạc.
    • ví dụ: Spam hay không
  • X = <X1, X2, … Xn> = tài liệu
  • Xi là một biến ngẫu nhiên mô tả…

Trả lời 2:

  • Xi đại diện cho vị trí từ thứ i trong tài liệu
  • X= “I”,  X= “am”, X= “pleased”
  • và giả sử Xi là iid (indep, được phân phối giống hệt nhau)HÌNH 5.7. Học cách phân loại tài liệu: P(Y|X).

Học cách phân loại tài liệu: P(Y|X)

mô hình “Túi từ”

  • Y có giá trị rời rạc. ví dụ: Spam hay không
  • X = <X1, X2, … Xn> = tài liệu
  • Xi là các biến ngẫu nhiên iid. Mỗi đại diện cho từ tại vị trí i của nó trong tài liệu
  • Tạo tài liệu theo phân phối này = tung một con súc sắc 50.000 mặt, một lần cho mỗi vị trí từ trong tài liệu
  • Số lượng quan sát được cho mỗi từ theo sau một ??? phân phối

Phân phối đa thức

HÌNH 5.8. Phân phối đa thức.

HÌNH 5.8. Phân phối đa thức.

Túi từ đa thức

HÌNH 5.9. Túi từ đa thức.

Ước tính MAP cho túi từ

Ước tính Map cho đa thức

HÌNH 5.10. Ước tính MAP cho túi từ.

HÌNH 5.10. Ước tính MAP cho túi từ.

Chúng ta nên chọn những β gì?

Thuật toán Naïve Bayes – Xi rời rạc

  • Huấn luyện Naïve Bayes (mẫu)
  • cho từng giá trị yk
    • ước tínhHÌNH 5.11. Thuật toán Naïve Bayes – Xi rời rạc.
    • cho từng giá trị xij của từng thuộc tính Xi
      • ước tínhHÌNH 5.11. Thuật toán Naïve Bayes – Xi rời rạc.
  • Phân loại (Xnew)
    • HÌNH 5.11. Thuật toán Naïve Bayes – Xi rời rạc.

* Giả định bổ sung: xác suất từ không phụ thuộc vào vị trí

HÌNH 5.11. Thuật toán Naïve Bayes – Xi rời rạc.

HÌNH 5.12. Twenty NewsGroups.

HÌNH 5.13. Learning Curve for 20 Newsgroups.

Để biết mã và dữ liệu, hãy xem www.cs.cmu.edu/~tom/mlbook.html nhấp vào “Phần mềm và Dữ liệu”

Nếu chúng ta có Xi liên tục thì sao?

Ví dụ: phân loại hình ảnh: Xi là pixel thứ i có giá trị thực

HÌNH 5.14. Nếu chúng ta có Xi liên tục thì sao?.

Nếu chúng ta có Xi liên tục thì sao?

Ví dụ: phân loại hình ảnh: Xi là pixel thứ i có giá trị thực

Naïve Bayes yêu cầu P(XY=yk), nhưng Xi là thực (liên tục)

HÌNH 5.15. Nếu chúng ta có Xi liên tục thì sao?.

Cách tiếp cận phổ biến: giả sử P(XY=yk) tuân theo phân phối Chuẩn (Gaussian)

Nếu chúng ta có Xi liên tục thì sao?

Ví dụ: phân loại hình ảnh: Xi là pixel thứ i có giá trị thực

Naïve Bayes yêu cầu P(XY=yk), nhưng Xi là thực (liên tục)

HÌNH 5.16. Nếu chúng ta có Xi liên tục thì sao?.

Cách tiếp cận phổ biến: giả sử P(XY=yk) tuân theo phân phối Chuẩn (Gaussian)

Phân phối Gaussian

(còn được gọi là “Chuẩn”)

p(x) là một hàm mật độ xác suất, có tích phân (không phải tổng) là 1

HÌNH 5.17. Phân phối Gaussian.

Nếu chúng ta có Xi liên tục thì sao?

Gaussian Naïve Bayes (GNB): giả sử

HÌNH 5.18. Nếu chúng ta có Xi liên tục thì sao?.

Đôi khi, giả sử phương sai

  • độc lập với Y (tức là σi),
  • hoặc độc lập với Xi (tức là σk)
  • hoặc cả hai (tức là σ)

Thuật toán Gaussian Naïve Bayes – Xi liên tục

(nhưng Y vẫn rời rạc)

  • Huấn luyện Naïve Bayes (mẫu)
  • cho mỗi giá trị yk
    • ước tính*HÌNH 5.19. Thuật toán Gaussian Naïve Bayes – Xi liên tục.
    • cho mỗi thuộc tính Xi ước tínhHÌNH 5.19. Thuật toán Gaussian Naïve Bayes – Xi liên tục.
      • trung bình có điều kiện của lớp μik, phương sai σik
  • Phân loại (Xnew)
    • HÌNH 5.19. Thuật toán Gaussian Naïve Bayes – Xi liên tục.

* xác suất phải có tổng bằng 1, vì vậy chỉ cần ước tính n-1 tham số…

Ước tính tham số: Y rời rạc, Xi liên tục

Ước tính khả năng tối đa:

HÌNH 5.20. Ước tính tham số: Y rời rạc, Xi liên tục.

HÌNH 5.20. Ước tính tham số: Y rời rạc, Xi liên tục.

Có bao nhiêu tham số chúng ta phải ước lượng Gaussian Naïve Bayes nếu Y có k giá trị có thể, X=<X1, … Xn>?

HÌNH 5.21. Có bao nhiêu tham số chúng ta phải ước lượng Gaussian Naïve Bayes nếu Y có k giá trị có thể, X=(X1, … Xn)?.

Ví dụ GNB: Phân loại trạng thái nhận thức của một người, dựa trên hình ảnh não bộ

  • đọc một câu hay xem một bức tranh?
  • đọc từ mô tả “Công cụ” hoặc “Tòa nhà”?
  • trả lời câu hỏi, hoặc bối rối?

HÌNH 5.22. Ví dụ GNB: Phân loại trạng thái nhận thức của một người, dựa trên hình ảnh não bộ.

Kích hoạt trung bình trên tất cả các ví dụ đào tạo cho Y=“bottle”

HÌNH 5.23. Học cách phân loại từ.

Y là trạng thái tinh thần (đọc là “ngôi nhà” hoặc “cái chai”)

Xi là các hoạt động của điểm ảnh ba chiều,

đây là biểu đồ của µ’s xác định P(Xi | Y=“bottle”)

Kích hoạt fMRI

HÌNH 5.23. Học cách phân loại từ.

Nhiệm vụ phân loại: là người đang xem “công cụ” hoặc “tòa nhà”?

HÌNH 5.24. Nhiệm vụ phân loại: là người đang xem “công cụ” hoặc “tòa nhà”?.

Thông tin được mã hóa ở đâu trong não?

HÌNH 5.25. Thông tin được mã hóa ở đâu trong não?.

Độ chính xác của bộ phân loại 27-voxel lập phương có tâm tại mỗi điểm ảnh ba chiều quan trọng [0,70,8]

HÌNH 5.25. Thông tin được mã hóa ở đâu trong não?.

Naïve Bayes: Những điều bạn nên biết

  • Thiết kế bộ phân loại dựa trên quy tắc Bayes
  • Tính độc lập có điều kiện
    • Nó là gì
    • Tại sao nó lại quan trọng
  • Giả định Naïve Bayes và hệ quả của nó
    • Tham số nào (và bao nhiêu) phải được ước tính theo các mô hình tổng quát khác nhau (các dạng khác nhau cho P(X|Y) )
      • và tại sao điều này lại quan trọng
  • Cách đào tạo bộ phân loại Naïve Bayes
    • ước tính MLE và MAP
    • với đầu vào rời rạc và/hoặc liên tục Xi

Các câu hỏi cần suy nghĩ:

  • Bạn có thể sử dụng Naïve Bayes để kết hợp Xi rời rạc và giá trị thực không?
  • Làm thế nào chúng ta có thể dễ dàng mô hình hóa chỉ 2 trong số n thuộc tính là phụ thuộc?
  • Bề mặt quyết định của bộ phân loại Naïve Bayes trông như thế nào?
  • Bạn sẽ chọn một tập con của Xi như thế nào?

Ảnh đơn giản cho GNB cho P(Y|X1)

Leave a Reply

Your email address will not be published. Required fields are marked *