如果你能理解互信息的含義,條件互信息也自然能夠理解.互信息是一種獨立性的度量,若隨機變量x與y邊緣獨立,則mi(x,y)=0,否則mi(x,y)>0,且互信息越大,說明兩個隨機變量越相關.互信息是一種條件獨立性的度量,若x與y在給定z=z的條件下獨立,則mi(x,y|z=z)=0,否則mi(x,y|z=z).兩者做差的目的是看引入輔助變量z以後,對x和y的獨立性會產生什麼影響.建議您看一下圖模型(graphicalmodels)方面的相關文獻,或者讀一讀thomasm.cover,joya.thomas的《elementsofinformationtheory》?
條件相關性:什麼叫做向量組[朗讀]
@pic
頂0
加入收藏
相關問答推薦