人工智能的算法公平性實(shí)現(xiàn)
我們解決了算法公平性的問題:確保分類器的結(jié)果不會偏向于敏感的變量值,比如年齡、種族或性別。由于一般的公平性度量可以表示為變量之間(條件)獨(dú)立性的度量,我們提出使用Renyi最大相關(guān)系數(shù)將公平性度量推廣到連續(xù)變量。我們利用Witsenhausen關(guān)于Renyi相關(guān)系數(shù)的角色塑造,提出了一個鏈接到f-區(qū)別的可微實(shí)現(xiàn)。這使得我們可以通過使用一個限制這個系數(shù)上限的懲罰,將公平意識學(xué)習(xí)推廣到連續(xù)變量學(xué)習(xí)。這些理論允許公平擴(kuò)展到變量,如混合種族群體或沒有閾值效應(yīng)的金融社會地位。這種懲罰可以通過允許使用深度網(wǎng)絡(luò)的小批量生產(chǎn)來估計(jì)。實(shí)驗(yàn)結(jié)果表明,二進(jìn)制變量的最新研究成果令人滿意,并證明了保護(hù)連續(xù)變量的能力。
1. 介紹
隨著人工智能工具在社會中的普及,確保敏感信息(例如個人的種族群體知識)不會“不公平地”影響學(xué)習(xí)算法的結(jié)果,正受到越來越多的關(guān)注。為了實(shí)現(xiàn)這一目標(biāo),正如在相關(guān)工作3.1節(jié)中詳細(xì)討論的那樣,有三類方法: 首先修改一個預(yù)先訓(xùn)練的分類器,同時(shí)最小化對性能的影響(Hardt等人,2016;Pleiss等人,2017),其次在訓(xùn)練期間執(zhí)行公平性,可能以凸性為代價(jià)(Zafar等人,2017);第三,修改數(shù)據(jù)表示并使用經(jīng)典算法(Zemel 等人, 2013;Doninietal等人,2018)。正如(Hardt 等人, 2016) 所闡述的,算法公平性的核心要素是在兩個精心選擇的隨機(jī)變量之間估計(jì)和保證(條件)獨(dú)立性的能力--通常涉及由算法作出的決定和保護(hù)的變量以及“積極的”結(jié)果。在接下來的介紹中,我們將把這兩個隨機(jī)變量稱為u和v。雖然在一般情況下u和v可以是連續(xù)變量——例如預(yù)測概率或時(shí)間等變量——但迄今為止,公平方面的大部分工作都集中在保護(hù)分類變量上。本文中,我們放松了這種假設(shè)。
從應(yīng)用的角度來看,這是可取的,因?yàn)樗苊饬丝紤]將連續(xù)值作為預(yù)先確定的,在學(xué)習(xí)模型中呈現(xiàn)閾值效應(yīng)的“分類箱”。當(dāng)考慮到年齡、種族比例或性別流動性測量時(shí),這些閾值沒有實(shí)際意義。此外,一種描述公平性約束的平滑和連續(xù)的方法——一種同時(shí)考慮元素順序(例如10yo