曠視發(fā)布人工智能應(yīng)用準(zhǔn)則,提出 6 個(gè)維度規(guī)范
記者(公眾號:記者)消息,近日,北京曠視科技有限公司(以下簡稱曠視)正式公布了基于企業(yè)自身管理標(biāo)準(zhǔn)的《人工智能應(yīng)用準(zhǔn)則》(以下簡稱《準(zhǔn)則》)。
曠視是全球最早一批探索人工智能商業(yè)化的公司,2011 年由印奇、唐文斌和楊沐三位創(chuàng)始人成立;他們均畢業(yè)于由圖靈獎(jiǎng)得主兼中國計(jì)算機(jī)科學(xué)家和理論家姚期智院士創(chuàng)立的清華大學(xué)“姚班”。
在成立后的近十年里,曠視憑借強(qiáng)大的軟硬件整合能力,為客戶打造出了全棧人工智能解決方案,從而在個(gè)人物聯(lián)網(wǎng)、城市物聯(lián)網(wǎng)和供應(yīng)鏈物聯(lián)網(wǎng)等多個(gè)垂直應(yīng)用領(lǐng)域處于行業(yè)領(lǐng)先地位;公司還通過創(chuàng)建人工智能基礎(chǔ)設(shè)施,并連接眾多物聯(lián)網(wǎng)設(shè)備,去解決實(shí)際生活中的各類問題,以及金融科技、交通和物流等行業(yè)的痛點(diǎn)。
因此,作為在人工智能領(lǐng)域的前沿企業(yè),曠視率先行業(yè)推出了《準(zhǔn)則》?!稖?zhǔn)則》從正當(dāng)性、人的監(jiān)督、技術(shù)可靠性和安全性、公平和多樣性、問責(zé)和及時(shí)修正、數(shù)據(jù)安全與隱私保護(hù)六個(gè)維度,對人工智能正確有序發(fā)展作出明確規(guī)范,同時(shí)給出相應(yīng)干預(yù)措施或指導(dǎo)意見,確保人工智能能夠在可控范圍內(nèi)持續(xù)發(fā)展,呼喚起各界對善用技術(shù)的重視,倡導(dǎo)行業(yè)提早建立可持續(xù)發(fā)展的生態(tài)。
以下是《準(zhǔn)則》全文:
《人工智能應(yīng)用準(zhǔn)則》
1.正當(dāng)性:技術(shù)應(yīng)該是一種正面的力量。我們致力于成為一個(gè)負(fù)責(zé)任的企業(yè)公民,遵守適用的法律和普遍接受的道德原則,增進(jìn)社會(huì)福祉。
2.人的監(jiān)督:人工智能不應(yīng)該超越人的自主性。人類應(yīng)該能夠監(jiān)督人工智能技術(shù)的發(fā)展以及人工智能系統(tǒng)的決策,并在必要時(shí)進(jìn)行干預(yù)。
3.技術(shù)可靠性和安全性:人工智能解決方案應(yīng)該能夠做出準(zhǔn)確有效的決策,同時(shí)對外部攻擊具有足夠的安全性和防御力。人工智能解決方案應(yīng)該進(jìn)行廣泛的測試,謹(jǐn)慎使用并嚴(yán)格監(jiān)控。
4.公平和多樣性:人工智能技術(shù)的開發(fā)人員應(yīng)盡量減少人工智能解決方案的系統(tǒng)性偏差,這種系統(tǒng)性偏差可能來自于用于開發(fā)解決方案的數(shù)據(jù)和算法中固有的偏差。無論年齡,性別,種族或其他特征如何,所有人都應(yīng)該可以使用人工智能解決方案。
5.問責(zé)和及時(shí)修正:人工智能解決方案應(yīng)該是可審核、可追責(zé)的。人工智能解決方案的錯(cuò)誤、缺陷、偏見或其他負(fù)面影響,一經(jīng)發(fā)現(xiàn),應(yīng)立即予以承認(rèn)并積極地加以處理。
6. 數(shù)據(jù)安全與隱私保護(hù):人工智能解決方案的開發(fā)及使用過程中,需嚴(yán)格保護(hù)用戶的個(gè)人隱私、保障數(shù)據(jù)安全。