Cloudera大中華區(qū)技術(shù)總監(jiān) 劉隸放
在當(dāng)今競爭異常激烈的環(huán)境中,全球各地的企業(yè)都在大力投資人工智能(AI),以獲得更大的競爭優(yōu)勢。然而,隨著創(chuàng)新的加速,企業(yè)也深知倫理和監(jiān)管在AI發(fā)展中的關(guān)鍵作用。德勤對100位企業(yè)高管進(jìn)行的一項調(diào)查顯示,88%的受訪者表示其企業(yè)正在采取措施向員工傳達(dá)AI的倫理使用規(guī)范。根據(jù)騰訊研究院的一項調(diào)查顯示,個人隱私保護(hù)與網(wǎng)絡(luò)安全已成為公眾最為關(guān)注的風(fēng)險因素之一。在覆蓋各行各業(yè)的3.000名受訪者中,38%的受訪者認(rèn)為企業(yè)在應(yīng)用生成式AI過程中可能存在侵犯個人隱私的風(fēng)險,另有33.5%的受訪者認(rèn)為模型的可解釋性和透明度問題亦不容忽視。
AI創(chuàng)新帶來新的倫理問題
借助AI的進(jìn)步,我們已經(jīng)從基于人工設(shè)定規(guī)則的決策系統(tǒng),發(fā)展到通過海量數(shù)據(jù)訓(xùn)練的復(fù)雜模型來自動定義規(guī)則、生成內(nèi)容并做出決策。然而,不受約束的AI系統(tǒng)往往會優(yōu)先優(yōu)化預(yù)設(shè)目標(biāo),而忽視更廣泛的社會影響和倫理考量,這將逐漸削弱公眾信任。
盡管AI技術(shù)取得了顯著進(jìn)展,但偏見和“幻覺”等問題依然存在,甚至引發(fā)了一些爭議事件。例如,2021年4月,荷蘭六名司機(jī)因“算法手段”被不公平解雇,導(dǎo)致歐盟根據(jù)《通用數(shù)據(jù)保護(hù)條例》(GDPR)對此展開調(diào)查。兩年后,英國幾名送餐員因位置數(shù)據(jù)被懷疑多收費用,并在幾乎沒有解釋的情況下被解雇。
類似的爭議事件在國內(nèi)也內(nèi)屢見不鮮,從因性別歧視導(dǎo)致的不公平貸款發(fā)放,到使用侵犯隱私的面部識別技術(shù)處理保險索賠。例如,一位中國博主的個人形象未經(jīng)授權(quán)便被某AI應(yīng)用使用,還引發(fā)了一場訴訟糾紛。 這些問題的根源很大程度上在于AI的“可解釋性”。尤其是深度學(xué)習(xí)模型,其決策過程復(fù)雜且不透明,常被視為“黑匣子”,許多專家也難以理解其結(jié)論的形成機(jī)制。缺乏適當(dāng)?shù)娜斯けO(jiān)督和理解,這些帶有偏見的決策便可能會引發(fā)嚴(yán)重的負(fù)面后果。
隨著諸如OpenAI SORA AI視頻生成器等生成式AI創(chuàng)新()的涌現(xiàn),AI在提升生產(chǎn)力和增強企業(yè)競爭力方面展現(xiàn)出巨大潛力。然而,這些工具也可能引發(fā)版權(quán)侵權(quán)等問題,甚至為濫用和虛假信息的傳播打開大門。因此,關(guān)注AI倫理變得比以往任何時候都更加重要。
公共與私營部門需攜手將倫理和監(jiān)管融入AI
盡管ChatGPT等生成式AI工具都設(shè)有防濫用規(guī)則,許多用戶仍找到了繞過這些保護(hù)措施的方法。網(wǎng)絡(luò)犯罪分子甚至創(chuàng)建了自己的GPT,用于編寫惡意軟件和生成極具欺騙性的釣魚郵件。
目前,有效識別和阻止這類有害產(chǎn)出的工具和法律仍很匱乏。因此,公共和私營部門需要加強合作,通過更嚴(yán)格的監(jiān)管降低AI濫用風(fēng)險,并確保在模型開發(fā)中融入倫理考量。
為了構(gòu)建合乎倫理的AI,需要將倫理原則、問責(zé)機(jī)制、透明度、可解釋性和良好治理融入模型。提升模型的可解釋性和倫理水平不僅能幫助解決當(dāng)前AI的缺陷,還能顯著提高決策的準(zhǔn)確性和有效性。
許多公共和私營部門實體正在共同努力推進(jìn)AI的倫理建設(shè)。例如,澳大利亞近期投資 1700 萬美元啟動了“AI應(yīng)用計劃”,幫助中小型企業(yè)在利用AI提升業(yè)務(wù)決策能力。去年,新加坡政府與私營部門合作成立了“AI驗證基金會”, 以應(yīng)對AI帶來的風(fēng)險。該基金會今年又推出針對生成式AI的新框架,解決知識產(chǎn)權(quán)濫用等新問題的同時持續(xù)促進(jìn)創(chuàng)新。 2025年3月,中國《政府工作報告》提出將要持續(xù)推進(jìn)“人工智能+”行動。在此背景下,自2023年起施行的《生成式人工智能服務(wù)管理暫行辦法》的重要性進(jìn)一步凸顯。這些措施涉及內(nèi)容監(jiān)管和數(shù)據(jù)使用道德等領(lǐng)域,為負(fù)責(zé)任的AI發(fā)展提供了一個基礎(chǔ)框架。此外,具身智能(Embodied Intelligence)首次被納入國家戰(zhàn)略計劃,這表明在仿人機(jī)器人、無人機(jī)和倉庫自動化等技術(shù)可能在私營部門大規(guī)模應(yīng)用的情況下,需要持續(xù)的監(jiān)管。
隨著相關(guān)法規(guī)和倡議的陸續(xù)出臺,企業(yè)可以通過使用可信數(shù)據(jù),為推進(jìn)倫理AI的倫理建設(shè)貢獻(xiàn)力量。
設(shè)計合乎倫理的AI系統(tǒng)需要可信數(shù)據(jù)
構(gòu)建值得信賴的AI系統(tǒng)離不開可信的數(shù)據(jù)來源。以準(zhǔn)確、一致、潔凈、無偏見且可靠的數(shù)據(jù)為基礎(chǔ),企業(yè)可以設(shè)計出符合倫理的AI系統(tǒng),確保其始終產(chǎn)出公平、無偏見的結(jié)果。這樣的系統(tǒng)能夠幫助企業(yè)輕松發(fā)現(xiàn)問題、彌補邏輯漏洞、優(yōu)化輸出,并評估其創(chuàng)新是否符合法規(guī)要求。
在Cloudera的AI倫理實踐中,數(shù)據(jù)隱私保護(hù)占據(jù)著基石地位。我們堅信,對數(shù)據(jù)隱私的尊重是贏得客戶信任的前提,也是平臺設(shè)計的核心原則。為此,Cloudera通過其開放數(shù)據(jù)湖倉(Open Data Lakehouse)架構(gòu),在數(shù)據(jù)層深度融合了統(tǒng)一的安全與治理能力(SDX)。這意味著隱私控制不再是上層應(yīng)用的“補丁”,而是深入數(shù)據(jù)全生命周期的原生能力。它幫助企業(yè)在運用AI進(jìn)行深度洞察時,依然能無縫地保護(hù)敏感數(shù)據(jù)、履行合規(guī)義務(wù)。這種貫穿數(shù)據(jù)生命周期的隱私保護(hù)設(shè)計,不僅提升了AI模型的安全性與透明度,更為企業(yè)構(gòu)建值得信賴且符合法規(guī)的AI解決方案奠定了穩(wěn)固根基。
如果企業(yè)想要開發(fā)合乎倫理的AI系統(tǒng),可采取以下建議:
● 關(guān)注意圖:AI系統(tǒng)僅基于訓(xùn)練數(shù)據(jù)進(jìn)行決策,缺乏道德準(zhǔn)則和公平參照。因此,設(shè)計者需明確而謹(jǐn)慎地構(gòu)建系統(tǒng)設(shè)計動機(jī)的意圖表示方法,在量化倫理考量的同時平衡性能目標(biāo)。
● 優(yōu)化模型設(shè)計:設(shè)計良好的AI系統(tǒng)應(yīng)避免偏見、因果關(guān)系和不確定性。企業(yè)應(yīng)定期進(jìn)行審查,以檢測是否存在模型漂移問題,即模型逐漸因數(shù)據(jù)過時而開始變得不準(zhǔn)確,并廣泛建立因果模型以評估潛在負(fù)面影響。
● 確保人工監(jiān)督:AI系統(tǒng)雖能基于高質(zhì)量數(shù)據(jù)做出可靠決策,但缺乏情商,無法處理特殊情況。最有效的系統(tǒng)應(yīng)結(jié)合人類判斷與AI能力,企業(yè)需始終確保人工監(jiān)督,尤其是在AI模型置信度較低時。
● 加強安全性與合規(guī)性:以安全性和合規(guī)性為核心的倫理AI系統(tǒng),不僅能增強系統(tǒng)可信度,還能加速其在企業(yè)中的普及,同時確保符合地方和區(qū)域法規(guī)。
● 充分利用現(xiàn)代數(shù)據(jù)平臺:借助支持現(xiàn)代數(shù)據(jù)架構(gòu)的數(shù)據(jù)平臺等先進(jìn)工具,企業(yè)可以顯著提升其在數(shù)據(jù)和AI模型生命周期內(nèi)的管理與分析能力。理想情況下,平臺應(yīng)具備內(nèi)置的安全和治理控制功能,使企業(yè)在大規(guī)模部署數(shù)據(jù)分析和AI時,仍能保持對AI驅(qū)動決策的透明度和控制力。