如何讓人工智能實現(xiàn)認知正義
近幾年,人工智能在許多行業(yè)都有應用,成為人類的“好幫手”。但在這一過程中,也出現(xiàn)了各種各樣的問題。其中,人工智能系統(tǒng)基于不良的數(shù)據(jù)來源和有缺陷的算法設計生成錯誤的“知識”,且沒有對所輸出內容進行價值判斷的能力,無法承擔相應認知責任,導致系統(tǒng)性的認知偏差,是一個比較突出的問題。
從科技倫理角度分析,這違背了認知正義的原則。所謂認知正義,是指在知識生成、傳播和獲取過程中,確保所有個體和群體的聲音都能被公平地聽取和理解,并且有平等的機會被轉化為人類的公共知識。
過去,知識生成主要依賴人類個體的感知、記憶、推理和證詞。然而,隨著人工智能的超速迭代,尤其是會話式人工智能的廣泛應用,傳統(tǒng)的知識生成和傳播方式正迎來重大轉變。今天的人工智能不僅善于搜集信息和執(zhí)行任務,更是一項能夠生成和傳播知識的“認知技術”,被用來處理認知內容(如命題、模型、數(shù)據(jù))并執(zhí)行認知操作(如統(tǒng)計分析、模式識別、預測、推理和模擬)?;跀?shù)據(jù)和算法的“機器知識”挑戰(zhàn)了過去基于經(jīng)驗和專業(yè)判斷的人類知識,導致認知“碎片化”,破壞了傳統(tǒng)人類知識系統(tǒng)的認知正義。
如今,生成式人工智能已經(jīng)開始全面嵌入到所有可能對認知、決策進行技術性替代的場景和社會過程之中。面對人工智能在知識生成中對認知正義的挑戰(zhàn),如何讓人工智能更智能?如何讓其成為提升認知的幫手,確保科技向善?
筆者認為,需從提升數(shù)據(jù)質量、改進算法設計、優(yōu)化人機協(xié)同和加強倫理治理等維度著手。
負責任的算法設計是實現(xiàn)認知正義的核心架構。人工智能作為一種強大的認知技術,通過數(shù)據(jù)挖掘和統(tǒng)計分析來識別信息的模式和趨勢,參與人類公共知識的生成。由于算法主要關注在訓練數(shù)據(jù)中頻繁出現(xiàn)的信息模式,而不夠普遍或統(tǒng)計上不夠強大的數(shù)據(jù)往往會被忽視和排除,從而無法得到算法的充分理解和適當響應。依賴于統(tǒng)計頻率的算法設計構成了一種特定的“認知盲從”,進而導致部分群體的聲音被系統(tǒng)性邊緣化。這種設計上的缺陷不僅限制了算法的認知能力,也加劇了社會中的不平等和認知壓迫,破壞認知正義。“盲從”行為背后的根源,是算法的設計和訓練過程缺乏對不同群體文化背景的理解。因此,在我們常談及的算法透明性和可解釋性之外,符合認知正義要求的算法設計還應兼顧涉及不同社群的認知多樣性。
有質量的數(shù)據(jù)供給是實現(xiàn)認知正義的基礎設施。造成人工智能破壞認知正義的另一個重要誘因是數(shù)據(jù)質量。大數(shù)據(jù)是智能技術的認知基礎和決策基礎,可以更清晰直觀地呈現(xiàn)人類社會生活各方面的特征和趨勢,但與傳統(tǒng)人類公共知識不同,數(shù)據(jù)不為人們普遍共享。具體來說,哪些數(shù)據(jù)可以被收集起來并用于分析,這些數(shù)據(jù)又將如何被分類提取,它們最終服務于誰,這些問題都變得模糊不清,導致數(shù)據(jù)質量參差不齊。算法的訓練數(shù)據(jù)往往來源于互聯(lián)網(wǎng)的大型數(shù)據(jù)庫和社區(qū),而這些數(shù)據(jù)很可能包含偏見和歧視。人工智能的知識生成,需確保數(shù)據(jù)的來源可靠、內容多樣,對數(shù)據(jù)進行去偏處理,還需對數(shù)據(jù)保持持續(xù)監(jiān)測和更新,以應對社會文化變化帶來的新問題。有質量的數(shù)據(jù)供給,才能使人工智能系統(tǒng)在多元文化和復雜社會結構中提供更精準的知識和決策支持。
大范圍的人機協(xié)作是實現(xiàn)認知正義的有效手段。從腦機接口中的信號轉譯,到智能醫(yī)療決策、AI for Science等人機聯(lián)合行動,不同層面的人機協(xié)作都涉及人類知識與機器知識的傳遞、解釋、融合等認知過程。鑒于人機各自典型的認知特征,大范圍、合理化的“人機認知勞動分工”將有效避免更多的人機認知偏差。比如,在科學研究中可以如此分工:人類設定目標、提出假設和解釋結果,并負責提供創(chuàng)造性思維、臨場決策、倫理判斷以及對非結構化問題的直覺理解;而人工智能處理大量結構化數(shù)據(jù)、進行模式識別和預測分析,提供未被注意的模式和關聯(lián)。在這種協(xié)作中,人工智能更多地成為啟發(fā)新想法的“伙伴”,而非生成錯誤知識的“機器”。
高水平的倫理治理是實現(xiàn)認知正義的制度支撐。認知正義要求多元的知識生成、平等的知識獲取、無偏的知識傳播和負責的知識使用,這些都需要高水平的人工智能倫理治理。于企業(yè)而言,應在算法設計中考慮不同社會群體的需求和視角,對算法進行持續(xù)風險監(jiān)測和價值評估;還應探索人工智能倫理眾包模式,鼓勵不同背景的研究者和用戶參與到人工智能倫理風險的研判中,及時化解倫理風險。于政府而言,應積極鼓勵私人數(shù)據(jù)向公共數(shù)據(jù)轉化,加快公共數(shù)據(jù)面向全社會開放共享,擴展數(shù)據(jù)多樣性、強化數(shù)據(jù)可靠性;還應尋求應對人工智能潛在倫理風險的社會解決方案,建立涵蓋前瞻性預見、實時性評估和系統(tǒng)性調整的敏捷治理機制。(浙江大學哲學學院“百人計劃”研究員、腦機智能全國重點實驗室雙聘研究員 白惠仁)
編輯:遲明緒




京公網(wǎng)安備 11010502000576號