“算法要向善”選擇背后的倫理博弈

2020年12月14日15:52  來源:光明日報
 
原標題:“算法要向善”選擇背后的倫理博弈

即將過去的2020年似乎經歷了一個“加速社會”的中場休息,但種種跡象表明,這並沒有暫緩數字智能服務成為人們日常生活的一種方式。健康碼、點外賣、視頻會議成為工作生活“三件套”,各種基於數字化、信息化和智能化的服務應用快速入場,社會在技術與資本的雙重博弈下正經歷結構轉型。

這種轉型呈現出一種“重組”的力量,將現有的時間空間重新切割,再以一種“光電方式”重新擬定節奏、劃定規則、做出決策。線性時間被打碎,信息的“精准推薦”是一種“算法時間”,它調整信息的呈現序列,插入合適的節點,指出什麼才是“適合你的內容”,而不在意“真正的時間”。以算法為核心生產邏輯的數字平台,作為社會行動網絡中的主導力量,正在整合性地協調社會系統中的多元參與,通過設置代碼規則,進行算法管理,規訓的顆粒度被逐層細化,滲透進社會的毛細血管。算法社會的結構轉型正呈現出3個鮮明的趨勢。

一種新的“平台速度”正在形成。麥克·沃爾什在《算法領導者:當機器比你聰明時如何變聰明》一書中描述了一種“亞馬遜步速”,這是一種“介於行走和慢跑之間的速度”,而在亞馬遜,員工們必須按照這個節奏來工作。與之類似,我們看到了“困在算法裡”的外賣平台騎手們,面對不斷壓縮的訂單送達時間,他們沒有選擇,隻能遵循算法的設計邏輯,看著手機上一條直線的數字地圖,在現實的道路上“與死神賽跑,和交警較勁,和紅燈做朋友”。平台速度是一種時間節奏,集中體現著平台規則和算法支配下的統一性、規劃性和標准性,而且蘊含著一種膚淺的消費哲學,代價就是將勞動者的主體性、情感性和立體感隱藏起來,這也助推了平台算法所帶來的社會不平等。

“人臉識別”或將重新劃定個體身份邊界。疫情期間,人臉識別作為社會監測技術助力公共防疫,但是強制“刷臉”、事后“丟臉”的問題也暴露出來。在一些小區,人臉識別成為居民出入的唯一驗証方式,而一轉眼,在一些黑灰產平台上,據說兩塊錢就可以買到千張人臉照片。人臉識別是一種“無目光的注視”,人臉識別的准確性高度依賴數據、算法和算力,如果操作不當,泄露出去的面部照片可被用來訓練深度偽造,欺騙識別系統,冒充個人身份,惡搞他人隱私,持續給個體帶來經濟風險和身份困擾,造成社會秩序混亂。

“算法鴻溝”逐漸成形並拉大社會距離。算法的邏輯機械且強勢,而如果社會的協調機制過分滯后,那麼則會形成新的“算法鴻溝”與社會歧視。以往的知識鴻溝、數字鴻溝更多的是由於社會結構中的教育程度、年齡層次、經濟地位等要素使得社會資源分配不均,而“算法鴻溝”則有可能在分配制度的上游,通過人口數據、用戶畫像、使用習慣、社交關系等先期就預置了鴻溝。而隨著算法回還往返於社會與系統之間,那些有機會獲得工作經驗、擁有學習機會、算法素養較高的群體,同那些缺少機會、相對弱勢的群體之間的差距將不斷拉大。老齡人口、殘障人士、低收入群體可能會陷入新一輪的“算法陷阱”,行蹤羞辱、健康碼歧視等問題則隨時可能落到每一個普通人身上。而這樣的差距經年累月沉積,將加重階層固化,形成算法特權和壟斷力量。

去年4月,《自然》雜志上刊登了一篇研究性的綜述,指出未來將是一個“算法無所不在”社會:自動化的新聞推薦、算法輔助法官判案、無人駕駛汽車、針對個體的差別化定價等,都將無縫接入我們的生活。如果以現在的發展態勢來看,這個“未來”已來。

如同“藥”具有兩面性,算法在摧枯拉朽急速推進社會進步的同時,也暴露很多問題。這些問題不僅是一個技術問題,更是一個系統問題和社會問題。算法社會結構轉型的特殊性在於,這是一種行動的“再現”:算法沒有善惡,但絕非中立。算法要向善,因為所有圍繞算法進行的協作都是社會再現,而未來的方向在每一個積極的主體手中。

我們已經看到了這樣的努力。就在前幾日,中共中央印發《法治社會建設實施綱要(2020—2025年)》,其中明確提出要制定完善對算法推薦、深度偽造等新技術應用的規范管理辦法。10月,杭州市人民代表大會常務委員會發布的《杭州市物業管理條例(修訂草案)》有望成為國內首部明確寫入人臉識別禁止性條款的地方性法規﹔11月23日,國內“人臉識別第一案”宣判,未經當事人同意的“強制刷臉”被駁回。關注平台外賣員的生存狀態和階層流動機制,為老年人、特定身份群體打造友好的數字生活環境,對平台濫用市場支配地位、進行差別性對待等不合規問題進行監管治理等,都是對算法社會中可能會出現的結構性問題的“糾偏”。

我們在見証算法改變社會結構的同時,也要看到這種“公共關涉”算法是一種社會機制,涉及多種社會要素和力量。要使得這種社會機制能夠朝向更加具有社會保障、社會共情、公共向善的方向推進,則需要建立更為完善的監督、協商與支撐體系。(方師師)

(責編:聶俊穹、劉穎婕)

推薦閱讀