“數字囚徒”?警惕打工人被算法異化
當AI招聘官越來越多地出現(xiàn)在大廠的面試當中,當由算法決定的最優(yōu)路線成為外賣騎手的行進指揮,當“數字HR”開始決定員工去留……算法,這個在幾年前還稍顯陌生的名詞,如今已然成為一些打工人難以忽略的存在。
一面是解放人力、提升效率的好用工具,一面是不近人情的冰冷機器。隨著算法在人們生產生活中的存在感日益增強,其產生的矛盾也愈發(fā)受到關注:職場中的算法如何在高效和平等間尋求平衡?人機互動日益頻繁的當下,打工人與算法如何和諧共處?
無處不在的算法
在不久前結束的2025夏季達沃斯論壇上,中國社會科學院大學新聞傳播學院副教授孫萍在一場名為“職場中的算法”的互動論壇上,分享了一件最近發(fā)生在她身上的事:當她和朋友討論晚上去吃烤鴨,并打開手機軟件選擇餐廳時,還沒來得及搜索,幾家烤鴨店就直接出現(xiàn)在了首頁上。
此類經歷對于當下的年輕人來說其實并不新鮮。出門打車時,算法會為人們規(guī)劃出距離最短、用時最少的行程路徑;點外賣時,算法會把近期常吃的餐廳優(yōu)先排序;打開音樂軟件,算法按照個人喜好生成的個性化“每日歌單”出現(xiàn)在頁面最顯眼的位置……這些日常生活中常見的片段,反復佐證著一個事實:算法正以一種看似溫和友好的方式,成為人們生活的重要參與者。
如果生活中的算法能被稱為“選擇困難癥救星”和“效率優(yōu)化器”,職場中的算法似乎就沒有那么受歡迎了。一個頭部大廠的HR(人力資源管理)說,用算法篩選簡歷早已不是新鮮事。雖然算法直接地提升了她的工作效率,但也讓她感到悚然心驚:“這意味著當我需要尋找下一份工作時,決定我能否參加面試的同樣可能是算法。”
從全球來看,算法甚至已進入更為殘酷的裁員環(huán)節(jié)。2022年,一則臉書解雇60名員工的新聞引發(fā)了廣泛討論。原本尋常的人員調整,卻因為裁員的方式變得不那么尋常——主持這次裁員的并不是人,而是算法。
除了擔任HR和“裁員官”以外,算法“監(jiān)工”已偷偷將打工人是否上班“摸魚”記錄在案。早在2015年,亞馬遜就針對其倉儲管理開發(fā)了一套效率檢測和評估系統(tǒng),這套系統(tǒng)可以實時監(jiān)控員工的工作情況。如果發(fā)現(xiàn)有人取貨時間過長或不在休息時間內違規(guī)休息,系統(tǒng)就會自動給其打上“效率低下”的標簽,并予以相應的警告和處罰。
算法的高效與偏見
“被算法篩選后招入公司,在工作中被算法監(jiān)控,再被算法裁掉,也算是‘閉環(huán)’了。”這一“玩梗”的背后,是人們對于算法逐漸滲透職場的感嘆和無奈。
算法勞動是孫萍多年來專注研究的領域。她將算法在職場中產生的影響概括為“三個E”,即“Efficiency(效率)”“Evaluation(評價)”和“Evolution(進化)”。
具體而言,算法帶來的效率提升前所未有地重構了人們的工作,算法的自主進化需求要求人們進行更多的數字勞動以提供數據,而由算法重新構筑的評價體系,則開始讓人們考慮和算法進行角力。“這意味著算法并不僅僅是一種技術,它已經事實性地嵌入到當下的人力關系當中。”孫萍說。
這種嵌入帶給人的感覺是復雜且矛盾的,算法“監(jiān)工”就是其中的典型案例。一方面,算法對員工的表現(xiàn)打分憑借的是電腦活躍時間、上班打卡時間等可量化標準,似乎是一種更高效的評價和管理手段。另一方面,無時無刻且不被告知的監(jiān)管以及機器管理的不近人情,又加劇了用工關系的不平等,破壞了原有的企業(yè)文化。
更重要的是,算法很難完全按照開發(fā)者的意圖運轉,很可能為了實現(xiàn)效率和收益的最大化而產生難以預知的偏見。
Grab集團是一家總部位于新加坡,為東南亞地區(qū)8個國家近2億人提供網約車和送餐服務的平臺公司。Grab集團執(zhí)行董事林友幸此前關注到,在并未對算法進行相關數據“投喂”的情況下,算法會盡量少地為學生乘客匹配網約車訂單,因為它認為學生“沒有錢”。“這是我們非常不愿意看到的情況,我們希望所有的消費者都能平等地享受我們的服務。”林友幸說。
算法如何與打工人和諧共處
隨著算法與生活的結合愈發(fā)緊密,包括大數據殺熟、信息繭房等衍生問題,已得到了一定程度的治理。但職場上的算法運用帶來的問題似乎更加隱蔽——公司當然擁有對員工錄用、監(jiān)督和開除的權力,只是對其中尺度的把握,還是要把以人為本作為根本遵循。
倫理是算法治理的高頻詞。職場算法倫理,應聚焦于是否對員工的人格尊嚴、個體權益造成侵害。想象一下,當一個人打開電腦開始一天的工作時,來自算法的監(jiān)管也同時開始,這是否會讓人產生時刻處于“數字監(jiān)牢”“數字囚徒”的緊張和焦慮?這種體驗對很多人來說是一種人格上的傷害,其導致的負面情緒堆積必然會對身心健康產生影響。
從技術層面來看,無數經驗已經證明,算法黑箱會導致產生連開發(fā)者都無法想象的輸出結果。為規(guī)避風險,就需要使用算法輔助管理的企業(yè)至少在兩方面做到清晰透明:一是要員工知悉并同意,二是要對算法輸出結果進行預防性評估,并能對其進行合理解釋、判斷和矯正。
在林友幸看來,算法的一些判斷是合理的、令人樂見其成的。如算法在派發(fā)網約車訂單時,會傾向于把更多訂單派給駕駛更為可靠的司機。“所以,重要的是我們必須對算法的判斷進行確認,確認之后,還需要向客戶和司機做出解釋。”
從更宏觀的視角來看,算法能夠在職場上突破倫理,本質上還是因為一些用人單位和員工之間天平日益失衡。實現(xiàn)算法與打工人的和諧共處,關鍵在于營造更為平等的勞資關系和勞動環(huán)境。當企業(yè)真的能平視員工,以和諧共生作為算法應用的“指揮棒”時,算法才會真正成為兼具高效、公平的“工作助手”和“管理伙伴”。
半月談評論員 梁姊
來源:半月談微信公眾號

理論新聞精選:
- 2025年08月26日 18:40:17
- 2025年08月26日 16:56:39
- 2025年08月26日 16:56:17
- 2025年08月25日 16:33:20
- 2025年08月25日 16:22:28
- 2025年08月25日 16:13:41
- 2025年08月25日 16:13:17
- 2025年08月25日 16:10:05
- 2025年08月24日 13:16:31
- 2025年08月22日 20:59:04