從傳感器新聞、大數據分析到算法推薦、可視化呈現等,人工智能正在帶來一場媒體技術革命。在歡呼技術帶給人巨大福利的同時,很多人文學者和科學家對人工智能的風險產生了擔憂。智能媒介作為人工智能重要組成部分,其現實和未來風險包括“單向度的人”“信息繭房”“信息過載”“自我截除”“被替代”“透明人”“黑箱”“客體化”等,這些現象近年來受到廣泛關注。
大眾媒體時代的延續風險:單向度的人
20世紀60年代,馬爾庫塞在《單向度的人》中對發達工業社會進行了批判,他認為現代新技術形態對人進行了全面操縱和控制,使人喪失了否定的、批判的、超越性的第二向度思維,從而導致“單向度的人”。他認為,大眾媒介是國家的“話筒”,是權力的工具,在“單向度的人”形成過程中“功”不可沒。
因此,“單向度的人”并非因人工智能媒介而產生的,甚至網絡時代的到來曾在一定程度上消解了大眾媒體時期人的單向度:人同時作為生產者和消費者,主體傳播地位增強;網民建立了公共話語空間,在網絡上產生了“意見市場”。這些都有效地促進人的全面發展。
但智能媒介的廣泛應用卻使這些情況發生了變化,“信息繭房”的形成對人的單向度起了強化和極化作用。其一,智能媒介深諳人們的喜好,用定制信息搭建起了“信息繭房”。在智能化、移動化媒介的“共謀”中,一些人的思想沉迷在極為狹窄的領域中,成為比大眾媒體時代更為典型的“單向度的人”。傳媒學者喻國明認為,算法甚至可以使公眾在由自己的意志編織起來的“信息繭房”中背離事實,削弱其理性判斷力,從而實現對公眾的操縱。其二,智能媒介技術的高門檻在“信息繭房”的外圍又搭建起一道高墻。神經網絡、深度學習等工具的技術障礙對于普通網民是難以逾越的,容易引起“智能崇拜”,使網民“屈從”于智能媒介給出的事實解讀。其三,大數據技術和不當媒體操作合謀,很容易根據性別、年齡、購買行為等為人精準畫像,使人變成“透明人”。“透明人”便于信息挖掘、歸類,成為游說、推銷的對象,進而變成“票倉”“市場”,而其他向度卻被棄之一旁,從而又增強了“信息繭房”的效應。
綜上所述,智能媒介技術利用其推薦算法為很多網民搭建起了“信息繭房”,技術的高門檻、人的透明化在“信息繭房”之外又筑造了兩道高墻,這種情況下人的單向度進一步提高。
當前智能媒介的主要風險:算法黑箱
“算法新聞”指的是以機器學習或神經網絡為基礎生產和推薦的新聞。牛津路透新聞研究所《數字新聞報告 2017》顯示,54% 的受訪者更喜歡通過算法來篩選新聞故事。由于算法技術本身的復雜性,受眾很難像了解傳統媒體運作流程那樣去了解算法新聞的產制過程,因此這個中間環節常被稱作“算法黑箱”。
算法黑箱的風險主要是算法偏見,即用貌似客觀的算法代替新聞的各個環節,輸出違背客觀真實的結果。對于公眾而言,算法宣稱的技術中立姿態常常具有極大的欺騙性。而算法偏見大多來源于算法設計者、輸入數據以及程序設計。
媒介即信息,算法即權力。英國文化研究專家斯科特·拉什(Scott Lash)強調,“在一個媒體和代碼無處不在的社會,權力越來越存在于算法之中”。算法自身的高門檻、神秘性為其披上了“黑箱”的外衣,其標榜的技術客觀性掩蓋了算法偏見,然而算法偏見塑造的擬態環境會對客觀真實帶來真正的傷害。
未來智能媒介的真正風險:人被客體化
人類傳播史是一部理性主義不斷擴張的歷史,實際上也是人類主體性不斷增強的歷史。新聞傳播從口口傳播、官方發布到后來職業化生產再到“人人都有麥克風”,無不體現著技術的強大延伸作用。
麥克盧漢在《理解媒介》一書中指出,任何發明或技術都是人體的延伸或自我截除。設想一下未來智能媒介報道火災新聞的場景:火災發生時,分布在現場的傳感器可以判斷出火情大小并初步判斷傷亡情況,并將現場圖像和信息傳真至智能系統。系統在收到信息后,迅速加工成可視化新聞,推送到受眾屏幕上。在這種場景中,除了系統的設計維護者,傳統意義上的編輯記者已經“被消亡”。此時,人的身份就成了防止算法跑偏的把關人、不斷給算法系統升級的工程師以及推薦新聞的收受者。法國哲學家雅克·埃呂爾(Jacques Ellul)認為技術相對于人是自主的:“我們已經看到,在技術的自我增長方面,技術沿著它自己的路線前進,越來越獨立于人……人降低到了催化劑的層次。”
現在我們經常聽到的論述是:人工智能在新聞報道領域只能勝任那種預制的格式化任務,缺少深度和人情味,不會發散式思考,沒有整體性思維。這種自信實際上帶有很大的主觀性,是對人工智能科技發展的選擇性遮蔽。人工智能的未來發展有兩個路向,一是模擬人類的思考,用神經網絡、深度學習加上人機接口等技術,用電腦模擬人腦;另一個路向正是很多科學家更為擔憂的,即人工智能跨越現有人類思維邏輯,選擇全新路徑,以降維打擊方式在思維和實踐能力上超越人類。近年來,一些人文學者對機器不會代替人類的堅信正被科學家的擔憂取代,被比爾·蓋茨譽為“預測人工智能未來最權威的人”的雷·庫茲韋爾(Ray Kurzweil)堅信,人工智能會超越人類智能,而且超越的速度比人們預想的快得多。
波茲曼指出,任何一種工具都存在觀念上的偏見,都會傾向于將世界構建成某種特定形態,看重某種特定的事物,強化某種特定的感官、技能或態度。特別需要提出的是,在智能機器自主性增強并突破“奇點”之時,如何保證智能媒介的目的和人類總體價值觀相一致?智能媒介是否會與部分人類或智能機器共謀,變成謠言制造者、隱私收集者或騷亂煽動者?當智能機器并入物聯網之后,新聞與控制信息的界限將變得模糊,智能媒介成為直接行動者的可能性是否絕對不存在?這些問題都是需要我們深思的。
從單向度的人、算法偏見到人被客體化,智能媒介的風險逐漸加強,并且呈現階段性風險的特征。人的單向度風險在大眾媒體時代就已經廣泛存在,只是智能媒介將其強化、極化而已;算法以技術中立的外衣導致的報道失實,是我們面臨的主要現實危險;未來智能媒介技術的突破性發展,可能會真正危及人的主體性。本文并非以技術悲觀主義看待智能媒介的未來,但在任何情況下都必須看到,技術本身不能帶來解救,而只有對技術本質的反思才會提供前途。
(作者單位:中國人民大學新聞學院)