• <samp id="sgkyk"><pre id="sgkyk"></pre></samp>
    
    

    舊版網站入口

    站內搜索

    大數據技術下新聞傳播的倫理規制

    許向東 王悅陽2019年07月18日08:56來源:中國社會科學網-中國社會科學報

    原標題:大數據技術下新聞傳播的倫理規制

    每一次新技術被應用于新聞傳播領域,都會給傳媒業帶來巨大的變革。在大數據、人工智能等技術的驅動下,新聞生產、信息發布、用戶體驗以及信息反饋等被重新定義,而傳媒、公眾和技術也在互動中出現了異化,產生了倫理失范問題。

    大數據技術應用中的新聞失實

    美國斯坦福大學統計學教授特雷夫·哈斯蒂(Trevor Hastie)認為,在數據的“干草堆”中撈到有意義的“針”,其困難就是“許多干草看起來也像針”。這句話揭示的是,從數據源的角度看,在大數據應用的背后存在著不易發現的隱性失實問題。大數據顯示的往往是表面現象或結果,而隱藏其后的真相必須通過深入調查才能揭示。新聞報道接近事實真相需要通過對大量數據進行科學分析,但是,有限的數據開放程度導致必要數據的缺失,大數據并不是全數據,數據體量大并不等于數據全。另外,采集數據的標準不同、互聯網環境的匿名性等因素,直接影響了數據的準確性,而看似微小的誤差將導致不同的運算結果,運算結論的不準確必然產生失實的新聞信息。

    新聞報道是一種敘事,不僅要真實而且也要有趣,與受眾密切相關。這就決定了新聞報道與統計分析在處理和展現數據方面的不同,媒體需要用文化、法律和政治等標尺來衡量哪些數據重要以及為什么重要,這就會使得同一組數據因為不同的邏輯順序和因果關系而形成不同的解讀。從數據處理的角度看,對于事實與事實之間較復雜的關系,大數據技術很難捕捉到背后隱藏的真相,以分析出錯綜復雜的利益鏈條并做出準確的價值判斷,這就難免產生新聞失實問題。

    被侵犯的公眾個人隱私權

    數據是信息社會的重要資源,為了擁有大量數據,數據的采集范圍日漸廣泛,采集方式也日漸隱蔽。大數據所隱含的價值及其帶來的利潤,增加了公眾個人數據被非法收集和過度分析以及被濫用和泄露的風險。

    從所有權的角度來看,法律規定,公眾不僅擁有個人數據的所有權,而且有權利知道是哪些機構在收集自己的數據、收集了哪些數據、被收集的數據將用于何處等。如果公眾在未被告知的情況下被收集了個人數據,這就是一種違背職業倫理和相關法規的行為。采用大數據技術對公眾的原始數據進行運算、挖掘之后獲得的數據屬于延展性產品,這類數據的指向性更明確、價值更大,理應和原始數據一樣得到法律的保護。大數據的挖掘程度越深,實現的價值就越大,大數據開發者所獲得的利益也就越大,因此,對公眾個人數據的過度分析和濫用的事例日漸增多。

    例如,臉書的“數據門”就是對用戶數據濫用的一個典型事件。英國劍橋分析公司從2014年起非法獲取了5000萬臉書用戶的數據,通過大數據技術分析了這些用戶的興趣點和偏向,然后精準投放他們偏好的新聞和廣告,潛移默化地對其政治傾向施加影響,進而左右總統選舉的投票。大數據技術應用上的失范導致一些用戶開始產生“被迫害臆想”,有用戶懷疑有人利用手機麥克風竊取個人語義信息,有人猜測輸入法也在竊取數據。用戶對于大數據技術的過度擔憂導致了開放數據的困難,影響了大數據技術的合理開發。

    “技術中立”包裹下的偏見與歧視

    隨著人們的信息傳播、觀點交流主要借助于互聯網,網絡平臺已經不折不扣地成為了新興媒體。一些網絡平臺以“技術中立”“技術至上”“算法沒有價值觀”等概念模糊了其資本逐利的本質目標。在運用大數據技術進行信息生產與分發時,內容的真實、客觀、公正以及輿論導向的正確與否都讓位于受眾的興趣,雖然看似在滿足受眾的需求,但實質上是網絡平臺本身經濟訴求的真實反映。新聞信息的生產理念、流程和把關模式,包括傳統的新聞概念正逐漸被改變,原創性新聞的生產積極性也被削弱。

    基于大數據運算的算法作為一種數學表達,理應拋棄人類在信息傳播中的獵奇、歧視、偏見等不良因素。但是,在算法程序的研發中,不僅數據的體量、準確性、適用范圍等直接關系到算法決策和運算的結果,而且研發人員所使用的訓練數據的分布狀況,以及對算法進行測試的過程,都會影響算法的客觀公正,再加上算法黑箱的存在,使得各式各樣的偏見、歧視被“技術中立”的外衣所包裹。

    媒體、公眾與網絡平臺的倫理規制

    探究人和技術的關系必須在直面技術的同時觀照人類,讓技術和人在雙向互動的過程中相互馴化,讓技術更好地為人服務,也讓人不斷更新“技術”思維,不過分依賴技術,保持主觀能動性和創造力。

    當前,媒體、公眾、網絡平臺分別承擔著交叉核實信息源、建立隱私保護意識和提高數據開放程度的責任。媒體既可以依靠傳統的事實核查手段,也可以利用新興的技術工具檢驗信息的真實性。公眾需要學習保護隱私的方法,比如要在提供個人隱私信息之前仔細閱讀隱私保護政策,明確不再使用該服務時個人信息的刪除和退出機制等。網絡平臺可以通過制定數據信托程序,設計信托程序的協議內容和框架流程來處理數據交換過程中的敏感問題,提高數據開放程度以滿足新聞報道的需求。

    如今很多媒體認識到“信息繭房”的問題,推出了應對“信息繭房”的程序。例如,新聞APP“跨越分歧的閱讀”(Read Across the Aisle)創立了包含20個新聞品牌的圖譜,圖譜能夠記錄用戶閱讀新聞品牌的頻率,并計算受眾在每一個新聞品牌中花費的時長,當受眾的閱讀習慣偏向于一方時,程序會建議受眾調整閱讀內容。

    流量邏輯本質上就是“消費者導向”原則的變種,一味遵從這種邏輯將導致媒體背離核心價值。因此,為保證新聞的權威性,媒體需要平衡公共服務與經濟利益之間的關系。當下的大數據技術還不具備透徹了解社會現狀與發展進程的能力,也無法在新聞的生產與發布上體現大局意識。媒體有責任在新聞信息的生產與發布過程中,把回應公眾的關切與政府當前的工作重心結合起來,把服務、滿足公眾需求與教育引導公眾、提高公眾的素養結合起來。此外,受眾也要帶著質疑和批判精神看待基于大數據技術生成的新聞信息,而運用法律法規對網絡平臺進行主體問責也是避免職業倫理失范的有效途徑。

    大數據技術為新聞傳媒業的發展提供了一條新路徑,在改變原有新聞信息的生產和發布方式的同時,也需要對原有的職業倫理規制做出相應的調適。技術紅利與技術缺陷是相伴相生的,因大數據技術應用不當而引發的某些問題不是技術發展的失敗,而是對技術理性與價值理性能否相互協調、相互融合的考驗。大數據技術推動著新聞傳播業的更新和變化,同時新聞傳播業也對大數據技術的應用場景和范圍做出限制,這是技術與人在大數據時代相互馴化的過程。因此,從職業倫理的層面規范媒體、網絡平臺的傳播行為,讓技術更好地推進新聞傳媒業的健康發展,有著深遠的意義。

    (本文系中國人民大學科學研究基金(中央高校基本科研業務費專項資金資助)項目“數據新聞可視化的產品評價指標體系研究”(17XNL003)階段性成果)

    (作者單位:中國人民大學新聞學院;新華社國內新聞編輯部)

    (責編:孫爽、艾雯)
    精品国产中文字幕| 久久久久久精品久久久久| 国产精品成人免费一区二区| 亚洲精品字幕在线观看| 国产精品无码无片在线观看3D | 色综合久久精品亚洲国产| 宅男在线国产精品无码| 无码人妻精品一区二区三区不卡 | 国产精品剧情原创麻豆国产| 久热这里只有精品12| 精品国精品国产自在久国产应用男 | 成人区人妻精品一区二区不卡视频 | 在线观看麻豆精品国产不卡| 96免费精品视频在线观看| 日韩精品无码人成视频手机 | 国产福利vr专区精品| 国产精品成人在线| 亚洲天堂久久精品| 国产亚洲婷婷香蕉久久精品| 亚洲精品国精品久久99热| 国内精品视频一区二区八戒 | 成人H动漫精品一区二区| 精品免费久久久久久久| 蜜臀久久99精品久久久久久小说 | 国产精品后入内射日本在线观看 | 久久精品国产免费观看 | 亚洲精品影院久久久久久| 国产日韩精品中文字无码 | 7777久久久国产精品消防器材| 国产在线观看91精品一区| 亚洲精品欧美综合四区| 精品一区二区三区在线播放视频| 久久久久无码国产精品一区| av蓝导航精品导航| 三上悠亚精品二区在线观看| 香蕉99久久国产综合精品宅男自 | 久久久精品2019中文字幕之3| 精品国产午夜福利在线观看| 人妻无码精品久久亚瑟影视| 精品久久伦理中文字幕| 午夜人屠h精品全集|