演算法道德
『壹』 演算法獨裁
想到不遠的將來,每個家庭都有一部無人駕駛汽車,你只需要設定一個目的地,就可以悠哉地躺在後座等待人工智慧把汽車駕駛到終點。可是別忘了,天有不測風雲,演算法真的能把所有的變數都事先採集並優先判斷嗎?如果路叢鬥上遇到無法避免的車禍,只能在車主和兒童之間選擇一個保護對象,人工智慧的演算法還能給出讓大家都滿意的第三個選項嗎?如果演算法遇到倫理道德難題,那該何者優先?如果一味演算法優先,人類運行幾千年的社會人倫關系是不是可以退居二線?一個簡單的提問細究起來也能讓人細思極恐,這就是演算法咄咄逼人的發展形式。恐怕這個問題要放在一個更大的前提下討論才有答案,即人工智慧是否將要取代人類作為一種全新的社會存在,顛覆人類傳統的社會關系並滲則磨發展出順應演算法獨裁時代的新的社會規則…盯此
『貳』 演算法治理須抓牢主體責任「牛鼻子」
近日,國家網信辦等四部門聯合發布《互聯網信息服務演算法推薦管理規定》(以下簡稱《規定》),引發了 社會 熱議和互聯網平台企業的積極響應。
《規定》的出台,表明國家有關部門對演算法正在經歷一個認識上由淺及深、由表及裡,管理上從審慎監管到豐富工具庫,再逐漸到引航指向的過程。作為部門規章的《規定》,也將與網路安全法、數據安全法、個人信息保護法等重要法律一道構建起新時代大數據和人工智慧治理的主體框架。
過去十年來,以演算法為核心的智能 科技 極大改變了 社會 生活形態,購物推薦、出行導航等逐漸走入尋常百姓家,人們的生纖稿腔活已被嵌入「演算法」之中,甚至相當一部分人產生了「演算法依賴」。以演算法為核心的智能 科技 也極大提升了政府公共治理效率和水平,特別是在疫情防控中發揮了不可替代的作用。
但與此同時,由於認識、監管滯後,以及信息不對稱所帶來的「黑箱運算」,導致在一些商業應用場景中,演算法以一種極具破壞力的方式近乎野蠻地生長著:演算法操縱、誘導沉迷、大數據殺熟等大量存在,不僅沖擊正常市場秩序,破壞公平競爭的市場環境,也影響了消費者的知情權、選擇權和處置個人信息的權利。
演算法作為一種技術規則和運算邏輯,本身是中立的,實踐中之所以出現種種亂象,折射出的是演算法背後的開發者價值觀的偏航。演算法偏航帶來的結果大致相同:那就是通過不公平、不正當的運算規則鎖定和收割利益。因此,演算法的「算計」,歸根結底是人的算計,是掌握演算法的商業平台的算計。盡管有專家稱,一些具備自我學習、自我訓練能力的演算法,出現歧視和偏差在很多情況下難以預料,但從整體來看,演算法是有價值觀的,其價值觀就是開發者和互聯網平台的價值觀。
因此,演算法治理的核心就是牽住互聯網平台的主體責任這個「牛鼻子」。如《規定》明確,演算法推薦服務提供者應當落實演算法安全主體責任,建立健全演算法機制機理審核、 科技 倫理審查、用戶注冊、信息發布審核、數據安全和個人信息保護等管理制度和技術措施。我國個人信息保護法也規定,提供重要互聯網平台服務、用戶數量巨大、業務類型復雜的個人信息處理者應當承擔保護信息安全的主體責任。
壓實主體責任是穿透演算法迷霧毀衫、引航演算法治理的關鍵之舉。國家有關部門近年來對若干互聯網平台啟動調查,就是在執法層面抓牢、壓實主體責任的切實體現。國家層面也越來越清晰地認識到:掌握大數據、雲計算、人工智慧的互聯網平台,其作用是為 社會 發展提供「關鍵信息基礎設施」,而非張牙舞爪的利益收割機。
作為演算法的提供者,互聯網平台必須著眼長遠,服務於國家整體戰略,嚴格遵守法律法規和商業道德,堅持正確導向,切實承擔起主體責任,規范演算法應用,實現科敬虛學技術與商業倫理、 社會 價值的良性互動,為推動我國經濟 社會 高質量發展提供新助力。(張亮)
『叄』 互聯網信息服務演算法推薦管理規定
第一章總 則第一條為了規范互聯網信息服務演算法推薦活動,弘揚社會主義核心價值觀,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益,促進互聯網信息服務健康有序發展,根據《中華人民共和國網路安全法》、《中華人民共和國數據安全法》、《中華人民共和國個人信息保護法》、《互聯網信息服務管理辦法》等法律、行政法規,制定本規定。第二條在中華人民共和國境內應用演算法推薦技術提供互聯網信息服務(以下簡稱演算法推薦服務),適用本規定。法律、行政法規另有規定的,依照其規定。
前款所稱應用演算法推薦技術,是指利用生成合成類、個性化推送類、排序精選類、檢索過濾類、調度決策類等演算法技術向用戶提供信息。第三條國家網信部門負責統籌協調全國演算法推薦服務治理和相關監督管理工作。國務院電信、公安、市場監管等有關部門依據各自職責負責演算法推薦服務監督管理工作。
地方網信部門負責統籌協調本行政區域內的演算法推薦服務治理和相關監督管理工作。地方電信、公安、市場監管等有關部門依據各自職責負責本行政區域內的演算法推薦服務監督管理工作。第四條提供演算法推薦服務,應當遵守法律法規,尊重社會公德和倫理,遵守商業道德和職業道德,遵循公正公平、公開透明、科學合理和誠實信用的原則。第五條鼓勵相關行業組織加強行業自律,建立健全行業標准、行業准則和自律管理制度,督促指導演算法推薦服務提供者制定完善服務規范、依法提供服務並接受社會監督。第二章信息服務規范第六條演算法推薦服務提供者應當堅持主流價值導向,優化演算法推薦服務機制,積極傳播正能量,促進演算法應用向上向善。
演算法推薦服務提供者不得利用演算法推薦服務從事危害國家安全和社會公共利益、擾亂經濟秩序和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動,不得利用演算法推薦服務傳播法律、行政法規禁止的信息,應當採取措施防範和抵制傳播不良信息。第七條演算法推薦服務提供者應當落實演算法安全主體責任,建立健全演算法機制機理審核、科技倫理審查、用戶注冊、信息發布審核、數據安全和個人信息保護、反電信網路詐騙、安全評估監測、安全事件應急處置等管理制度和技術措施,制定並公開演算法推薦服務相關規則,配備與演算法推薦服務規模相適應的專業人員和技術支撐。第八條演算法推薦服務提供者應當定期審核、評估、驗證演算法機制機理、模型、數據和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫理道德的演算法模型。第九條演算法推薦服務提供者應當加強信息安全管理,建立健全用於識別違法和不良信息的特徵庫,完善入庫標准、規則和程序。發現未作顯著標識的演算法生成合成信息的,應當作出顯著標識後,方可繼續傳輸。
發現違法信息的,應當立即停止傳輸,採取消除等處置措施,防止信息擴散,保存有關記錄,並向網信部門和有關部門報告。發現不良信息的,應當按照網路信息內容生態治理有關規定予以處置。第十條演算法推薦服務提供者應當加強用戶模型和用戶標簽管理,完善記入用戶模型的興趣點規則和用戶標簽管理規則,不得將違法和不良信息關鍵詞記入用戶興趣點或者作為用戶標簽並據以推送信息。第十一條演算法推薦服務提供者應當加強演算法推薦服務版面頁面生態管理,建立完善人工干預和用戶自主選擇機制,在首頁首屏、熱搜、精選、榜單類、彈窗等重點環節積極呈現符合主流價值導向的信息。第十二條鼓勵演算法推薦服務提供者綜合運用內容去重、打散干預等策略,並優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性,避免對用戶產生不良影響,預防和減少爭議糾紛。第十三條演算法推薦服務提供者提供互聯網新聞信息服務的,應當依法取得互聯網新聞信息服務許可,規范開展互聯網新聞信息采編發布服務、轉載服務和傳播平台服務,不得生成合成虛假新聞信息,不得傳播非國家規定范圍內的單位發布的新聞信息。第十四條演算法推薦服務提供者不得利用演算法虛假注冊賬號、非法交易賬號、操縱用戶賬號或者虛假點贊、評論、轉發,不得利用演算法屏蔽信息、過度推薦、操縱榜單或者檢索結果排序、控制熱搜或者精選等干預信息呈現,實施影響網路輿論或者規避監督管理行為。
『肆』 人工智慧在企業應用中的道德規范
人工智慧在企業應用中的道德規范
AI是指智能水平不亞於甚至超過人類的軟體產品,也稱為「強AI」。但上述新項目對AI的定義還包括補充或取代人類決策的機器學習和數據驅動演算法。
例如,有證據表明,當黑皮膚的使用者把手放在感測器上時,某些自動皂液器不起作用。這些系統由開發人員用自己的手進行測試,但沒有在膚色不同的用戶身上進行測試。這個例子說明人類創造的演算法會按照開發者的觀點和偏見行事。
有多少首席執行官真正知道他們的公司如何獲得和使用AI和AI演算法?
人工智慧(AI)越來越多地被用於企業應用,它可以通過解析數據來獲得對客戶和競爭對手的有用洞見,從而提供競爭優勢。但還有一個並行的趨勢:評估AI和企業AI演算法的道德影響。
就在去年,麻省理工學院(MIT)和哈佛大學共同開展了一個探索AI道德規范的項目,耗資2700萬美元。最近,谷歌在2014年收購的英國私企DeepMindTechnologies組建了一支新的研究團隊,致力於研究AI道德規范。近期其他的AI道德規范項目包括IEEE全球人工智慧和自主系統道德考量計劃、紐約大學AI Now研究所和劍橋大學Leverhulme未來智能研究中心。
AI道德規范為什麼如此令人感興趣,這對企業組織意味著什麼?
最近發生的災難性品牌名聲受損和輿論抨擊揭示了將AI部署到企業中可能伴隨的道德、社會和企業風險。
AI的定義
一些專家堅持認為,AI是指智能水平不亞於甚至超過人類的軟體產品,也稱為「強AI」。但上述新項目對AI的定義還包括補充或取代人類決策的機器學習和數據驅動演算法。
如果接受後面這個更廣泛的定義,那麼我們必須認識到,AI多年來就已經是電腦時代的特徵。如今,在大數據、互聯網和社交媒體時代,使用人工智慧帶來的許多優勢已經廣為人知,受到普遍認可:人工智慧可以為企業提供競爭優勢、提升效率、洞悉客戶及其行為。
運用演算法來發現數據中的重要模式和價值,這幾乎被一致認為是價值創造的省錢途徑,特別是在市場導向的競爭環境中。但AI道德規范項目的興起證明,這些看似有利的AI應用可能會適得其反。最近發生的災難性品牌名聲受損和輿論抨擊揭示了將AI部署到企業中可能伴隨的道德、社會和企業風險。
企業組織應該仔細思考他們使用AI的方式,因為這也會帶來商業風險。
企業如果未能發現AI演算法或機器學習系統開發人員的潛在偏見,就可能會將企業中所有利益相關者的偏見系統化。
人的偏見和歧視
AI演算法和我們用來訓練這些演算法的數據集通常來自人類。因此,嫌搜這些演算法不可避免地反映了人的偏見。例如,有證據表明,當黑皮膚的使用者把手放在感測器上時,某些自動皂液器不起作用。這些系統由開發人員用自己的手進行測試,但沒有在膚色不同的用戶身上進行測試。這個例子說明人類創造的演算法會按照開發者的觀點和偏見行事。
這些偏見通常是無意的,但無論造成的後喊昌果是否有意為之,犯下上述錯誤的公司都會面臨潛在風險。更重要的是,不管有意還是無意,人造演算法可能固有的人類偏見在很大程度上逃避了審查,從而導致使用AI的企業面臨風險。
企業如果未能發現AI演算法或機器學習系統開發人員的潛在偏見,就可能會將企業中所有利益相關者的偏見系統化。這會使企業面臨品牌名聲受損、法律訴訟、輿論抨擊的風險,還可能失去員工和客戶的信任。
企業應該為自己和社會所做的是否不僅僅是遵紀守法?企業能否自信地說自己對AI的使用是公平的、透明的、對人類負責的?
AI的廣泛應用和風險
存有偏見的皂液器只是一個例子,AI演算法還可以用於招聘、量刑和安保行動。它們是社交媒體正常運行或不正常運行的內在因素。
簡而言之,AI被用於無數的日常和專業工作。它正變得無處不在,它對企業的潛在風險也是如此。我們面臨的挑戰是理解演算法如何設計和審查,以避免開發者的觀點和偏見(不管是有意還是無意)。這提出了具有挑戰鄭者扒性的問題。
有多少首席執行官真正知道他們的公司如何獲得和使用AI和AI演算法?(許多公司與第三方AI解決方案提供商合作。)
企業盡職調查是一項法律要求,這是否包括審查企業如何生成和使用AI應用程序?對於使用AI的企業來說,盡職調查和合規性的法律定義是否全面?道德規范和企業責任的傳統概念是否適用於此?
企業應該為自己和社會所做的是否不僅僅是遵紀守法?企業能否自信地說自己對AI的使用是公平的、透明的、對人類負責的?
想要回答這些問題,企業必須審視和闡明自己在企業道德方面的立場,並運用系統性方法來評估風險。
助長趨勢
兩個趨勢可能加劇對AI應用和AI用戶進行風險評估的緊迫性和重要性。首先,消費者、公民和政策制定者越來越重視和擔心人工智慧的日益普及和可能造成的濫用或意外後果。由此產生的結果是,透明度,公平性和問責製作為競爭優勢得到了更多關注。
最終,我們希望能夠確定重要的價值觀,將它們嵌入到AI演算法的設計中,了解相關風險,繼續驗證個人、企業和社會在AI實踐方面的有效性。
行動號召
解決這些問題的第一步是意識。你的公司如何使用AI,誰可能受到影響?是否需要聘請外部專家來進行評估?
闡明你公司的核心價值觀也很重要。你使用AI的方式是否符合那些價值觀?如果不是,如何才能讓二者相符?
有資源可以幫助解決這一問題。例如,我是IEEE全球人工智慧和自主系統道德考量計劃的執行成員,該計劃致力於研究各種AI相關應用的最佳實踐,提供有助於加強這方面認識和決策指導的資源,制定AI應用的標准。(IEEE是指電氣與電子工程師協會,是最大的技術專業組織,致力於推動技術發展,造福人類。)
一個重要的資源是該計劃的「符合倫理的設計:人工智慧和自主系統優先考慮人類福祉的願景」。這份文件已發布第二版,鼓勵技術人員在開發自主和智能技術的過程中,把道德考量放在優先位置。
該計劃與IEEE標准協會展開了密切合作。最近,IEEE標准協會開始制定兒童和學生數據治理、僱主透明實踐和人類介入式AI的標准,確保由人類價值觀來引導影響我們每個人的演算法開發。
最終,我們希望能夠確定重要的價值觀,將它們嵌入到AI演算法的設計中,了解相關風險,繼續驗證個人、企業和社會在AI實踐方面的有效性。
請放心,這是一個新興的話題,本文表達的擔心和目標仍然是人們積極研究的領域。然而,想要在AI時代成為對社會負責任的企業,企業領導者必須意識到問題所在,開始識別企業價值觀,將之嵌入到AI應用程序的道德設計中。
『伍』 人工智慧時代的倫理道德面臨哪些挑戰
數字信息技術使幾乎任何人、任何時間、任何地點都能輕易獲得信息。這對我們社會的各個方面,從工業生產到分配、到商品和服務的消費,都產生了深遠的影響。就像之前的技術革命一樣,數字信息技術的影響如此廣泛,我們不再只是簡單地利用它——做我們以前做過的事情——而是通過改變我們的行為方式來適應它。
今天,數字信息技術已經重新定義了人們如何與他人進行社交互動,甚至如何找到伴侶。消費者、生產者和供應商、實業家和勞動者、服務提供者和客戶、朋友和合作夥伴之間重新定義的關系,已經在社會上造成一場劇變,正在改變後工業時代對道德理性的定義。
我們正站在下一波科技革命的風口浪尖:人工智慧。20世紀晚期的數字革命將信息帶到了我們的指尖,讓我們能夠快速做出決定,而機構做出決定,從根本上說,取決於我們。人工智慧正在通過自動化決策過程來改變這一狀況,它有望帶來更好的定性結果和更高的效率。人工智慧游戲系統在擊敗國際象棋世界冠軍卡斯帕羅夫(Gary Kasparov)和圍棋世界冠軍柯潔(Ke Jie)方面取得的成功,突顯出人工智慧在計算當前決策對潛在未來棋步的影響方面,在質量方面優於人類專家。
然而,在這個決策過程中,人工智慧也帶走了人類行為的透明性、可解釋性、可預測性、可教性和可審核性,取而代之的是不透明性。這一舉動的邏輯不僅不為參與者所知,也不為程序的創造者所知。隨著人工智慧為我們做出決策,決策的透明滾明度和可預測性可能會成為過去。
想像一下這樣的情景:你的孩子回家找你,要求你給她零花錢,讓她和朋友一起去看電影。你允許了。一周後,你的另一個孩子帶著同樣的要求來找你,但這次,你拒絕了。這將立即引起不公平和偏袒的問題。為了避免受到偏袒的指責,你要向孩子解釋,她必須完成家庭作業,才有資格獲得零花錢。
沒有任何解釋,家裡一定會有緊張的氣氛。現在想像一下用一個人工智慧系統取代你的角色,這個系統已經收集了成千上萬個處於類似情況的家庭的數據。通過研究其他家庭的零花錢決定的後果,得出結論,一個兄弟姐妹應該得到零用錢,而另一個兄弟姐妹不應該。
但人工智慧系統無法真正解釋其中的原因,只能說它衡量了你孩子的頭發顏色、身高、體重以及其他所有它能獲得的屬性,以便做出對其他家庭似乎最有效的決定。那又怎麼會有效呢?
在法庭上,過去的判決約束法官遵循先例,即使情況不完全相同,但大致相似。一致性在司法、政府、關系和道德規范中都很重要。AI沒有遵守先例的法律要求。人類往往只有有限的直接或間接經驗,而機器可能可以訪問大量數據。
人類無法在一個長期的時間尺度內篩選他們的經歷,而機器可以很容易地做到這一點。人類會排除那些被認為對決策無關緊要的因素,而機器不會排除任何因素。這可能導致不尊重先例的決定,其規模之大是人類可以理解的。隨著企業和社會迅速轉向人工智慧,人工智慧實際上可能比人類在更長的時間范圍內做出更好的決策,而人類在更短的時間范圍內就會感到困惑和沮喪,並侵蝕一個正常運轉的社會的唯一貨幣,信任。
要理解基於人工智慧的決策可能有多人工,研究人類如何做出決策是很重要的。人類的決策可能由一組明確的規則,或者僅僅基於結果論的關聯,或者由組合來指導。人類對於與決策相關的信息也是有選擇性的。由於缺乏選擇性,機器在做決定時可能會考慮人類認為不恰當的因素。
有無數這樣的例子,從微軟(Microsoft)在其聊天機器人Tay開始在Twitter上發表煽動性反猶太言論後關閉它,到波士頓大學(Boston University)的一項研仿槐宴究,該研究發現「老闆」(boss)、「建築師」(architect)和「金融家」(financier)等詞與男性、「護士」(nurse)和「接待員」(接待員)等詞與女性之間存在性別備銀關聯。這可能是數據造成的,但它與我們的顯式值形成了對比。如果數據驅動的過程依賴於這些人工智慧演算法生成的輸出,它們將產生有偏見的決策,往往違背我們的道德價值觀。
ProPublica在2016年提供了明顯的證據。美國法院使用的一種電腦程序錯誤地將兩年之內沒有再犯的黑人被告標記為「慣犯」,其再次犯案的可能性幾乎是白人被告的兩倍——前者為45%,後者為23%。如果一個人也這么做,就會被譴責為種族主義者。人工智慧揭示了我們明確的價值觀和集體經驗之間的分裂。我們的集體經驗不是一成不變的。它們是由重要的社會決定所決定的,而這些決定又由我們的道德價值觀所指導。我們真的想把決策過程留給那些只從過去學習、因而受制於過去的機器,而不是塑造未來的機器嗎?
鑒於人工智慧在醫療診斷、金融服務和就業篩查等領域的應用規模之大,任何一個偶然事件的後果都是巨大的。隨著演算法越來越依賴於提高可預測性的特性,控制這類決策的邏輯變得越來越不可思議。因此,我們失去了決策的全局性,拋棄了所有的原則來支持過去的觀察。在某些情況下,這可能是不道德的,在某些情況下是非法的,在某些情況下是短視的。「慣犯演算法」公然藐視無罪推定、機會均等等原則。
一致性是道德和正直不可或缺的。我們的決定必須遵循一個高於統計准確性的標准;幾個世紀以來,相互信任、減少危害、公平和平等的共同美德已被證明是任何推理系統生存的基本基石。沒有內部邏輯的一致性,人工智慧系統缺乏健壯性和可問責性——這是在社會中建立信任的兩個關鍵措施。通過在道德情感和邏輯推理之間製造裂痕,數據驅動決策的不可知性阻礙了批判性地參與決策過程的能力。
這是我們生活的新世界,復雜的決定被削減成反射性的選擇,並被觀察到的結果所強化;把復雜的東西簡化成簡單的東西,把道德簡化成實用的東西。今天,我們的道德感為我們的決策提供了一個框架。也許不久之後,我們的決定就會讓人們對我們的道德產生懷疑
『陸』 演算法壓榨的經濟根源
演算法壓榨的經濟根源是資本對勞動力的壓榨,然後演算法工程師來實時推動。
以推薦演算法為例,除了咨詢服務以外,人們還會收到商品、美食乎芹、音樂等各類不同的興趣推薦,讓每個人置身於"整個世界都在圍繞自己而轉"肢謹的錯覺,彷佛最了解自己的不是家人,而是手機各種程序,從而成為重度手機依賴者,越來越難以離開手機,人也變得歷頃基越來越懶惰和貪婪,從而資本達到網路獲利。
『柒』 2021省考申論模擬題:演算法推薦不應跑偏變味
【熱點背景】
隨著信息技術發展、大數據廣泛應用,演算法推薦讓信息傳播更加個性化、定製化、智能化,但也出現了一些亂象。據悉,一些新聞資訊、網路社交等平台的個性化推送存在“泛娛樂化信息多、低俗內容多、未經核實內容多”“三多”現象,也容易引發一些用戶尤其是青少年沉迷網路問題。
【觀點聚焦】
藉助演算法推薦,信息獲取已從“大海撈針”進入“私人定製”時代,在帶來方便的同時,也產生了一些負面影響。一是會加速形成“信息繭房”和“情緒傳染”效應,導致用戶視野局限。二是可能導致未成年人沉迷網路。三是給“大數據殺熟”提供便利。演算法推薦逐漸成為各大平台的常規操作,通過用戶數據量及數據更新頻次,可輕易判斷出是“生客”還是“熟客”,一旦技術被濫用,很可能淪為“殺熟”的幫凶。
演算法推薦不應跑偏變味,而是要更有“溫度”。這就要求設計者、運營者負起責任,相關企業嚴格遵紀守法,積極履行社會責任。比如,可以建立社會化評議機制,對平台運用演算法產生的後果予以評價,從而為用戶提供更好的服務。同時,還需要強有力的監管。近日,國家市場監管總局發布的《關於平台經濟領域的反壟斷指南(徵求意見稿)》對此作出了相關規定,相關立法還需進一步完善。相關職能部門應行動起來,對演算法推薦強化規制,依法懲戒涉嫌違法行為。
演算法推薦在實踐中不應片面追求效率,還必須兼顧公共價值觀、社會道德等,確保演算法推薦在正軌上運行。這需要監管部門、平台、企業以及用戶共同發力,讓演算法推薦真正惠及用戶。
『捌』 不得利用演算法實施影響網路輿論,各部門對此作出了哪些舉措
網路安全與社會公民生活息息相關,同時它與社會多個方面的利益相互影響。秉著“為人民服務”的理念。近日,國家互聯網信息辦公室聯合多個部門發布了兩個重要文件,為營造安全的網路環境保駕護航。
通過這一系列規定為國家互聯網安全提供了保障。各部門相互努力,對不得利用演算法對國家互聯網安全進行影響作出了規定。這為國家其他行業的發展和事業的繁榮提供了信息安全基礎。是非常的有利的。這些規定為國家互聯網安全提供了法律保障和法律依據,為國家互聯網科技發展保駕護航。相信國家的這一次出手扼殺了許多不法手段來獲取公民消息的途徑,也保障了國民的信息網路安全。
『玖』 關於java新聞網站的演算法
(一)演算法倫理的研究
1.演算法內涵界定。演算法源於數學,但現代演算法又遠遠不止於傳統數學的計算范疇。演算法多被理解為是計算機用於解決問題的程序或步驟,是現代人工智慧系統的運行支柱。《計算主義:一種新的世界觀》(李建會等,2012)中將演算法定義為能行的方法,在外界的常識性理解中所謂演算法就是能感受到的一套運算規則,這個規則的特點在於運算時間的有限性、計算步驟的有窮性、輸入結果的確切性,它是機械步驟或能行可算計程序。該定義點明了演算法應具備的兩個基本屬性—或侍李—有限性與有窮性。《用計算的觀點看世界》(酈全民,2016)則從信息傳播的角度解讀演算法,認為演算法實質上是信息處理方法。
2.演算法倫理研究
倫理關乎道德價值真理及其判斷。存在於自然界、社會中的人,其行為應遵循一定的倫理道德規范。倫理的效應要導向善。倫理道德關注對個體存在的尊重、個體的自由、公平正義以及組織團體的延續與發展等問題。在一定程度上可以說,當今的人類社會已經不能脫離智能演算法系統而運行了。
演算法無時無處不在對世界產生影響,因而演算法也會必然的觸碰到倫理道德。和鴻鵬(2017)已指出,演算法系統在人類社會生活中的廣泛應用,會陷入諸多如人類面臨且無法迴避的倫理兩難選擇困境之中。而當演算法與倫理發生關聯時,學界一般認為會引出職業倫理和技術倫理兩種倫理問題。
職業倫理主要與演算法系統的開發者有關,指開發者是帶有個性價值觀、倫理道德觀去研發演算法系統的行為體,因而演算法系統一開始便會摻雜著設計人主觀性的倫理道德觀。設計者出於何種目的開發某演算法系統、面對不同問題設計者持有的倫理道德態度,這些衫遲都會在演算法系統的運行中得到體現。
技術倫理是演算法系統在一定意義上可稱之為一種科學技術,這種技術自身及其運作結果都會負載著倫理價值。其實在一些情況下,職業倫理與技術倫理之間並沒有很明確的界別,關於這一點,劉則淵跟王國豫已做過論述。
本文將主要從技術倫理的角度對演算法關涉倫理這一問題嘗試做深入研究。
(二)網路新聞傳播的演算法倫理研究
演算法與技術的融合不斷英語於網路新聞傳播領域中,從數據新聞到機器寫作,從演算法推送到輿情到分析,國內新聞傳媒領域的機器新聞和相關研究逐漸發展,金兼斌在《機器新聞寫作:一場正在發生的革命》(2014),作者較早的將眼光聚焦於基於演算法的新聞內容生產和編輯。認為在自動化新聞生產大發展的前提下,諸如新聞生產或分發中勞動密集型的基礎性工作與環節都將被技術取代。張超、鍾新在《從比特到人工智慧:數字新聞生產的演算法轉向》(2017)認為演算法正在從比特形式走向人工智慧階段,這種轉向使得數字新聞與傳統新聞的邊界進一步明晰,促使數字新聞生產也產生了變革。胡萬鵬在《智能演算法推薦的倫理風險及防範策略》中總結了從演算法推送方面:針對新聞的價值觀所受到的負面影響;以及新聞的公共性、客觀性和真實性受到的削弱進行分析;從受眾方面:將具體對信息繭房現象以及受眾的知情權和被遺忘權展開探討;從社會影響方面,則針對社會群體、社會公共領域和社會文化所受到的消極影響展開論述。
根據以上文獻的梳理可以看出,國內目前對網路新聞傳播的演算法倫理研究主要集中在新聞業態演算法倫理失范的相關問題,因為與其他失范問題相比,這是比較容易發現的。但目前關於網路新聞傳播的演算法倫理的國內研究還存在不足:國內算談棚法倫理和網路新聞傳播演算法倫理的研究還是在起步階段,比較成熟的系統性研究還未出現;關於演算法開發人員和平台的責任機制的研究都比較薄弱,總上所述,演算法推送新聞的倫理問題研究是有必要繼續加強的。
2.新聞推薦演算法的興起、發展與原理
2.1新聞推薦演算法的興起
隨著計算機技術的信息處理的維度越來越高,信息處理的能力不斷提升,演算法技術可以從大數據中篩選出用戶最關心最感興趣的信息,改變了原有的新聞信息傳播方式,重塑了新的媒介生態和傳播格局。
但反過來看,在人人都能生產信息的背景下,信息的生產、傳播和反饋的速度都是呈幾何倍數增長,用戶面對的信息越來越多。由於設備的局限性和信息海量,用戶無法集中注意力看自己感興趣的內容,也無法及時抓取對自己有用的信息,於是出現了「注意力經濟」。美國經濟學家邁克爾·戈德海伯(1997)認為,當今社會是一個信息極大豐富甚至泛濫的社會,而互聯網的出現,加快了這一進程,信息非但不是稀缺資源,相反是過剩的。相對於過剩的信息,只有一種資源是稀缺的,那就是人們的注意力。換句話說,信息不能夠一味追求量,還要有價值,價值就在於用戶對信息的注意力,誰獲得了用戶的注意力就可以有市場的發展空間,通過「販賣」用戶的注意力能夠使新媒體聚合平台獲得利潤,維持發展。再加上現在生活節奏越來越快,人們對信息獲取的量和效率要求提高,不想把時間浪費在自己不感興趣的信息,從而用戶獲取信息的「個性化」特徵變得明顯起來。
基於此背景下,演算法推送新聞的傳播機制應運而生,用戶不需要特意搜索自己需要的信息,而是海量的信息會自行「找到」用戶,為用戶節省搜索時間之餘,又能做到真正為用戶提供有用的信息。
2.2新聞推薦演算法的發展現狀
演算法推薦是依據用戶數據為用戶推薦特定領域的信息,根據受眾使用反饋不斷修正並完善推薦方案。目前主要有兩類新聞機構使用演算法推送,其一是新型的互聯網新聞聚合類平台,國內主要是以今日頭條和一點資訊等演算法類平台為代表,在我國新聞客戶端市場上擁有極高的佔有率。張一鳴創建今日頭條是依靠大數據和演算法為用戶推薦信息,提供連接人與信息的服務,演算法會以關鍵詞等元素判斷用戶的興趣愛好,從全網抓取內容實現個性化推薦。國外則是以Facebook、Instagram等平台為代表,這些APP都是通過演算法挖掘用戶的數據,以用戶個性化需求為導向對用戶進行新聞推送。另一種則是專業新聞生產的傳統媒體,為積極應對新聞市場的競爭和提高技術水平而轉型到新聞全媒體平台,如國內的「人民日報」等,國外利用演算法推送向用戶推送新聞的傳統媒體則有美國的美聯社、華盛頓郵報和英國的BBC等,他們利用演算法監督受眾的數量還有閱讀行為,使他們的新聞報道能夠更加受受眾的喜歡,增加用戶的粘性。
2.2新聞推薦演算法的原理
2.2.1新聞推薦演算法的基本要素
演算法推送有三個基本要素,分別是用戶、內容和演算法。用戶是演算法推送系統的服務對象,對用戶的理解和認知越是透徹,內容分法的准確性和有效性就越准確。內容是演算法推送系統的基本生產資料,對多種形式內通的分析、組織、儲存和分發都需要科學的手段與方法。演算法是演算法推送技術上的支持,也是最核心的。系統中大量用戶與海量的信息是無法自行匹配的,需要推送演算法把用戶和內容連接起來,在用戶和內容之間發揮橋梁作用,高效把合適的內容推薦給合適的用戶。
2.2.2新聞推薦演算法的基本原理
演算法推送的出現需要具備兩個條件:足夠的信息源和精確的演算法框架。其中,演算法的內容生產源與信息分發最終效果密切相關:是否有足夠多的信息可供抓取與信息是否有足夠的品質令用戶滿意都將對信息的傳播效果產生影響。與此同時,分發環節也在向前追溯,改變著整個傳播的生態。目前,國內新聞傳播領域所使用的演算法推送主要有三大類——協同過濾推送、基於內容推送和關聯規則推送。
協同過濾推送分為基於用戶的協同過濾和基於模型的協同過濾。前者主要考慮的是用戶和用戶之間的相似度,只要找出相似用戶喜歡的新聞文章類別,並預測目標用戶對該文章的喜歡程度,就可以將其他文章推薦給用戶;後者和前者是類似的,區別在此時轉向找到文章和文章之間的相似度,只有找到了目標用戶對某類文章的喜愛程度,那麼我們就可以對相似度高的類似文章進行預測,將喜愛程度相當的相似文章推薦給用戶。因此,前者利用用戶歷史數據在整個用戶資料庫中尋找相似的推送文章進行推薦,後者通過用戶歷史數據構造預測模型,再通過模型進行預測並推送。
基於內容的推送即根據用戶歷史進行文本信息特徵抽取、過濾,生成模型,向用戶推薦與歷史項目內容相似的信息。它的優點之一就是解決了協同過濾中數據稀少時無法准確判斷分發的問題。但如果長期只根據用戶歷史數據推薦信息,會造成過度個性化,容易形成「信息繭房」。
關聯規則推送就是基於用戶歷史數據挖掘用戶數據背後的關聯,以分析用戶的潛在需求,向用戶推薦其可能感興趣的信息。基於該演算法的信息推薦流程主要分為兩個步驟,第一步是根據當前用戶閱讀過的感興趣的內容,通過規則推導出用戶還沒有閱讀過的可能感興趣的內容;第二是根據規則的重要程度,對內容排序並展現給用戶。關聯規則推送的效果依賴規則的數量和質量,但隨著規則數量的增多,對系統的要求也會提高。
2.2.3演算法推送的實現流程
在信息過載的時代,同一個新聞選題有很多同質化的報道,因此分發前需要對新聞內容進行消重,消重後的新聞內容便等待推送,此時的推送有三個類別:啟動推送、擴大推送和限制推送。
3.「今日頭條」新聞推薦演算法分析
「今日頭條」是國內一款資訊類的媒體聚合平台,每天有超過1.2億人使用。從「你關心的,才是頭條!」到如今的「信息創造價值!」,產品slogan的變化也意味著今日頭條正逐漸擺脫以往單一、粗暴的流量思維,而開始注重人與信息的連接,在促進信息高效、精準傳播的同時注重正確的價值引導。
在2018年初,「今日頭條」的資深演算法架構師曹歡歡博士在一場分享交流會上公開了其演算法運行原理。在他的敘述中,非常詳細地介紹了「今日頭條」的演算法推薦系統概述以及演算法推薦系統的操作原理。
3.1.1-1曹歡歡博士的今日頭條演算法建模
上圖用數學形式化的方法去描述「今日頭條」的演算法推送,實際上就是一個能夠得出用戶對內容滿意程度的函數:即y為用戶對內容的滿意度,Xi,Xc,Xu分別是今日頭條公開的演算法推送的三個維度:Xi是用戶,包括用戶的性別、年齡、職業和興趣標簽,還有其他演算法模型刻畫的隱形用戶偏好等;Xc是環境,這也是移動互聯網時代新聞推送的特點,由於用戶隨時隨地在不停移動,移動終端也在移動,用戶在不同的工作場合、旅行等場景信息推送偏好也會不同;Xu是內容,今日頭條本身就是信息聚合類平台,平台上涵蓋各種不同形式的內容。本章將以該函數為基礎,逐一分析今日頭條的推薦演算法。
3.1推薦維度之一:內容分析
內容分析原指第二次世界大戰期間,傳播學家拉斯韋爾等研究學家組織了「戰士通訊研究」的工作,以德國公開出版的戰時報紙為分析研究對象,弄清報紙內容本質性的事實和趨勢,揭示隱含的隱性情報內容,獲取了許多軍情機密情報並且對事態發展作出情報預測。在「今日頭條」中,內容分析則是對文章、視頻內容提取關鍵要素,通過對文本、視頻標題關鍵字進行語義識別,給內容進行分類。「今日頭條」的推送系統是典型的層次化文本分類演算法,來幫助每篇新聞找到合適的分類,比如:第一大分類是政治、科技、財經、娛樂、體育等,體育類可以下分籃球、足球、網球等,足球又可以下分中國足球和國際足球,中國足球最後下分為甲、中超、國家隊等。這一步是對文章進行對這個工作主要目的是對文章進行分類,方便以後對客戶推薦。
想要內容分析實現效果,則需要海量的內容信息給演算法系統提供有效的篩選和分類。「今日頭條」既然是依賴於演算法推送新聞,那它背後的資料庫必然是強大的,「網頁蜘蛛」和「頭條號」就是支撐今日頭條平台消息來源的重要渠道,其消息來源極其豐富,何時何地有何新鮮事,都能高效率抓取信息。
第一個消息來源的渠道是「網頁蜘蛛」,「網頁蜘蛛」又叫網頁爬蟲,頭條使用的就是搜索引擎爬蟲叫「Bytespider」。它能按照一定的規則,自動爬行抓取互聯網的信息或腳本,就像蜘蛛通過蛛網進行捕食,當發現新的信息資源,蜘蛛會立刻出動抓取信息內容並將其收入自己的資料庫中。和微信的垂直搜索不同,Bytespider是能夠抓取全網內容的全新搜索引擎,因此「今日頭條」的搜索引擎功能很全面,搜索的資源很廣,資源包容性極高。
Bytespider信息抓取的基本流程如下:首先是網頁抓取。Bytespider順著網頁中的超鏈接,從這個網站爬到另一個網站,通過超鏈接分析連續訪問抓取更多網頁。被抓取的網頁被稱之為網頁快照。由於互聯網中超鏈接的應用很普遍,理論上,從一定范圍的網頁出發,就能搜集到絕大多數的網頁。第二步是處理網頁。搜索引擎抓到網頁後,還要做大量的預處理工作,才能提供檢索服務。其中,最重要的就是提取關鍵詞,建立索引庫和索引。其他還包括消除重復網頁、判斷網頁類型、分析超鏈接、計算網頁的重要度、豐富度等。第三步提供檢索服務。用戶輸入關鍵詞進行檢索,搜索引擎從索引資料庫中找到匹配該關鍵詞的網頁,為了用戶便於判斷,除了網頁標題和URL外,還會提供一段來自網頁的摘要以及其他信息。
3.2推薦維度之二:用戶分析
用戶分析通過提取用戶的有效數據,如用戶經常瀏覽的文字類型、經常搜索的關鍵字、注冊時登記信息的內容等,演算法系統可以將每個用戶的瀏覽記錄、瀏覽時間、留言、評論和轉發等行為進行關鍵字提取,最終形成用戶畫像,以便之後對用戶進行文章和視頻的精準推送。舉個例子,給喜歡閱讀「體育」的用戶標上「體育」標簽;給喜歡「娛樂」的用戶標上「娛樂」的標簽,這一步的作用是給用戶的興趣進行建模,包括用戶對文章和視頻的全局熱度、分類熱度,主題熱度,以及關鍵詞熱度等。熱度信息在大的推薦系統能夠解決新聞冷啟動問題,幫助新聞實現推送。
用戶分析還具有協同特徵,它可以在部分程度上幫助解決所謂演算法越推越窄的問題。協同特徵也就是「聯想式」的推送方法,並非只考慮用戶已有歷史,而是通過用戶行為分析不同用戶間相似性,比如點擊相似、興趣分類相似、主題相似、興趣詞相似,甚至向量相似,從而擴展模型的探索能力。根據用戶之間計算數據的相似程度,把用戶細化分類成為不同的目標群體,再向目標群體集中的推送其感興趣的新聞內容
內容分析和用戶分析是相輔相成的,如果沒有分析的文本標簽,無法得到用戶興趣標簽,沒有用戶的興趣標簽就無法給用戶定位實現精準推送。
3.3推薦維度之三:環境分析
環境分析就是根據文章的時效性和接近性推送給相應的用戶,比如獲取用戶當前所在位置是否在旅遊區,這個可以通過獲取用戶的實時位置來實現。還會不斷與用戶之前經常出現的所在地進行對比等方式確認當前狀態,分析出用戶是在常住地區還是在旅行。這時若系統檢測到用戶正在泰山及周邊遊玩,則可能會相應推送泰山的相關文章、周邊的交通新聞和天氣信息等等。
通過上面三個推薦維度可以作為數據基礎,分析當前用戶處於什麼環境,結合用戶畫像以及文章的內容分類來推薦,盡量做到推送的內容都是用戶所感興趣的。演算法系統還會通過內容分類、分析抽取,把文本相似度高的文章,包括新聞主題、內容相似的文章進行消重,解決推送重復的問題,進一步對目標用戶進行精確且不重復的內容推薦。最後過濾質量低俗色情的內容,以免造成平台會有負面傾向。
3.4「今日頭條」新聞推薦演算法的價值取向
3.4.1「用戶為上」
「今日頭條」的演算法推送是站在用戶的立場上的,以滿足用戶個性化和推送的精準性,「今日頭條」也重新衡量了新聞價值標准:以用戶為上,用戶對新聞內容和閱讀方式的滿意度便是平台推送新聞的價值宗旨。傳統媒體時代,只有報紙和電視,有什麼受眾就得看什麼,而如今「今日頭條」根據用戶興趣去進行推送。演算法推送平台用戶范圍廣,很多用戶熱衷關注負面,也有許多用戶都有窺視欲和好奇心,喜歡無聊八卦和無聊新聞,而且在好奇心作用下用戶都有從眾心理。這使得生產者過度去迎合受眾,只要是用戶喜歡看就可以發表在「今日頭條」上。
3.4.2「演算法主導」
「今日頭條」更注重技術分發,生產者是用戶,受眾者也是用戶,這樣一來內容監管和分發就很困難。演算法推送機制根據用戶愛好進行推送,這樣生產的內容快、也無疑會加速內容配送效率。在演算法推送模型中,用戶點擊頻率、閱讀時間、點贊評論以及轉發在演算法時代都是可以進行量化的目標。在這樣情況下生產的內容,想要獲得較大點擊率和推送率,需要標題才能吸引用戶,因為用戶在平台一眼能看到的就是標題和配圖。標題和配圖決定用戶是否會打開你的內容,這導致許多內容生產者在編輯新聞標題時陷入標題黨的怪圈,還有導致低俗內容的呈現,以製造沖突製造懸念貼標簽等方式引用戶點擊,意圖把自己的文章做成爆文。對於海量的信息內容,即使今日頭條數據和智能推薦做的再好,目前來說也難以抵擋海量的垃圾信息。
4.演算法推送新聞引發的倫理問題
在如今網路時代的傳播思維中,「用戶為上」、「演算法主導」的新聞價值取向已經在演算法聚合類平台成為了普遍,演算法推送技術作為吸引用戶的手段,搭建起一個充滿誘導的媒介環境,以此增加用戶對平台的粘性。演算法推送技術在獲取信息、傳播速度等方面與以往相比有著跨時代的進步,但與此同時,由於演算法推送技術的加入,衍生出新的倫理問題,並且日漸復雜化。
4.1演算法推送引發的倫理問題
4.1.1演算法推送過於機械化,沒有思考能力
單向的演算法推薦對用戶來說經常會帶來內容雜亂無章、信息量過大、信息價值低等問題。從邏輯講,演算法只是從關鍵字的檢索匹配來完成統計推薦,但對新聞報道或文學作品具有藝術性、專業性的內容來說,是不能保證推送的質量的。演算法方面,目前主要基於匹配檢索與統計,大部分都是個人關注的信息類型和標簽,難以達到較好的推送效果。一千個人眼裡有一千個哈姆雷特,但是計算機只有隻有一個。演算法技術過於注重機械化的統計,只根據關鍵詞來推薦用戶,對我們中國具有博大精深的中國文字文化底蘊,推薦演算法是遠遠不夠的。整個新聞客戶端顯得像是一個菜市場,沒有態度、沒有風格,閱讀感受單一化,呈現了碎片化的特點。新聞不只是讓用戶能夠了解身邊發生的新鮮事,還有宣傳正面思想和傳播正能量的作用,新聞應該還要給人們帶來新的思考。讓機器做出正確判斷很簡單,但是讓機器綜合心理學、社會學、乃至某細分領域內的規則做出判斷還要正確地引導受眾則很難,正如現在演算法技術還不能完成一篇富有人文性、文學性和批判性的深度報道,它止步在了碎片式的、表層的傳播范疇。
4.1.2容易引起「信息繭房」效應
「信息繭房」這一概念是凱斯.桑斯坦在《信息烏托邦》一書中提出的。意指受眾在過度的信息自我選擇之中,這樣會降低接觸外界其他信息的可能,從而將自己的生活桎梏於蠶繭一般的「蠶房」中的現象。人們的信息領域會習慣性被自己的興趣引導,信息窄化帶來了受眾對信息接收的單一性,這種單一性的可能會使受眾陷入循環,加重受眾信息同質化。
4.1.3演算法推送的「偽中立性」
客觀和全面是新聞倫理的基本要求,新聞從業者必須從可好信息源來獲取真實的信息,以客觀的態度反應現實。我們慣常認為,互聯網技術服務商是技術中立者,不需要承擔約束大眾媒體的社會責任,然而當信息把關人又新聞編輯轉變為演算法工程師,傳統的媒介倫理似乎已經失效。演算法具有商業傾向性,「中立性」是演算法平台用以逃避媒體責任的理由,給大眾媒介造成傳播亂象,如此一來更像是一場演算法平台「肆意妄為又不想負責」的詭辯。
演算法平台的信息源是經過選擇和過濾的,「頭條號」的內容占「今日頭條」整個信息系統的絕大部分,然而在「人人都可以做新聞人」的時代,頭條號平台是一個開放的網路媒介環境,存在大量的偏見和錯誤的認知。無論是「今日頭條」平台設立的演算法規則,還是其他爬蟲的抓取的關鍵詞,演算法系統的信息源很多是具有目的性的、有偏見和非客觀的信息,所以信息源不能直接作用於用戶。因此,篩選演算法系統的信息源與傳統的人工編輯相比較,范圍極廣且很難把關,若演算法被惡意利用,那麼使整個傳播系統將會被輕易控制。
4.1.4演算法推送里的「議程設置」
原議程設置功能揭示的重要內涵是:「受眾對新聞的看法雖然被大眾媒體議程設置功能所主導,但其更深刻的是議程設置給大眾媒體新聞帶來放大與延伸,從而使受眾對新聞選擇做出能動性修正,讓受眾在滿足需求和媒介依賴中逐漸培養出的潛在認同感」。
推送演算法技術在互聯網平台的運用,使原來傳統媒體主導的議程設置過程發生了變化,伴隨著傳播權的轉移、公眾參與度的提高和信息量劇增等原因導致議程設置功逐漸能減弱。過往傳統新聞的內容是由編輯有選擇地進行報道後再呈現在受眾面前的,而個性化新聞推送是用戶自己來選擇看哪一方面的內容,而這一環節中,天然的技術賦權將傳播權從傳統媒體下放至平台的用戶,使得受眾和社會的連接無需依賴傳統媒介,新聞媒體作為把關人的作用和議程設置功能都在減弱。
4.2演算法新聞治理缺陷下的演算法權利異化
演算法作為人工智慧的基石之一,是「一種有限、確定、有效並適合用計算機程序來實現的解決問題的方法,是計算機科學的基礎」。近年來,伴隨人工智慧深度學習演算法取得的重大突破和大數據時代的到來,人工智慧的應用場景不斷拓展,人工智慧時代正逐漸從想像成為現實。藉助於海量的大數據和具備強大計算能力的硬體設備,擁有深度學習演算法的人工智慧機器可以通過自主學習和強化訓練來不斷提升自身的能力,解決很多人類難以有效應對的治理難題。伴隨人工能演算法在國家和社會治理中重要性的日漸凸顯,國家和社會對於演算法的依賴也逐漸加深,一種新型的權力形態——演算法權力也隨之出現。
可以把演算法權利分為四種:數據主權、演算法設計權、研發的資本權和演算法控制權。由於前三種權利都是單向的、演算法開發者賦予演算法的權利,是屬於演算法開發者的,與演算法分發平台呈現的效果沒有直接的影響,所以本文將著重論述演算法控制權。
演算法控制權是雙向的,用戶是演算法技術數據行為的提供者,同時又是被演算法技術控制的受害者。例如我們看到「今日頭條」會通過推送演算法來監管用戶的發布和瀏覽行為,同時平台會通過演算法決策系統來實現內容的發布去引導用戶。演算法控制權當然是一種天然技術賦予的權利,但演算法控制權是在用戶提供數據行為的情況下才得以實現的,因此演算法控制權既存在內容生產權,同時有要尊重和保護演算法相對人的義務。
正因為如此,演算法技術被認為是一種雙刃劍,一方面演算法能夠做出精準的行為預測,可以為管理者提供非常好的循環干預機制;對於公共行為主體來說,可以通過對大數據的應用來解決社會治理問題,對於私人主體來說可以藉助數據來提供個性化和定製化的服務;另一方面,演算法技術存在著諸如利益和風險不對稱等問題,而且由於演算法技術發展的超前性,新科技的創造者具備不對稱的信息和技術優勢,能夠按照自身利益的需求來塑造在平台上的演算法推送邏輯和社會系統,這帶來了監管的不確定性。人們要通過集體行為去承擔社會責任,通過這樣的方式規制演算法權利,可以讓我們能夠對演算法分發系統的意義和價值得到更深刻的思考。
『拾』 抖音推薦演算法的倫理問題
抖音推薦演算法的倫理問題主要有以下幾點孫衫皮:
1. 內容審查:抖音推薦演算法可能會屏蔽一些不符合社會倫理道德的內容,但是這種審查可能會對用戶的自由表達造成限制。
2. 用戶隱私:抖音推則差薦演算法可能會收集用戶的個人信息,以便更好地推薦內容,但這可能會侵犯用戶的隱塌塵私權。
3. 偏見和歧視:抖音推薦演算法可能會基於用戶的性別、種族、宗教信仰等因素,對用戶進行歧視和偏見性的推薦。
4. 內容控制:抖音推薦演算法可能會控制用戶看到的內容,從而對用戶的獲取信息造成影響。