當前位置:首頁 » 操作系統 » 演算法黑箱實驗

演算法黑箱實驗

發布時間: 2022-10-19 02:28:26

① 可解釋AI,如何打開演算法的黑箱

隨著以機器學習為代表的新一代人工智慧技術不斷朝著更加先進、復雜、自主的方向發展,我們的經濟和 社會 發展都紛紛迎來了變革性的機遇。但與此同時,AI演算法的透明度、可解釋性問題也為公眾信任、公共安全等諸多領域帶來了前所未有的挑戰。

1月11日 14日,「騰訊 科技 向善創新周」在線上舉辦。「透明可解釋AI——打開黑箱的理念與實踐」專題論壇即聚焦於此。論壇發布了《可解釋AI發展報告2022》,隨後由專家學者(見文末)共同參與了圓桌討論。以下為整理文章:

可解釋AI的概念共識

姚新:

大家在討論AI演算法的透明性和可解釋性的時候,首先應該考慮三個W的問題——Who,What和Why的問題。

首先,到底是對誰講透明和可解釋?因為從科學研究來說,任何一個研究都必須透明,都必須可解釋,否則這個論文是發不出來的。所以我猜過去講透明性和可解釋性,可能不是對科學家來說的可解釋性或者透明性,因為對科學家的透明性和可解釋性,不一定對大眾透明和可解釋。第二是解釋什麼?解釋模型做出來的結果還是解釋這個模型的工作原理。第三,解釋總是有一個目的,目的是要追責還是理解這個模型的科學原理。

根據對這三個W不同的答案,會得出非常不一樣的透明性和可解釋性,相應的解決辦法可能也完全不一樣。不管怎樣,考慮透明性和可解釋性的時候,首先大家要有一個概念上的共識,使得我們知道我們是講同樣一件事情,而不是用了同樣一個名詞,大家在不同的抽象層次講不同的問題。

吳保元:

可解釋是可信AI的重要組成部分,是可信的前提條件之一,但是相比於魯棒性、公平性等可信特性,我覺得可解釋不是獨立存在的概念。就是姚老師剛才提到的,我們到底在解釋什麼?其他的特性都是有自己明確的數學定義,比如魯棒性、公平性等,但是可解釋性是沒有的,因為我們單獨提到它的時候,背後默認的更可能是對模型准確度的可解釋性。或許這也可以解釋為什麼當前的可解釋研究思路這么多,但是好像沒有一個明確的框架,我覺得最主要的原因是它的解釋對象不一樣,沒有辦法統一到一起。

基於這種理解,我個人有一點小的想法,不應該把它稱為可解釋性,把它稱為可解釋力或許更准確。可解釋性,大家可能誤認為它是一種獨立存在的性質;可解釋力是一種可解釋的能力,就像我們說的理解力、領導力等等,它是一種手段,一種行為,一種操作存在,需要跟別的綁在一起。我覺得以後提到它的時候,應該准確地描述它是針對什麼特性的可解釋力,而不是籠統地說可解釋性如何。

可解釋AI的價值何在?

朱菁:

人們對於人工智慧系統可解釋性、透明性的要求,大致有四個層次:

第一個針對的是直接用戶,用戶需要了解人工智慧產品、服務背後的原理是什麼,這是建立可信任AI的重要基礎。可解釋AI,實際上支撐了可信任AI。

第二個層次,對於政策和監管部門,他們希望通過解釋原理來了解人工智慧產品的公平性、可問責性,歸因的過程是我們進一步問責、追究責任的基礎。所以,可解釋AI也與負責任的AI、可問責的AI是聯系在一起的。

第三個層次就是技術工程與科學層次,我們希望了解為什麼某些演算法能夠成功,它成功背後的奧秘是什麼,它的應用范圍是什麼,它能否在更大的范圍內使用這樣一些演算法或者是一些技術。

第四個是公眾理解AI,如果 社會 大眾大多數關心的話,他也能夠在這方面了解相應的技術、系統大體的工作原理方式是什麼。

何鳳翔:

在現在的AI系統中,其實很多演算法背後運作機制是未知的,是不清楚的,這種未知帶來了未知的、難以管理的風險,包括安全性、魯棒性、隱私保護、公平性等等。

這些點關繫到了 社會 運轉中非常關鍵、人命關天的領域,比如醫療、自動駕駛。這會帶來很大的應用方面的困難,以及 社會 對AI的不信任。因為當AI演算法運作機制是未知的時候,它的風險機制、風險大小、風險尺度就是未知的,我們就難以去管理風險,進而去控制風險。

可解釋AI的挑戰何在?

姚新:

原來我一個學生跟我做了一點關於公平性的工作,跟其他的文獻發現的點非常一致,就是說模型的准確性和公平性之間是相互矛盾的。性能最好的模型從公平性的角度來說,按指標來測量不見得最好,你要把模型做得都是最公平,用指標來衡量的話,它的性能就會受到損失。實際上可解釋性非常類似現在有各版的可解釋性指標,但是要真正考慮這些指標的話,模型的性能總是會掉下來,要考慮在實際過程中怎麼來找一個折中的方案。

吳保元:

針對可解釋性本身的不可行、不可取,這也是值得我們思考的問題。比如說我們在研究犯罪率或者說疾病的傳播率、發病率等,如果我們就拿現成的統計數據,比如在不同種族、不同地域採集的數據,很有可能會得出來某些種族或者某些地域犯罪率很高,這是因為數據採集的時候就是這樣的。這樣一來,如果可解釋給出的類似結論被公開,可能會造成種族或者地域歧視。但實際上數據背後是我們在採集的時候沒有採集其他特性,比如說為什麼這個地域的傳播率很高呢?很有可能是政府投入不足,或者說其他的因素。

所以這也啟發我們可解釋性本身它的可信性是什麼,它的准確性,它的公平性,它是否忽略了某些特徵,或者誇大了某些特徵,它的魯棒性,是不是把樣本變化一點,它的可解釋性截然相反,這些需要我們進一步思考。

另外,我跟很多研究可解釋的專家聊過,他們的困惑在於現在的可解釋性方法是不可印證的,甚至是矛盾的,這就引出了可解釋性方法本身的可信度的問題。

何鳳翔:

在我看來,理解深度學習演算法的運作機制,大致有理論和實踐兩條路徑。在理論方面,當前的研究無法完全解釋理論上泛化性較差的深度模型為何能在多領域取得如此的成功。這種理論與實踐的矛盾,就像曾經物理學中的烏雲一樣,反映出來了人們對於機器學習理解的缺失,而這是現在在理論上提升演算法可解釋性的一個難點。

而在實驗角度上,很多實驗學科中的做法可以作為對於機器學習研究的啟發,比如說物理學、化學,以及剛才提到的醫療。比如說葯物研發流程中的合格檢驗,要做雙盲實驗;在物理學、化學的研究中,對控制變數實驗有嚴格要求。類似的機制是否能在AI研究中嚴格執行呢?我覺得這可能是另外一條路徑。在我看來,現有的很多對於AI演算法的解釋是啟發式的,而在關鍵領域中我們需要的是證據,這需要在理論和實驗兩方面做很多工作。

可解釋AI如何實現?

朱菁:

前面很多專家都指出對於解釋有不同的目標,不同的對象,不同的要求,所以實際上關於人工智慧的可解釋性問題可能是屬於多元性的,就是要允許有多種不同層次不同方式的解釋在這裡面起作用,針對不同的領域、不同的對象,使用不同解釋的方式。

當可解釋性有它的局限或者和其他的目標、要求,需要做出權衡取捨的時候,我們想也可以從多個層面來進行替代性的,或者說是補償性、補充性的策略。比方說針對監管部門,它對於可解釋性的要求,和面向公眾或者專家層面的,會有所不同,所以這個可以通過若干個層次,比如說監管部門的,行業的,市場的,以及傳播普及層面的,對於安全性、魯棒性要求更高一些,或者在專家層面上有更好的溝通理解,而對於 社會 公眾而言,這裡面就需要有一些轉換,同時有需要一些權威部門,有公信力的部門,向 社會 做一些說明和認定。

姚新:

深度神經網路可以解決特別復雜的問題,我覺得現在大家用深度網路有一個原因,即所針對的問題本身可能就比較復雜。這是一個假設。假如這個假設是對的話,那麼相應的可解釋性不會特別好理解。因為需要對付這些復雜性,相應的模型就必然是要復雜。

所以我總覺得透明性、可解釋性和性能之間是有一個固有的矛盾,如果現在把從技術上討論的方向,是怎麼找一個折中方案,根據不同的場景、可解釋的目的,找不同折中方案,這樣導致有可能會出來一些比較具體的技術,或者可以促進這些技術往落地的方向走。

吳保元:

我們嘗試過一些從技術上可行的方案去量化各種可信特性,但是,要實現統一量化很困難,比如說公平性和魯棒性都有不同的量化准則和指標。當把不同的特性簡單組合到一起的時候很難優化,因為它們的准則是高度不對齊的,差異非常大,這就涉及怎麼去對齊這些特性坐標。我認為想要找到一個全局坐標系是非常困難的。我們可以從局部出發,針對某種場景,比如醫療場景,首先把隱私性當做前提,在金融或者自動駕駛,我們把魯棒性當做前提,然後再去研究其他特性,或許一步一步能夠找到這種坐標系。

可解釋AI的技術現狀?

鄭冶楓:

總體來說,因為我們現在還缺乏非常好的理論框架,所以可能針對問題,我們創造性地想一些演算法,試圖提高本身這個系統的可解釋性,給大家舉兩個例子來說明一下我們天衍實驗室在這方面的 探索 。

深度學習可能有千億、萬億的參數,這對於醫生來說太復雜了,他很難理解這個演算法的底層原理,演算法本身可能缺乏一個全局的可解釋性。但是深度學習框架准確率非常高,所以我們不可能不用。而可解釋性非常好的模型就是回歸模型,這類模型主要的問題就是准確率太低。所以我們做了一個 探索 ,我們希望把這兩個模型結合起來,它具有非常高的准確率,還有一定的可解釋性,不是完全可解釋性。

我們把這個混合模型用於疾病風險預測,就是根據病人歷次的就診記錄,我們預測病人在未來6個月之內得某個重大疾病的概率,比如他得卒中的概率。病人每一次的就診記錄包含大量信息,這裡面我們需要提取一些跟預測目標相關的重要信息,我們知道生物學習網路最擅長的就是自動特徵學習。所以我們利用深度學習網路把一次就診記錄壓縮成一個特徵的向量,接著我們利用回歸模型,把病人多次就診記錄綜合起來預測未來6個月之內這個病人得腦卒中的風險。

楊強:

我們在審視各個演算法和它對應的可解釋性的關聯問題上,發現一個有趣的現象,比方說在機器學習裡面,深度學習就是屬於效率非常高的,但是它卻對應的可解釋性很差。同樣,線性模型沒有那麼高,但是它的可解釋性相對強一些,樹狀模型也是,因果模型更是這樣。所以往往我們確實得做一個取捨,就是我們在可解釋這個維度和高效率這個維度,在這個空間裡面選擇哪一個點,現在並沒有在兩個維度都高的這樣一個演算法。

可解釋AI的行業實踐

鄭冶楓:

各行業對可解釋性和透明性的要求不同,我結合醫療AI這個場景給大家分享一下我的體會和理解。大家知道醫療在全世界范圍內都是被強監管的領域,一款醫療產品要上市必須拿到醫療器械注冊證,輔助診斷演算法AI產品屬於三類醫療醫療,也就是監管最嚴格的級別,所以我們要披露的信息很多,大致包括數據集和臨床演算法驗證兩方面。前者主要強調數據集的公平多樣性和廣泛覆蓋性,後者則重視披露我們的演算法真正在臨床試驗中、真正臨床應用的時候它的性能。

此外,我們的測試樣本也需要有很好的多樣性,覆蓋不同醫院,不同區域,不同病人群體、廠商、掃描參數等等。臨床實驗更加嚴格,首先我們要固化演算法的代碼,在臨床試驗期間是不能改代碼的,因為你不能一邊做實驗一邊改代碼,這就失去了臨床試驗的意義。

所以醫療AI的監管是非常強的,葯監局需要我們披露很多信息,提高醫療AI產品的透明性,它有非常嚴格甚至苛刻的書面要求。因為我們知道智能學習網路天然不具有很好的解釋性,雖然你可以做一些中間增強,可以一定程度上改善這些事情,監管也可以理解這個解釋性差一點,正因為解釋性差,要求的透明性就越高。

何鳳翔:

我覺得提供AI系統的說明書有兩個路徑:第一個路徑從生成AI系統的過程出發。這一點現在有一些實踐,比如開源代碼,說明使用了什麼數據,數據是如何使用的、如何預處理的。這會提升人們對AI的信任和理解,這也像剛才鄭老師提到,申請醫療相關的資質的時候,我們需要把生產細節匯報給相關機構。

第二種方式就是從生成的AI系統所做出的預測以及決策的指標來入手做演算法的說明書。比方對AI系統做一些測評。對於剛才我們提到的指標,包括可解釋性、魯棒性、准確性、隱私保護、公平性,找到一些比較好的量化指標、找到一些評測演算法,把這些指標作為AI系統的使用說明書。

可解釋AI的未來發展

楊強:我期待在未來人工智慧的治理,在人工智慧,人和機器這種和諧共存,共同解決我們要解決問題的前提下,會越來越成熟。我是非常看好這個領域的。

朱菁:我期待這個領域進一步的探討,不同領域的學者都能夠參與進來。比如說像我自己做的主要是哲學, 科技 哲學。在 科技 哲學,實際上對於解釋有將近一百年的積累和 探索 ,這裡面應該有很多可以發掘借鑒的資源,參與到目前這樣一個很有意思很有挑戰性的話題裡面。

何鳳翔:AI本身是一個跨學科領域,它可能會用到很多數學、統計、物理、計算機等各個知識的領域,今天提到的很多點,包括隱私保護、公平性,很多也是來源於人文學科、法律、 社會 學這些方面。所以這就意味著研究可信AI以及可解釋性等等方面會需要各個學科領域的人合作起來一起去做的一件事情,會非常需要大家的通力合作,共同推進這個領域的發展。

姚新:對於做研究來說,我希望將來可以有一點聚焦的討論。我剛才講的3W,到底我們要解決透明性、可解釋性的哪一部分,對誰而言。假如對醫療而言,是對法規的制定者來說還是對醫生來說,還是對病人來說,還是對這個系統的開發者來說?我覺得在這裡面有非常多可以發揮自己的想像力和能力的地方。

鄭冶楓:對演算法人員來說,當然我們希望將來科學家們找到非常好的,具有良好可解釋性,同時准確性非常高的演算法,真正做到魚和熊掌兼得。

② 智能金融的內容是什麼

1、什麼是智能金融?

智能金融尚無統一定義。《報告》提出,智能金融是指人工智慧技術與金融業深度融合的新業態,是用機器替代和超越人類部分經營管理經驗與能力的金融模式變革。

2、智能金融和金融科技有什麼區別?

《報告》提出,智能金融與數字化轉型、金融科技既有密切聯系又有重要區別。

智能金融的發展基礎是金融機構數字化轉型,數字化轉型為智能金融的發展提供了基礎設施的保障。

智能金融是金融科技發展的高級形態,是在數字化基礎上的升級與轉型,代表著未來發展趨勢,已成為金融業的核心競爭力。

相比互聯網金融、金融科技,智能金融更具革命性的優勢在於對金融生產效率的根本顛覆。智能金融替代甚至超越人類行為和智力,更精準高效地滿足各類金融需求,推動我國金融行業變革與跨越式發展。

3、為什麼要專門研究智能金融?

把智能金融從金融科技中單列出來編制專門的發展報告,主要是基於以下考慮:

一方面,發展人工智慧技術已成為我國的一項重要戰略,當前各國在新一代人工智慧技術已展開激烈競爭。而金融與人工智慧具有天然的耦合性,是人工智慧技術應用最重要的領域之一,發展智能金融有利於我國搶抓人工智慧發展機遇,佔領技術制高點,特別是金融業的特殊性,勢必對人工智慧技術提出新的要求和挑戰,可以推動我國人工智慧技術的突破與升級,提高技術轉化效率。

另一方面,人工智慧技術為未來金融業發展提供無限可能,是對現有金融科技應用的進化與升級,對金融業發展將會產生顛覆性變革。專門研究智能金融有利於跟蹤世界人工智慧技術與金融業融合的應用開發,有利於加強金融行業的適應性、競爭力和普惠性,極大地提高金融機構識別和防控風險的能力和效率,推動我國金融供給側結構性改革,增強金融服務實體經濟和人民生活的能力,守住不發生系統性風險的底線,加快建設我國現代化金融體系,增強金融國際競爭力,助力由金融大國到金融強國的轉變。

4、智能金融現在有哪些應用場景?

《報告》提到,目前智能金融的應用主要包括前中後台三大方面。

第一,智能身份識別已廣泛用於個人身份驗證。以指紋識別和人臉識別為代表的主流智能身份識別技術已進入大規模應用階段,在遠程核驗、人臉支付、智慧網點和運營安全方面應用廣泛。

第二,智能營銷降低營銷成本、改善服務效能。智能營銷正在經歷從人機分工向人機協同方式的轉變,未來的智能營銷將變成跨領域、融合的人機合作工作方式,進一步改善金融服務的效能。

第三,智能客服能節省客服資源和提升服務效率。智能客服不僅提供自動化問題應答,而且對接前端各個渠道,提供統一的智能化客服能力,並持續改進和沉澱,提供全天候精準的服務,提升服務效率。

第四,智能投顧已有試點,全面推廣有待繼續探索。智能投顧在國內外已有諸多應用案例,但我國因為缺乏明確的業務模式、服務定位仍不明確,全面推廣仍有待繼續探索發展。

第五,智能投資初具盈利能力,發展潛力巨大。一些公司運用人工智慧技術不斷優化演算法、增強算力、實現更加精準的投資預測,提高收益、降低尾部風險。通過組合優化,在實盤中取得了顯著的超額收益,未來智能投資的發展潛力巨大。

第六,智能信用評估提升小微信貸服務能力。智能信用評估具有線上實時運行、系統自動判斷、審核周期短的優勢,為小微信貸提供了更高效的服務模式。在一些互聯網銀行中應用廣泛。

第七,智能風控實現金融機構風控業務轉型。智能風控為金融行業提供了一種基於線上業務的新型風控模式,但目前只有少部分有能力的金融機構運用,有待繼續試點和推廣。

第八,智能運營管理提升運營效率,降低運營成本。智能運營管理將業務運營逐漸從分散走向集中、從自動化走向智能化。從而提升業務運營效率,減少業務辦理差錯,降低管理成本。智能運營成為各家金融機構開展智能金融的優先考慮和使用的場景。

第九,智能平台賦能金融機構提升服務、改造流程、轉型升級。智能平台建設是金融機構智能化轉型的核心,持續為上層應用提供豐富、多維度的智能服務,構建完整的服務生態圈。

綜上所述,智能金融目前整體仍處於「淺應用」的初級發展階段,主要是對流程性、重復性的任務實施智能化改造。

《報告》認為,人工智慧技術應用正處在從金融業務外圍向核心滲透的過渡階段,發展潛力巨大。

5、在智能金融應用場景中,「演算法黑箱」問題可能會更加突出?如何避免?

肖鋼認為,人工智慧有一個問題是演算法的可解釋性比較差,要解決這個問題可以從幾個方面來著手:

第一,要讓演算法可解釋。現在人工智慧科學家正在攻克模型演算法的黑箱問題,期待著不久的將來在技術上有所攻破。

第二,可以採取分層管理。例如,根據是否對金融消費者產生傷害的程度進行分類管理,有的可以不解釋,有的只是解釋模型怎樣運行的,有的要解釋結果及其原因,有的需要進一步解釋模型背後的邏輯和運作原理。當然,如果最後還是無法解釋,投資者和消費者也不相信,監管部門就不準在金融領域使用。

因此,如果人工智慧運用到金融行業,未必需要解釋所有的模型,可以對模型進行分層管理,提出明確要求。

第三,分清楚責任。無論是否使用人工智慧,金融機構銷售金融產品和服務的賣者盡責義務沒有減弱。機構需要了解自己的客戶,把恰當的產品賣給恰當的人。責任不會因為是否採用了人工智慧技術而有所改變。

6、個人隱私和數據保護問題已經成為社會普遍關切。智能金融時代,如何構建起相關法律法規體系?

《報告》中提到,個人數據的問題目前缺乏法律規定,確實需要立法。肖鋼認為,數據很重要,尤其在人工智慧時代,其重要性日益凸顯,這與原來的工業革命時期不同。工業革命建立在物理資本上,而人工智慧則是建立在信息資本和數據資本上。因此,誰控制了數據,誰就壟斷了權力。

肖鋼認為,個人隱私和數據保護領域有很多問題待明確,例如哪些數據能搜集、數據的權屬是誰的、如何建立個人信息權的體系等,這些都是新的課題。

保護個人數據隱私,肖鋼從以下方面提出建議:

第一,需要補短板,抓緊制定相關法律法規,並逐步加以完善。

第二,要防止數據壟斷。鑒於大型科技公司的技術優勢與數據獲取能力,存在贏者通吃的效應,要求大公司開放數據,讓中小科技公司也要利用其數據開發業務,維護公平競爭環境。

第三,要進行綜合治理。數據隱私保護不僅是金融監管的事情,還涉及到政府部門、IT公司、金融機構、實體企業和個人,是全社會的事情,所以要形成各方參與,協同治理的體系。

第四,需要發展新技術,以解決技術帶來的問題。「聯邦學習」的技術就是一個方法,既保護了數據安全,同時又可以共享數據建模。

③ 機器學習模型可解釋的重要及必要性

機器學習模型可解釋的重要及必要性
不管你是管理自己的資金還是客戶資金,只要你在做資產管理,每一步的投資決策都意義重大,做技術分析或基本面分析的朋友很清楚地知道每一個決策的細節,但是通過機器學習、深度學習建模的朋友可能就會很苦惱,因為直接產出決策信號的模型可能是個黑盒子,很難明白為什麼模型會產出某一個信號,甚至很多保守的私募基金把模型的可解釋性放入了事前風控。其實,模型的可解釋性是很容易做到的,難點在於研究員是否對模型有深入的思考和理解。
介紹
機器學習領域在過去十年中發生了顯著的變化。從一個純粹的學術和研究領域方向開始,我們已經看到了機器學習在各個領域都有著廣泛的應用,如零售,技術,醫療保健,科學等等。在21世紀,數據科學和機器學習的重要目標已經轉變為解決現實問題,自動完成復雜任務,讓我們的生活變得更加輕松,而不僅僅是在實驗室做實驗發表論文。機器學習,統計學或深度學習模型工具已基本成型。像Capsule Networks這樣的新模型在不斷地被提出,但這些新模型被工業採用卻需要幾年時間。因此,在工業界中,數據科學或機器學習的主要焦點更多在於應用,而不是理論。這些模型可以在正確數據上有效應用來解決現實問題是至關重要的。
機器學習模型本質上就是一種演算法,該演算法試圖從數據中學習潛在模式和關系,而不是通過代碼構建一成不變的規則。所以,解釋一個模型是如何在商業中起作用總會遇到一系列挑戰。在某些領域,特別是在金融領域,比如保險、銀行等,數據科學家們通常最終不得不使用更傳統更簡單的機器學習模型(線性模型或決策樹)。原因是模型的可解釋性對於企業解釋模型的每一個決策至關重要。然而,這常常導致在性能上有所犧牲。復雜模型像如集成學習和神經網路通常表現出更好更精準的性能(因為真實的關系在本質上很少可以通過線性劃分的),然而,我們最終無法對模型決策做出合適的解釋。為了解決和探討這些差距,本文中,我會重點解釋模型可解釋性的重要及必要性。
動機
作為一名在企業工作的數據科學家並時常指導他人,我發現數據科學仍然常常被視為一個黑盒,它能用「魔法」或「煉金術」提供人們想要的東西。然而,嚴酷的現實是,如果不對模型進行合理足夠的解釋,現實世界的項目很少成功。如今,數據科學家通過構建模型並為業務提供解決方案。企業可能不知道模型實現的復雜細節,卻要依靠這些模型做出決策,他們確實有權提出這樣的問題:「我怎樣才能相信你的模型?」或「你的模型是如何決策的」?」回答這些問題是數據科學實踐者和研究人員數年來一直在嘗試的事情。
數據科學家知道,模型解釋性與模型性能之前有一個權衡。在這里,模型性能不是運行時間或執行性能,而是模型在做出預測時的准確度。有幾種模型(包括簡單的線性模型甚至基於樹的模型),他們的預測的原理很好直觀理解,但是需要犧牲模型性能,因為它們的產生的結果偏差或者方差很高(欠擬合:線性模型),或者容易過擬合(基於樹的模型)。更復雜的模型,如集成模型和近期快速發展的深度學習通常會產生更好的預測性能,但被視為黑盒模型,因為要解釋這些模型是如何真正做出決策是一件非常困難的事情。

雖然有些人說,知道模型性能好就行了,為什麼還要知道它背後的原理呢? 然而,作為人類,大多數決策基於邏輯和推理。 因此,人工智慧(AI)作出決策的模式無疑會受到懷疑。 在很多現實情況下,有偏差的模型可能會產生真正的負面影響。 這包括預測潛在的犯罪、司法量刑、信用評分、欺詐發現、健康評估、貸款借款、自動駕駛等,其中模型的理解和解釋是最重要的。 數據科學家、作家Cathy O』 Neil在她的著名著作《Weapons of Math Destruction》中也強調了這一點。
著名學者和作家凱特克勞福德在NIPS 2017主題演講《The Trouble with Bias》中談到了偏差在機器學習中的影響以及它對社會的影響。
有興趣的讀者也可以看看她在紐約時報的著名文章《 Artificial Intelligence』s White Guy Problem》,向我們展示了機器學習應用的案例,包括圖像分類、犯罪風險預測、交付服務可用性等等,這些應用對黑人極不親善。 如果我們想利用機器學習來解決這些問題,所有這些真實世界的場景都在告訴我們模型解釋是多麼的重要。
在過去的一年裡,我在解決行業問題的同時也看到了對模型解釋的需求,同時我也在寫我的新書《Practical Machine Learning with python2》。在這段時間里,我有機會與DataScience.com的優秀員工進行互動,他們非常清楚在機器學習模型中人類可解釋性的必要性和重要性。他們也一直在積極研究解決方案,並開發了流行的python框架Skater。後續我們將深入研究Skater,並在本系列文章中做一些實際的模型解釋。
理解模型解釋
機器學習(尤其是深度學習)僅在最近幾年才得到廣泛的行業採用。因此,模型解釋作為一個概念仍然主要是理論和主觀的。
任何機器學習模型都有一個響應函數,試圖映射和解釋自(輸入)變數和因(目標或響應)變數之間的關系和模式。
模型解釋試圖理解和解釋響應函數做出的這些決定。模型解釋的關鍵在於透明度以及人們理解模型決策的容易程度。模型解釋的三個最重要的方面解釋如下。
什麼主導了模型預測?我們應該找出特徵的相互作用,以了解在模型的決策策略中哪些特徵可能是重要的。這確保了模型的公平性。
為什麼模型做出某個特定決策?我們還應該能夠驗證為什麼某些關鍵特徵在預測期間推動某個模型所做出的某些決定。這確保了模型的可靠性。
我們如何相信模型預測?我們應該能夠評估和驗證任何數據點以及模型如何作出決策。對於模型按預期運行的直接利益相關者來說,這應該是可證明的,並且易於理解。這確保了模型的透明度。
可解釋性是指人(包括機器學習中的非專家)能夠理解模型在其決策過程中所做出的選擇(怎麼決策,為什麼決策和決策了什麼)。
在模型比較時,除了模型的性能,如果一個模型的決策比另一個模型的決策更容易被人類理解,則說該模型比另一個模型具有更好的可解釋性。
模型解釋的重要性
在解決機器學習問題時,數據科學家通常傾向於注意模型性能指標,如准確性、精確度和召回率等(毫無疑問,這很重要!)。但是,度量標准只能說明模型預測性決策的一部分內容。隨著時間的推移,由於環境中各種因素造成的模型概念漂移,性能可能會發生變化。因此,了解什麼促使模型作出某些決定是極為重要的。
我們中的一些人可能會認為模型已經工作得很好了,為什麼還要深入挖掘呢?一定要記住,當解決現實世界中的數據科學問題時,為了讓企業相信你的模型預測和決策,他們會不斷提問「我為什麼要信任你的模型?」,這非常合理。如果一個人患有癌症或糖尿病,如果一個人可能對社會構成風險,或者即使客戶流失,您是否會滿意於只是預測和做出決定(如何)的模型?也許另外一種會更好,如果我們可以更多地了解模型的決策過程(為什麼以及如何),我們可能更喜歡它。這為我們提供了更多的透明度,說明為什麼模型會做出某些決定,在某些情況下可能會出錯,並且隨著時間的推移它可以幫助我們在這些機器學習模型上建立一定的信任度。
這一部分關鍵的一點是,現在是時候停止將機器學習模型視為黑盒子,不僅嘗試和分析數據,而且還要分析模型如何做出決策。實際上,走向這條道路的一些關鍵步驟是由著名論文《Why Should I Trust You?》(解釋了任意分類器的預測)」開始的,由MT Ribeiro,S. Singh和C. Guestrin在SIGKDD 2016上介紹了LIME(Local Interpretable Model-Agnostic Explanations)(局部可解釋模型 - 不可知論解釋)的概念。
他們在論文中提到了一些值得記住的關鍵點。
然而,理解預測背後的原因在評估信任方面非常重要,如果計劃基於預測採取行動,或者選擇是否部署新模型,則對模型的信任是至關重要的。 無論人類是直接使用機器學習分類器作為工具還是在其他產品中部署模型,仍然存在一個至關重要的問題:如果用戶不信任模型或預測,他們將不會使用它。
這是我們在本文中多次討論的內容,也是決定數據科學項目在業界成功與否的關鍵因素之一。這就推動了模型解釋的必要性和重要性。
模型解釋方法的標准
對於模型解釋方法的分類有特定的標准。在Christoph Molnar的「Interpretable Machine Learning,Making Guide for Making Black Box Models Explainable」中提到了一個很好的指導標准:
內在或事後?內在解釋性是關於利用機器學習模型的,它本質上是解釋性的(像線性模型、參數模型或基於樹的模型)。事後解釋性意味著選擇和訓練一個黑盒模型(集成方法或神經網路)並在訓練後應用可解釋性方法(特徵重要性,部分依賴關系圖)。我們將在我們的系列文章中更多地關注事後模型可解釋的方法。
是針對某個模型的還是通用的?特定於模型的解釋工具對固有模型解釋方法非常具體,這些解釋方法完全取決於每個模型的能力和特徵。這可以是系數,p值,與回歸模型相關的AIC分數,決策樹的規則等等。通用的模型解釋方法還是依賴於事後對模型的分析,可用於任何機器學習模型。通常通過分析特徵輸入和輸出對來運行。根據定義,這些方法無法訪問任何模型內部,如權重,約束或假設。
本地還是全局?這種解釋的分類會談到解釋方法是解釋單個預測還是整個模型行為?或者如果范圍介於兩者之間?我們將盡快討論更多關於局部和全局的解釋。
這並不是對可解釋方法進行分類的一套完整的標准,因為這仍然是一個新興的領域,但這可以是一個很好的標准,可以在多種方法之間進行比較和對比。
模型解釋的范圍
我們如何界定解釋的范圍和界限?一些有用的方面可以是模型的透明度,公平性和可靠性。本地還是全局模型解釋是定義模型解釋范圍的明確方法。
全局解釋性
這就是要試圖理解「模型如何做出預測?」和「模型的子集如何影響模型決策?」。為了一次理解和解釋整個模型,我們需要全局解釋。全局可解釋性是指能夠基於完整數據集上的依賴(響應)變數和獨立(預測)特徵之間的條件相互作用來解釋和理解模型決策。試圖理解特徵的相互作用和重要性,往往是理解全局解釋的好的一步。當然,在嘗試分析交互時,在超過兩個或三個維度後對特徵進行可視化變得非常困難。因此,經常查看可能會影響全局知識模型預測的模塊化部分和特徵子集,對全局解釋是有所幫助的。完整的模型結構知識,假設和約束是全局解釋所必需的。
局部解釋性
這就是要了解「為什麼模型會為單個實例做出特定決策?」以及「為什麼模型會為一組實例做出特定決策?」。對於局部的可解釋性,我們不關心模型的內在結構或假設,我們把它當作一個黑箱子。為了理解單個數據點的預測決策,我們專門關注該數據點,並在該點附近的特徵空間中查看局部子區域,並嘗試根據此局部區域了解該點的模型決策。局部數據分布和特徵空間可能表現完全不同,並提供更准確的解釋而不是全局解釋。局部可解釋模型 - 不可知論解釋(LIME)框架是一種很好的方法,可用於模型不可知的局部解釋。我們可以結合使用全局解釋和局部解釋來解釋一組實例的模型決策。
模型透明度
這就是要了解「從演算法和特徵中創建模型的過程如何?」。我們知道,典型的機器學習模型都是關於利用一個演算法在數據特徵之上構建一個表示,將輸入映射到潛在的輸出(響應)。模型的透明性可以嘗試理解模型如何構建的更多技術細節,以及影響其決策的因素。這可以是神經網路的權值,CNN濾波器的權值,線性模型系數,節點和決策樹的分割。然而,由於企業對這些技術細節可能並不十分熟悉,試圖用不可知的局部和全局解釋方法來解釋模型決策有助於展示模型的透明度。
結論
模型可解釋是一個對現實世界機器學習項目非常重要的一件事情。讓我們試著去研究人類可解釋的機器學習,讓每個人都打開機器學習模型的黑箱,並幫助人們增加對模型決策的信任。
寫在最後:模型解釋性很重要,這能夠加深我們對模型的信心,尤其是在金融市場中,當模型持續回撤時,信心比黃金還重要。之前有一個私募團隊使用了StockRanker策略,但是遲遲不肯上實盤,後來在弄清楚模型的理論原理和每一步細節、處理流程後,終於有信心上實盤,實盤前期遇到回撤也能明白是正常情況,並非模型預測失效,扛住前期的回撤後策略凈值開始上升。因此,機器學習模型可解釋很重要,模型也是可以解釋的,只是需要研究員付出更多的心血

④ AutoML自動超參調優

現在AutoML非常的火,各大雲平台都在推出自己的AutoML服務,包括Google Cloud,Amazon SageMaker,MS Azure等等。AutoML要解決的問題主要是釋放機器學習過程中的人力投入,包括:

本文主要關注的是 模型超參優化 的自動化。

AutoML自動調參又可以稱作黑箱超參優化(Blackbox hyperparameter optimization)。比較常見的做法是將調參系統和訓練系統分離開,模型、數據和訓練過程由用戶來控制,調參系統給訓練系統建議一組或多組參數,訓練系統反饋結果,然後調參系統根據反饋結果產生下一組建議的參數。這個過程一直迭代直至滿足了終止條件。

調參演算法的輸入是用戶指定的參數及其范圍,比如設定學習率范圍為[0.0001, 0.01]。比較常見的演算法為網格搜索,隨機搜索和貝葉斯優化等。

遍歷所有可能的參數組合。網格搜索很容易理解和實現,例如我們的超參數A有2種選擇,超參數B有3種選擇,超參數C有5種選擇,那麼我們所有的超參數組合就有2 * 3 * 5也就是30種,我們需要遍歷這30種組合並且找到其中最優的方案,對於連續值我們還需要等間距采樣。實際上這30種組合不一定取得全局最優解,而且計算量很大很容易組合爆炸,並不是一種高效的參數調優方法。

限定搜索次數,隨機選擇參數進行實驗。業界公認的Random search效果會比Grid search好,Random search其實就是隨機搜索,例如前面的場景A有2種選擇、B有3種、C有5種、連續值隨機采樣,那麼每次分別在A、B、C中隨機取值組合成新的超參數組合來訓練。雖然有隨機因素,但隨機搜索可能出現效果特別差、也可能出現效果特別好,在嘗試次數和Grid search相同的情況下一般最值會更大

業界的很多參數調優系統都是基於貝葉斯優化的,如Google Vizier [1], SigOpt[2].
該演算法要求已經存在幾個樣本點(一開始可以採用隨機搜索來確定幾個初始點),並且通過高斯過程回歸(假設超參數間符合聯合高斯分布)計算前面n個點的後驗概率分布,得到每一個超參數在每一個取值點的期望均值和方差,其中均值代表這個點最終的期望效果,均值越大表示模型最終指標越大,方差表示這個點的效果不確定性,方差越大表示這個點不確定是否可能取得最大值非常值得去探索。

在調參的過程中,有的參數在訓練的過程中,觀察曲線的趨勢,會發現它是不太有希望在訓練結束達成目標的,這個時候,將這些任務終止掉,釋放資源,繼續別的參數的嘗試。這樣可以快速試錯,快速調整。[1]

我調研了Github上開源的超參調優系統,按照受關注程度排序如下:

現在的調參系統基本上都是基於貝葉斯優化的思想,將調參任務作為一個黑箱優化的問題。在後面的博客中,我會詳細介紹貝葉斯超參調優的思想。

[1] Google Vizier A Service for Black-Box Optimization
[2] SigOpt: https://sigopt.com/

⑤ 量子物理中違反因果律的現象有哪些

您好! 在量子疊加態,量子物體能以兩種不相容的狀態同時存在,比如薛定諤的貓——著名的死活並存的貓。然而最新研究顯示,不僅在空間上不相容的狀態可能並存,連時間上不相容的序列事件也可能。

我們通常認為,事件的發生是按照一定的時間順序進行,比如A事件後隨之造成了B事件,反之亦然。但在某些量子過程中,事件的發生並非只按照一種確定的順序,而是同時以兩種順序(A在B之前和B在A之前)發生。這種有悖常理的類似疊加的現象稱為「因果非分離」。

奧地利維也納大學的馬特烏斯·埃若喬說:「在日常生活中,我們經歷的事件總是一件隨著一件發生,後果隨著前因,對此我們已經習以為常。所以認識到自然的深層本質並非如此,確實讓人感到有點混亂,事情可以不按照一種確定的因果順序發生,在此我們不能說什麼是因,什麼是果。」

迄今為止,科學家只是以一種非常抽象的方式來看待量子力學中的因果非分離現象,還沒有清晰的物理上的解釋。最近,埃若喬與其他合作者一起在《新物理學》雜志上發表新論文,描述了一種物理量子過程,可作為證明因果非分離的一個例子。

論文合著者、法國國家科學研究院和格勒諾布爾阿爾卑斯大學塞利爾·布蘭西亞德說:「相對論動搖了絕對時間的觀念,即認為存在一種絕對的全局性時間,每個人對時間流逝的體驗及與時間的關系都是相同的。而相對論告訴我們,處於不同參照系的兩個觀察者,對於事件發生的先後順序,看法並不一致。」

「另一方面,量子理論動搖了我們對『真實』的理解,它告訴我們,物理系統可能沒有確定的屬性,而是處在一種互不相容的『疊加』狀態,比如同時處在死活兩種狀態的貓。現在我們發現,不只是物理屬性,就連因果關系(或因果順序)本身也是不確定的,可以處於某種疊加態——但直到不久前,這種現象一直未能在實驗室觀察到。」

研究人員探索的因果非分離量子過程稱為「量子開關」(Quantum
Switch),是最近提出的一種提高量子計算機效率的方式。在此次研究中,他們介紹了一種因果非分離檢測,類似於檢測量子糾纏。這種新測試不僅能確定量子開關具有因果非分離性,還能確定任何因果非分離過程。這讓新測試更加有用,可用於識別其他系統中的因果非分離性,將來或許能在實驗中進行。

研究人員解釋說,由於量子開關是因果非分離的,意味著操作不遵循一定的順序,但並不意味著它違反因果律(如未來事件導致過去事件發生,則違反因果規律),這是因為在量子開關中沒有明確的過去或未來,也沒有確定的誰先誰後。雖然量子開關不違反因果規律,但問題依然存在:實際發生的物理過程是否也能這樣?

以往的研究表明,量子開關比標準的因果分離協議在計算上更有優勢,因此因果非分離現象在量子計算中也有應用前景。

布蘭西亞德說:「對於量子計算機或任何能執行量子信息處理任務的設備來說,通常假設它們都是按照一定的順序來執行操作,比如量子計算機標准『線路模型』的基本假設,通常用於描述量子計算機的工作原理。因此,我們對大部分量子計算機能力(如解決哪種問題、效率高低、運行演算法的復雜性)的了解,只限於具有確定因果順序的操作,即都是因果分離操作。」

由於量子理論還允許有因果非分離過程(如量子開關),這就帶來了新的可能性。人們會很自然地期望,因果非分離過程在執行某些任務時能勝過因果分離過程。

朱利奧·克里貝拉提出了這些任務中的一個例子,是關於在某個處理過程中,操作順序如何確定的問題:當你執行「A然後B」,或者執行「B然後A」時,能否得到相同的結果?如果結果相同,這些操作可以說是「互易的」;如果結果不同,則這些操作是「非互易的」。

要回答這個問題,一個因果分離過程必須既能執行「A然後B」,又能執行「B然後A」兩種順序,並比較其結果;而一個因果非分離過程,如量子開關,要能同時執行這兩種順序,以量子疊加的形式一步解決問題。非分離過程不僅更高效,而且在某些情況下,是解決問題的唯一方式——比如,執行量子運算的「黑箱」可能只用一次就會破壞,所以這種程序就只能一次性執行。

由於量子開關是因果非分離性的最簡單例子,研究人員希望其他的因果非分離過程擁有更大優勢。布蘭西亞德說:「從更普遍的角度說,我希望因果非分離過程還能用於更多情況——就像量子糾纏在量子信息處理中廣為應用那樣,其全部潛能仍有待發掘。」
謝謝閱讀!

⑥ matlab里有對約束函數為黑箱函數適用的優化演算法么

這個ga工具箱只能解決簡單的線性約束問題,你的約束條件是非線性約束,所以你還是要使用gatbx菲爾德大學的那個工具箱,你的問題帶有不等式約束,轉化為無約束的拉格朗日對偶問題求解

⑦ 強化超大互聯網平台個人信息保護義務,信息化管理如何實現

據媒體報道,2021年4月26日第13屆全國人大常委會第28次會議在京開幕,其中提出了草案二審稿,規定將強化超大型互聯網平台的個人信息保護義務並加強監督。此消息在社交平台上發酵後,引起了網民們的廣泛關注與討論。

部分網民們認為隨著互聯網的發展,實際上技術賦權也造就了一種技術特權階層,應該對他們的特權進行規范;也有部分網民們認為,該如何去規范這些社交平台呢?在當前實現信息化管理是一個棘手的問題,而如何進行信息化管理使得各大平台保持其公序良俗呢,筆者有以下的看法。

一、政府規范平台的演算法黑箱

互聯網行業中,各大企業雖然是私企,但是因為它們的規模很大,所以它們也必須要承擔起社會責任。當前的人們是生活在現實生活之中,當然也是生活在網路之中,而互聯網平台作為網路場域的營造者和建構者,它們必須要做到自律,必須要對自身所營造的網路環境進行負責,這也是社會所賦予他們的責任。

四、公民進行監督

因為互聯網平台對於個人信息的竊取實際上已經侵犯到了公民的隱私權,因此公民們應該對此行為進行監督,在強大的監督之下,會使得互聯網平台去規避此類違規行為。

⑧ 智能手環的監測「黑箱」:用戶心率誰說了算

前言

在2021年,隨時掌握自己的心率,並不是一件很困難的事。


6月25日,蘋果旗下的Apple Watch終於拿到了拿到國葯監局心電圖、房顫監測醫療器械上市批准。實際上在2018年,蘋果的Apple Watch Series 4就已經有了心電圖檢測功能。只不過由於心電圖屬於醫療器械功能,蘋果當初沒能通過認證,無奈「鎖區」中國。



入局國內可穿戴設備 健康 領域的,不光有姍姍來遲的蘋果。國外廠商有Fitbit,國內廠商有華為、華米。這些廠家目前的智能手錶、手環產品都可以進行心率、血氧等數據的監測,甚至在未來還可能「不扎針測血糖」。


廠商能夠如此發力,也是因為相關領域市可觀:據市場統計數據顯示,到2025年,醫療可穿戴設備市場價值將超過480億美元。


聽起來,「 健康 手環」的市場紅紅火火。然而戴上手環監測心率的消費者,可能並沒有考慮過一個問題:數據的主導權,到底在誰手裡?


01 同樣心率,不同的數據

問題的起源,源自一次統計學研究。負責研究的,是哈佛大學公共衛生學院副教授JP Onnela。


在學術領域,他一般不會引入Apple Watch這類消費級產品,而是用實驗室設備做研究。不過他最近與一家醫院合作研究,使用了Apple Watch收集數據。


他因此對「心率手環」產生了興趣:不管是廠家還是研究者,大家都知道設備收集的數據有問題。他和團隊也想看看,數據問題究竟有多大。


研究團隊收集了2018年底到2020年9月的心率數據,並且把數據通過 Apple Watch導出:第一次是2020年9月,第二次是2021年4月。也就是說,既然原始數據沒變,Apple Watch處理數據沒問題,兩次的數據處理結果應該很接近。


然而實驗的結果,卻讓人大跌眼鏡:在原始心率不變的前提下,兩次數據的重合度並沒有那麼高。黃色曲線和藍色曲線「各玩各的」,根本看不出是同一個人的心率。


如果從數據離散程度來看,其中一組數據比較扎堆,還算是「聯系緊密」。另一組數據則到處都是,「放飛自我」。兩組數據放到一起,幾乎沒有什麼關聯性。



根據Onnela自己博客的說法,「兩組數據的結果,可能是這類偏差中最明顯的代表」。


02 你的心率,演算法說了算?

同一組心率,同一個Apple Watch,輸出結果為啥差異這么大?答案很簡單,演算法。


在傳統的心率測量中,收集數據很簡單:患者貼上電極,設備導出心電圖。心電圖的結果,就是未經處理的原始數據。沒有演算法,沒有AI。測出什麼結果,就是什麼結果。


可是到了手環這里,規則就變了:智能手環測量之後,並不會立刻導出,而是進行演算法的分析和過濾。研究人員接觸的,就是被「優化」的數據,跟實際心率相比,就會產生偏差。


單純的「優化」,還不是問題全部。分析的演算法,也會被「優化」成「一天一個樣」:在之前提到的研究中,Onnela就表示,可穿戴設備演算法就是「黑匣子」:設備廠商只知道定期更新演算法,然而研究人員根本不知道演算法怎麼統計數據。導致輸出結果缺乏可比性。



現有的結果加上可能的擔憂,讓Onnela在後續研究中,已經放棄用消費級可穿戴設備收集數據。他也很含蓄地表示,演算法的「黑匣子」對研究人員來說,是一個「持續的挑戰」。


密歇根大學的Olivia Walch說得就比較直接:雖然她也研究可穿戴設備,但她讓研究團隊直接使用原始數據。因為她研究的是睡眠監測,需要長期跟蹤,試驗成本也很高。如果靠「智能手環」的演算法輸出結果,那研究就要因為版本變動重新開始。


從Walch的角度來看,就算自己能接受演算法更新,她也沒法提前知道變動:企業沒什麼理由去特意通知研究人員演算法有變化,但是因為產品更新,企業往往會主動更新演算法。


對於嚴謹的研究而言,頻繁變動規則得到的數據,本身就不值得信任。對於 健康 監測的應用而言,Apple Watch也應該提供持續穩定的醫學數據,而它顯然沒有做到。


03 使用偏差,「手環」不智能

實際上,Apple Watch為代表的「智能 健康 監測」設備,從官方審批中就透露著一股不靠譜。


2018年9月,蘋果公司宣布,Apple Watch Series 4的心電圖 (EKG) 和心率監測功能獲得了美國食品與葯品管理局 (FDA) 的許可。


然而FDA的用詞卻十分值得玩味,因為FDA對新器械的評級分為三個指標:公示、許可和批准。


公示的產品不需要FDA的專業審查,標准最寬松。需要批準的產品有不小的使用風險,需要大量測試評價,也讓需要批準的III類產品,僅僅占據器械市場的10%。


如果把「智能手錶/手環」放到這個體系中評價,就會發現。這些設備有技術門檻,需要把關,光是公示肯定不夠。但是「監測心率」的功能,也沒有深入到疾病治療,使用風險很低,整體來看,還是許可比較合適。


「許可」的定位,也代表了可穿戴監測設備的產品困境:生產不簡單,使用不靠譜。


以蘋果、華米等廠家對外宣傳的心電圖和房顫監測功能為例。廠商之所以推廣這一特定領域,是因為目前技術條件下,「智能手環」只能做到單導聯心電監測。和臨床的12導聯相比,監測方式比較「粗枝大葉」,無法給出精確的數據。


蘋果在Apple Watch相關功能的宣傳中,也只能表示「數據僅供參考」。告訴消費者「掌握 健康 」,實際使用卻說「想掌握 健康 請自己找醫生」,未嘗不是在玩弄消費者的預期。


除此之外,可穿戴設備在使用體驗上依舊比較模糊。「數碼設備」加上「醫療功能」的雙重屬性,讓消費者對於這類產品的需求,是「既方便又精確」。


然而使用「智能手環」的消費者並不是專業的醫生,使用習慣也存在著差異,導致產品體驗缺乏合理標准:手環調的太緊,出門劇烈運動,都會導致手環的「 健康 警告」。「僅供參考」的價值更是無從談起。


04 智能監測,先要定規矩

不論是「數據篩選」還是「僅供參考」,智能手環為代表的可穿戴醫療設備都面臨著同樣的問題:在行業依舊處於前期發展階段、技術條件依舊有限的前提下,如何在專業層面上,為消費者提供真正有說服力的產品。

目前的可穿戴醫療設備行業,不論是傳統的醫療器械廠商還是新興的數碼設備企業,都想在行業發展早期野蠻生長,從而占據市場。去年,有14款可穿戴設備產品通過了FDA審批,國內也有18款設備獲得葯監局認證,相當於之前三年獲批產品的總和,可穿戴設備的熱度由此可見一斑。華為、歌爾、OPPO紛紛下場,行業熱度急劇攀升。


不管可穿戴設備有多麼「數碼」,實際應用的分類依舊是「醫療器械」。既然涉及到了醫療 健康 ,就要按照醫療 健康 領域的標准對產品進行管理。然而從相關產品的市場來看,不論是數據收集還是實際使用,可穿戴醫療設備的「最終解釋權」有太多都跑到了企業手裡。


這樣的市場,光靠企業自律制定行業標准顯然不夠,還需要相關部門針對行業現狀,推出專門的行業標准。2015年,FDA將可穿戴 健康 設備劃入「一般 健康 」設備的范疇,並制定了相關法規。作為對比,2017年底,葯監局對外發布了《移動醫療器械注冊技術審查指導原則》,然而這些規則的具體執行,仍然需要進一步的細化和明晰。


使用智能手環的消費者,要的是監測 健康 帶來的安心生活,而不是數碼行業的高強度競爭。如果企業沉迷更新產品和演算法,無視真正的需求,那麼他們就需要一場真正的「教育」。因為代表消費者 健康 的數據,只有消費者說了算。


來源|科工力量

熱點內容
優酷怎麼給視頻加密 發布:2025-05-14 19:31:34 瀏覽:633
夢三國2副本腳本 發布:2025-05-14 19:29:58 瀏覽:859
phpxmlhttp 發布:2025-05-14 19:29:58 瀏覽:432
Pua腳本 發布:2025-05-14 19:24:56 瀏覽:448
蘋果像素低為什麼比安卓好 發布:2025-05-14 19:13:23 瀏覽:460
安卓機微信怎麼設置紅包提醒 發布:2025-05-14 19:00:15 瀏覽:271
androidsystem許可權設置 發布:2025-05-14 18:56:02 瀏覽:970
mq腳本 發布:2025-05-14 18:45:37 瀏覽:25
仙境傳說ro解壓失敗 發布:2025-05-14 18:45:01 瀏覽:868
betweenand的用法sql 發布:2025-05-14 18:39:25 瀏覽:250