王融?騰訊研究院首席數據法律專家
本期觀點摘要:
1.ChatGPT等AI應用服務商直接面向個人提供服務,收集并處理個人信息,可被視為個人信息保護合規主體——數據控制者。
2.與移動互聯網APP的典型場景相比,生成式AI服務商的個人信息處理活動有其自身特征,數據合規重點也有所不同。
3.根據GDPR,歐盟數據保護機構是監管機構,而非市場準入機構,其職責主要在指導督促企業滿足數據合規要求。
4.未來真正的挑戰來自于AI賦能的各類應用服務,解決新的數據安全問題需要新思維。
C端AI應用服務商是
數據控制者
并非所有的市場主體都是數據合規框架下的義務主體,需要根據技術原理、業務場景和法律規范來進一步確定。當主體身份重合時,也需基于不同業務流程匹配合規義務。基于此分析框架,我們在上一篇文章里詳細論證了大模型研發者,在模型研發階段有可能并不認定為隱私數據合規上的法律主體。
基于同樣的分析框架,我們認為面向C端個人用戶提供生成式AI服務的運營者可被認定為隱私數據合規上的數據控制者。例如,當OpenAI在2022年11年面向公眾發布ChatGPT應用服務,并在2個月內突破1億用戶,成為歷史上增長最快的消費者應用時,作為數據控制者的身份已確定無疑。
BNB Smart Chain已集成PENDLE并開放充值與提現:7月21日消息,幣安公告稱,已完成Pendle(PENDLE)在BNB Smart Chain(BEP20)上的集成,支持Pendle(PENDLE)的充值與提現。[2023/7/21 15:50:15]
事實也如此。從國外實踐看,目前已面向個人的AI應用服務商,在數據合規部分已完整配置隱私政策和用戶協議,以充分告知用戶收集了哪些類型的數據,以及如何處理數據。OpenAI在隱私政策中列舉了收集類型;包括賬戶信息、通信內容、使用記錄等;數據處理的目的包括但不限于:提供、改進服務,預防欺詐,網絡信息安全、履行法定義務所需等。類似的,面向公眾的圖片生成AI服務商Midjourney也提供了清晰明了的隱私政策。國內目前雖然沒有正式上線的產品,但已有部分廠商在測試版本中嵌入隱私政策。
這也就不難解釋為什么數據保護機構DPA是第一批入場的監管機構。3月31日,意大利數據監管機構Garante宣布暫時禁止ChatGPT,并要求OpenAI在20天內相關問題作出回應。這是數據監管機構DPA對一項新興應用的正常反映,但被誤讀為DPA可以對特定業務采取永久性措施。相反,根據歐盟GDPR,DPA雖然有天價處罰權,但其職權被嚴格限制在矯正性權力范圍內,包括建議,警告以及暫時性的或者具有明確期限的禁令。換言之,只要服務提供者滿足數據合規要求,則DPA不得對其采取市場禁入措施。在其臨時禁止令受到廣泛批評后,4月12日,Garante釋放信號:“如果OpenAI采取有效措施,我們準備在4月30日重新開放ChatGPT”。
分布式搜索引擎QitChain全網算力達410.7PiB:據官方消息,分布式搜索引擎QitChain與交易平臺CoinW達成戰略合作,并于2021年12月29日進行QTC首發。根據CoinW數據顯示,截止2022年1月10日,QTC交易量為309.48萬美元。
與此同時,據官網數據顯示,QitChain全網算力有所增長,截止1月10日,QitChain全網算力為410.7PiB,全網最高已超過546PiB,為QTC正式上市前的132.85%。[2022/1/11 8:41:02]
生成式AI服務商
數據合規的獨特性
與移動互聯網相比,面向個人的生成式AI應用在數據合規上有很多相似之處,包括制定隱私政策、業務協議,明確處理用戶數據的合法性基礎,通過隱私保護設計在信息系統中支持用戶圍繞其賬戶信息和使用服務過程中產生的個人信息的相關權利,包括查詢、訪問、更正、刪除等。但一方面,我們更加關注其在個人信息處理活動中的獨特性:
第一、收集的個人信息種類相對較少。導航軟件、打車、購物等典型的移動APP為實現對用戶個性化服務的閉環,需要實時收集用戶較多類型的個人信息;而目前的生成式AI應用,以OpenAI和Midjourney為例,從其底層邏輯出發,其更加關注生成內容的質量,在應用服務階段收集個人信息主要是建立用戶賬戶體系,接受用戶指令并與之交互,因此收集的個人信息相對較少,包括賬戶信息、使用記錄,如果涉及購買服務等交易,則還包括支付信息。因此,Midjourney更是以表格的形式,明確列出了不收集的用戶信息種類:包括用戶敏感信息,生物識別信息、地理位置信息等等。這些信息對于生成式AI應用確實也無關緊要。
NFT平臺Ether Cards將使用Chainlink作為首選預言機解決方案:NFT平臺Ether Cards發文稱,為了實現動態NFT的無限潛力,Ether Cards正與Chainlink密切合作,將其作為首選預言機解決方案。Ether Cards已經開始集成Chainlink VRF,以便開發人員訪問鏈上可驗證的隨機性。Chainlink為Ether Cards提供了更多的鏈下數據和計算可能性。Ether Cards介紹了開發人員可以開始探索的用例,其中許多都需要使用Chainlink預言機: 提供獲得某人注意力、時間或其他資源的途徑;提供對事件的訪問;受現實世界影響的NFT;NFT影響現實世界;NFT與實物的連接;折扣;訪問控制;融資和貨幣化;提供經濟利益;NFT升級、技能樹和游戲化;代表商品。[2021/4/7 19:53:01]
第二、在更早階段以及更廣泛地采取個人信息去標識化以及匿名化措施。在提供服務過程中,生成式AI主要圍繞用戶賬號體系及通信內容構建數據安全防護體系。以ChatGPT為例,盡管在模型訓練階段,其采集的數據源中的用戶個人信息較少,但在應用服務階段,問答式的會話功能會產生較為敏感的通信內容,模型根據與用戶通信內容進一步分析并生成回復。為降低用戶通信內容泄露后產生的風險,生成式AI會在更早階段采取用戶身份信息去標識化及匿名技術,或者將用戶身份信息與通信內容相互分離,或者在模型生成回復內容后及時刪除通信內容等安全類措施。這也是由生成式AI更關注反饋內容,而非用戶行為的邏輯所決定,這與建立在用戶行為特征基礎上,以個性化推薦見長的移動APP有顯著差異。
動態 | 德國IT公司Ponton推出了基于區塊鏈的Enerchain產品:據spglobal報道,德國IT公司Ponton董事總經理Michael Mertz周二對標普全球普氏能源資訊(S&P Global Platts)表示,該公司推出了基于區塊鏈的Enerchain產品,希望分布式能源集團能在幾個月內開始點對點交易。[2019/5/22]
第三、由以上兩方面影響,生成式AI與移動APP在數據安全的風險領域有所不同。移動互聯網APP需要直接收集大量個人信息,用戶數據庫易成為黑客攻擊和數據泄露的目標。然而,在生成式AI應用中,雖然其直接收集的用戶信息種類少,但其風險集中在模型被攻擊從而反向溯源數據庫,以及用戶通信內容泄露的隱患。意大利數據監管機構對OpenAI發出暫時禁令,即是由于用戶通信內容因出現服務bug而泄露的事故。為減輕風險,在技術上已經明顯具備先發優勢的OpenAI,開始探索支持用戶可以選擇將個人刪除通信記錄。4月23日,OpenAI推出新控件,允許ChatGPT用戶可以選擇關閉其聊天歷史記錄,且可以不用于模型訓練目的。
第四、在輸出階段,如果用戶引導的問題涉及個人信息時,基于大模型的語言預測生成的算法邏輯,輸出結果中的個人信息有可能是編造的,虛假的,這可能違反了個人信息保護法上的信息質量原則,即保持個人信息準確性要求。但這類問題的背后實質是生成式AI在內容治理中面臨的一般性問題,即AI進入“幻想”,編造不準確甚至是虛假的信息。
Blockchain與SFOX合作,將在美國開啟BTC出售服務:錢包供應商Blockchain昨日發布公告表示,他們與美元兌比特幣平臺SFOX達成合作關系,并計劃從發布公告之日起,為美國地區22個州的用戶開啟BTC出售服務。而接下來幾周內,Blockchain還將陸續上線BCH、ETH出售功能以及這三個幣種的購買功能。同時他們還補充,目前歐洲以及印度地區的用戶也能體驗BTC出售、購買功能。[2018/1/19]
OpenAI在研發階段,即致力于改善和解決此類問題,包括引入人類專家意見反饋機制和強化學習,引導AI輸出準確內容。目前,部分生成類AI還加入了輸入+輸出雙重過濾機制,來進一步避免出現有害內容或侵權問題。盡管大語言模型的進步速度令人瞠目結舌,僅用了4個月,ChatGPT4相比于GPT3.5,其輸出信息的準確率就大幅提升了40%,違反內容政策的輸出可能性降低82%,但目前仍不能保證其生成內容具有可靠的準確性。因此作為用戶也應當對ChatGPT的回答保持一定警惕和判斷力,避免被誤導。
綜上,看待生成式AI的數據合規問題,需要從移動互聯網服務中的數據合規慣性中跳脫出來,圍繞其在隱私和數據安全方面的不同特點,有的放矢采取相應的合規和安全保護措施。
面向未來的挑戰:
前所未有的數據匯聚
基于大語言模型的生成式AI為世人所矚目,不在內容生成,而在其所具有的通用人工智能潛力,業界驚呼:AGI的奇點時刻正在到來。未來,除了面向普通大眾的內容生成式AI應用外,業界普遍認為AI也將改寫互聯網范式。現有商業模式將廣泛引入AI智能模型,大幅提升用戶交互效率。這不是將來時,而是進行時。2023年3月17日,微軟發布Microsoft365Copilot,將大語言模型功能與微軟辦公應用相結合,幫助用戶解鎖生產力。
Copilot將會被內置到辦公全家桶內,在Word、Excel、PowerPoint中,AI將與個人通過便捷的語言交互,一起撰寫文檔,演示文稿,實現數據可視化;在Outlook,Teams,BusinessChat中,AI能夠幫助用戶回復郵件,管理郵箱,實時完成會議摘要和待辦事項,提高會議效率。
辦公效率的飛越提升,不僅建立在強大的AI模型能力基礎之上,更建立在廣泛的數據打通鏈接基礎之上,使用Copilot意味著用戶將授權微軟打通跨越各業務平臺的個人數據。正如微軟隱私政策所陳述,為實現業務提供,改進和開發產品等目的,微軟會從不同的業務環境中收集的數據進行合并。
這只是未來超級數字助理的雛形,在智能基礎設施的支持之下,每個人甚至可以擁有多個數字分身,協同完成任務。可以想見,數字助理的背后是大語言模型訪問、鏈接個人以及商業企業的私有數據,數據的融合利用一定是無縫絲滑的。此類數據的訪問處理如何以安全、合規、保護隱私的方式進行,對安全技術保障措施提出了更高要求。
圖:MicrosoftGraph是Microsoft365中數據和智能的網關。它提供了統一的可編程性模型,以安全便捷地跨業務平臺訪問數據。
同時,我們也迫切需要審視現有的隱私保護與合規機制。在當前移動互聯網個人信息保護實踐中,對于必要性原則解釋是非常嚴苛的,以最大程度的避免數據收集與匯聚。例如:《常見類型移動互聯網應用程序必要個人信息范圍規定》不僅針對每類應用區分了基本功能和附加功能,還針對基本功能收集的必要信息進行了明確。在大部分基本功能中僅能收集兩三類個人信息,例如定位和導航功能僅能收集位置信息、出發地、到達地三種信息;《App違法違規收集使用個人信息行為認定方法》中更是明確:不得僅以改善服務質量、研發新產品等理由收集個人信息。這種基于“嚴防死守”的數據合規思路在未來的AI應用場景中是否還能繼續走下去,是一個值得探討的問題。
從移動互聯網到我們正在步入的AI時代,雖然數據利用一直在向更廣更深的方向發展,但各類新技術應用仍將隱私保護作為價值對齊的重要方面。隱私和數據安全的真諦從來也不是對數據的使用進行各種限制,或者人為增加數據利用門檻,而在于通過激烈的市場競爭、健全的法律機制和更加強大的技術安全措施來切實保障用戶隱私與數據安全。
參考資料來源:
https://openai.com/policies/privacy-policy
https://docs.midjourney.com/docs?/privacy-policy
https://www.gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/9870832
GDPR?Article58&Article83
https://www.reuters.com/technology/italys-data-watchdog-chatgpt-can-resume-april-30-if-openai-takes-useful-steps-2023-04-18/
https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt
https://openai.com/product/gpt-4
https://news.microsoft.com/zh-cn/microsoft-365-copilot/
https://privacy.microsoft.com/zh-cn/privacystatement
撰文:GuidoAppenzeller、MattBornstein和MartinCasado 來源:a16z 圖片來源:由無界AI工具生成生成式人工智能的熱潮是以計算為基礎的.
1900/1/1 0:00:00撰文:FoxTechCTO林彥熹,FoxTech首席科學家孟鉉濟 前言 Prover和Verifier之間的計算代理思想是零知識證明的核心內容之一.
1900/1/1 0:00:00作者:Flowie、餅干,ChainCatcherPEPE上幣安了。幣安宣布將在創新區上線Pepe,并將在北京時間今晚24:00開放PEPE/USDT、PEPE/TUSD交易對.
1900/1/1 0:00:00原文:Top?4?Directions?of?Bitcoin?Ecosystem?Scalability作者:kenyou由GweiResearch編譯 Ordinals?NFT?和?BRC-2.
1900/1/1 0:00:00來源:新智元 編輯:桃子Joey 神經網絡之父GeoffreyHinton離職谷歌,直言對畢生工作感到后悔。現在看來,他對AI的害怕,不是沒有道理.
1900/1/1 0:00:00原文作者:Frankie原文編譯:深潮TechFlowParadigm?宣布開源了一個關于?MEVBot的框架Artemis,在本文中.
1900/1/1 0:00:00