2個月用戶破億迅速爆火的ChatGPT,讓普通人擁抱人工智能變得不再遙不可及。已經成為互聯網領域發展20年來,增長速度最快的一款2C的消費類應用程序。
你只要給ChatGPT發提示(問題)就可以生成任意主題的文本內容,可以寫詩歌,小說散文,段子,甚至寫論文,做方案PPT等等,也可以讓ChatGPT寫代碼進行編程,甚至生成惡意軟件和鏈接。
ChatGPT的“入侵”已經引起了各行各業對內容抄襲的擔憂,及網絡數據安全的提防意識的提高。雖然AI技術是中立的,但并不能成為規避責任與義務的理由。
教育界和學術界已最先做出反擊。目前已有數千種科學期刊明令禁止或限制投稿人使用 ChatGPT 撰寫或編輯論文,包括知名學術期刊《科學》,《自然》等都更新了編輯規則。美國一些大學也通過網絡禁止接入ChatGPT,甚至要取消回家作業。
其實AI倫理風險也一直被廣泛關注,即指AI可能會生產違反常規、違背法律和道德的內容,或幫助人類以作弊等形式完成違反常規、違背法律和道德。ChatGPT涉及的網絡數據安全合規主要涉及數據獲取,及惡意濫用所產生的問題。
曾參與過行研社數據安全研討會的專家,北京師范大學互聯網發展研究院院長助理吳沈括教授認為ChatGPT在實際應用層面將面臨三種風險:
第一種是在更巨量數據匯聚的過程中,可能會產生法律和安全風險;
第二種是在模型和算法設計的過程中,可能產生倫理和違法風險;
第三種是在實際應用過程中,可能被用于違法犯罪行為,進而帶來社會風險。
知識產權
目前最大的爭議是ChatGPT的“文本數據挖掘”是否需要相應的知識產權授權?ChatGPT通過互聯網抓取信息進行深度學習,而大多數網站都有防止第三方收集信息的網站隱私政策條款。從法律角度來看,國內的文本數據挖掘理論上需要相應的知識產權授權。并且,目前國內外大部分國家的知識產權法律下,僅有自然人可以享有著作權。這意味這如果AI利用真人的作品拼接出的創作,有可能存在侵權。因此,我國也已出臺了對AI深度合成技術的一些規范要求。
數據合規
生成式AI技術的商業化趨勢已經到來,眾多公司正在應用到自身的產品和服務中去。通過在線服務、智能客服,融入各類產品文本理解分析,多模態檢索等等,全面提升自身產品和服務的AI化。因此,網絡數據安全問題也開始被重視。
ChatGPT可能導致一些敏感數據泄露風險。本月開始微軟和亞馬遜于已宣布禁止公司員工向ChatGPT分享。微軟內部的工程師也警告不要將敏感數據發送給OpenAI終端,因為OpenAI可能會將其用于未來模型的訓練。
ChatGPT的虛假信息回復問題。作為基于語言模型的人工智能工具,ChatGPT也會編造一些看似正確的答案,即“一本正經的胡說八道”。這樣的虛假回復在商業化中會造成嚴重后果,甚至有法律風險。
企業數字安全風險
行研社APP平臺的數字化轉型行業圈匯聚了國內網絡數字安全領域頂級專家團隊。下面是在數字化轉型行業圈的行研會上,專家對企業在數字化轉型中遇到的各類數據安全、數據合規問題進行的深入講解。