月夜影视在线观看免费完整_亚洲国产成人精品青青草原_少妇被又大又粗又爽毛片久久黑人_欧美乱子伦videos

深圳熱線

科技倫理審查提速 AI“變壞”設防

2022-04-06 08:30:51 來源:北京商報

ChatGPT與GPT已走進大眾的視線,我國眾多的互聯網大廠也正火速切入這一賽道。不可否認,GPT等人工智能應用極大提升了生產力、便利了大眾的生活,但其也是一柄雙刃劍,不久前甚至還出現誘導人類自殺的事件,由此產生的科技倫理問題也引發了全球的關注與擔憂。


(資料圖)

令人欣慰的是,我國已開始籌謀提前化解人工智能的科技倫理風險。日前,科技部公開征求對《科技倫理審查辦法(試行)》(以下簡稱《辦法》)的意見,其中明確提出,從事人工智能的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會,部分算法模型、自動化決策系統需要專家復核。分析認為,雖然倫理審查短期內會影響產品商業化的效率,但從長期來看,有助于人工智能行業可持續的健康發展,讓我國在這一領域形成可持續的全球競爭力。

設立審查委員會

科技部本次發布的《辦法》提出,從事生命科學、醫學、人工智能等科技活動的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會。

此外,在《辦法》的附錄中還提到了“需要開展專家復核的科技活動清單”,其中包括:具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發;面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統的研發。

“ChatGPT與GPT等應用越來越廣,也與我們的生活越來越近,我們在科技倫理方面也遇到了前所未有的挑戰。”浙江理工大學數據法治研究院副院長郭兵認為,《辦法》比較大的亮點在于,進一步對更廣泛的科技倫理審查問題做了規定,并引入了專家復核制度。

事實上,在ChatGPT誕生之前,我國就已經出臺與人工智能倫理的相關規范和標準。2021年9月25日,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》,旨在將倫理融入人工智能全生命周期,為從事人工智能相關活動的自然人、法人和其他相關機構等提供倫理指引,促進人工智能健康發展。

“目前我國科技倫理的審查,也正由傳統的完全自律逐漸演變成為法定的義務。”郭兵介紹說,在2021年11月1日起施行的《個人信息保護法》中,已經明確規定了科技平臺有義務設置獨立的第三方機構對其個人信息的處理活動進行監督;其第五十八條則規定,提供重要互聯網平臺服務、用戶數量巨大、業務類型復雜的個人信息處理者,應當按照國家規定建立健全個人信息保護合規制度體系,成立主要由外部成員組成的獨立機構對個人信息保護情況進行監督。

“但《個人信息保護法》并未要求企業邀請何種外部人員,而科技領域、AI領域專業性較強,《辦法》通過法定的專家參與機制的設計,能夠更好地保障人工智能倫理審查的效果。”郭兵進一步解釋說。

倫理問題浮現

人工智能應用技術會帶來哪些科技倫理問題?在中國數實融合50人論壇智庫專家、商務部研究院電子商務研究所副研究員洪勇看來,人工智能可能面臨對自然資源的消耗、產品更新換代產生的各種垃圾等環境倫理問題,隱私泄露、歧視、失業、安全風險等個人倫理問題,以及推理能力、可解釋性等技術倫理問題。

“從個人的角度來看,人工智能的應用還可能會侵犯人格尊嚴。比如算法所引發的歧視風險,還包括公民的隱私和個人信息泄露的風險。人工智能也可能引發勞動者權益方面的爭議,引發勞動者的‘飯碗焦慮’。”郭兵說,人工智能甚至還可能危及個人的生命與健康。

正如郭兵說述,雖然ChatGPT與GPT誕生不久,但已有值得引起關注的案例。

有媒體援引比利時媒體La Libre 3月28日的報道,一名比利時婦女聲稱,她的丈夫在與 AI 聊天機器人Chai交談了六周后自殺身亡,背后主要原因是Chai鼓勵用戶自殺。據悉,聊天機器人Chai是基于GPT-4替代方案研發的產品。

在此次事件中,Chai在法律層面將承擔怎樣的法律責任、又該如何追責?“在這方面目前仍備受爭議。”河南澤槿律師事務所主任付建認為,人工智能技術的程序是開發人員編寫的,但決策是由機器做出的,如果出現重大失誤造成損害后果,責任誰來承擔仍存在爭議,同時,人工智能能否對自己做出的決策進行道德判斷也是一個值得商討的問題。

全球千余專家發聲

也許因為身處人工智能領域的最前沿,最為了解GPT的運行邏輯以及“涌現”的概率,在Chai事件發生后的第二天,全球范圍內眾多專家疾速發聲。

3月29日,包括馬斯克、圖靈獎得主約書亞·本吉奧、蘋果聯合創始人斯蒂夫·沃茲尼亞克在內的1000多名人工智能專家和行業高管聯名簽署了一份公開信,呼吁暫停開發比GPT-4更強大的AI系統至少6個月,稱其“對社會和人類構成潛在風險”。

事實上,人工智能存在的倫理問題風險也引起了聯合國教科文組織的注意。近日,聯合國教科文組織發表聲明,呼吁各國政府盡快實施該組織通過的首份人工智能倫理問題全球性協議——《人工智能倫理問題建議書》。

在最新發布的聲明中,聯合國教科文組織對科技創新引發的倫理問題表示關切,尤其是歧視、性別不平等問題,此外還有打擊虛假信息、隱私權、個人數據保護等。行業自律顯然不足以避免這些倫理危害,因此,《人工智能倫理問題建議書》提供了工具,以確保人工智能的發展遵守法律,避免造成危害,并在危害發生時啟動問責和補救機制。

“從社會和經濟層面來看,企業一般利益至上,如果各家科技巨頭通過研發的大型語言模型,利用‘算法暗箱’,謀一時之利,就有可能有損整個社會利益和國家利益,給國家安全帶來風險。”郭兵補充說。

短痛與長痛的選擇

“《辦法》進一步明確政府、科研機構、科技企業等責任主體,建立倫理高風險科技活動的清單制度,有效避免人工智能技術被不當濫用,推動人工智能技術健康可持續發展。”中國電子商務專家服務中心副主任、知名互聯網專家郭濤認為。

但不得不說,此次的《辦法》實施后將對行業產生重大影響。

“對人工智能可能帶來的問題提前加以防范,進行倫理審查會對行業產生重大影響。此前更強調數字技術、人工智能技術在效率上帶來的變革,而忽略技術對社會、對個人產生的倫理問題。隨著科技倫理越來越得到重視,將會對人工智能在醫療、教育、無人駕駛等領域的應用產生影響。”北京市社科院研究員、中國人民大學智能社會治理研究中心研究員王鵬對北京商報記者表示。

郭兵就《辦法》給人工智能行業帶來變化進行了具體化的解讀,“隨著人工智能倫理審查越來越嚴,會增加企業的成本,尤其引入了專家復審要求后,會影響產品或技術市場化的效率,研發出來的某個算法模型不能立馬投入商業化的應用。”

但郭兵認為,另一方面,審查的嚴格將有利于人工智能產業的可持續發展。“如果企業研發的產品投入市場化之后產生倫理方面的巨大爭議,面臨巨大法律風險,被直接叫停,帶來的不利影響會比人工智能倫理審查帶來的影響要更大,從長期來看,加強倫理審查有利于人工智能企業的可持續健康發展。”

關鍵詞:

熱門推薦