核心提示:在科幻電影《銀翼殺手》中,一群與人類具有完全相同智能和感覺的仿生人冒險劫持太空飛船回到地球,人類主人公在追殺一位仿生人
在科幻電影《銀翼殺手》中,一群與人類具有完全相同智能和感覺的“仿生人”冒險劫持太空飛船回到地球,人類主人公在追殺一位“仿生人”途中卻愛上了她,最后帶著她走向逃亡之路。
隨著時間的推移,人類似乎正在走向科幻影視里那個“技術奇點”。曾經設想的種種人機關系、道德困境、倫理思辨、哲學難題,在不久的將來都可能一一上演。
2016年,谷歌人工智能程序“阿爾法狗”戰勝世界圍棋冠軍李世石,這場“人機大戰”被視為人工智能發展史上的里程碑。悲觀者認為,AI取代人腦將是必然趨勢。
在人工智能全面融入社會生活的當下,加強人工智能科技倫理治理,找到“人機共處”之道,是一個十分現實的問題。10日下午,世界互聯網大會烏鎮峰會舉辦人工智能與數字倫理分論壇,正是在這一背景下對數字倫理問題進行前瞻性探討。
2022年世界互聯網大會烏鎮峰會——人工智能與數字倫理分論壇。圖源:中國網
汽車為人帶來出行的便利,但它排出尾氣。萬物智能時代,人們每時每刻都會留下大量的“數字尾氣”,面部信息、指紋信息、定位信息、語音信息乃至用戶偏好等數據,會被永久或半永久保留下來,并加以索引、恢復、搜索和分析。
人工智能的發展極大提升了數據處理能力,為我們的生活提供了許多便利,數據價值在日益凸顯。但與此同時,被互聯網記錄和存儲的個人信息,相對更容易被泄露和傳播。保護用戶隱私,保障用戶知情權、選擇權,成為社會各界的重要關切。
比如,大數據成為商業平臺“讀心”的工具。只是因為你在茫茫信息流中多看了一眼,就可能被瘋狂推送“猜你喜歡”,連廣告推銷都能精準到人,許多人對此深有體會。當我們感嘆大數據如此“貼心”的同時,是否也有一種被“偷窺”的不適感。
比如,大數據被用于操控輿論走向。2018年,特朗普聘用的一家政治AI公司,被曝非法將大約5000萬Facebook用戶的信息用于大數據分析,從而精準刻畫這些Facebook用戶的心理特征,并向他們推送定制廣告,甚至假新聞。扎克伯格因為這場可能影響大選結果的大規模數據泄露事件,遭到國會詢問。這再一次讓人們意識到,科技公司很可能將數據作為牟利的原材料,而非需要保護的個人資產。
事實上,數據流通與隱私保護,從來不是“魚和熊掌”的關系。如何找到二者的平衡點,讓大數據既能更好服務公眾,又能防止侵犯個人隱私,全世界都在尋找破題之道。
隱私計算就是為了解決這一問題而誕生的新技術。通過把大數據放進“盲盒”進行分析,將信息的所有權、管理權和使用權分離,從而充分保護數據和隱私安全,達到對數據“可用而不可見”的目的。
我們看到,近年來,加強數據安全管理成為各國立法的重點。歐盟頒布了“史上最嚴”數據保護法案《通用數據保護條例》,我國出臺了《網絡安全法》《數據安全法》《個人信息保護法》等法律,數據安全的籬笆正在被逐步扎緊。
對于人工智能來說,數據是石油,算法則是引擎。沒有算法,就沒法使用大數據。
人工智能遇到的倫理問題,將越來越多地體現在算法無法解決的“兩難困境”中。
比如,“電車難題”出現了新的表現形式:
行人橫穿馬路,剎車來不及。如果不轉向,會撞死行人;如果轉向,乘客會死于翻車。自動駕駛汽車應該作何選擇?即使人工智能作出一萬個正確的決策,它是否應當為一次致命失誤而負責?
必須看到,算法絕非不帶有任何價值判斷。當我們越來越依賴于算法決策、算法推薦、算法預測,就應更加警惕其背后的倫理問題。
比如,“AI老板”的變相壓榨。今年8月,Facebook母公司Meta宣布使用算法解雇了60名合同工。裁員郵件未表明具體原因,只說這是算法評估的結果。這并非個例,亞馬遜很早就將人工智能運用于倉庫員工的管理中,通過人工智能自動化地跟蹤員工工作狀態,一旦發現倉庫員工長時間沒有接觸包裹或者處理速度變慢,就會記錄員工效率過低,甚至對多次不達標的員工“一鍵裁員”。
比如,算法歧視和區別對待問題。在社交網站擁有較多粉絲的“大V”,在客服人員處理其投訴時往往被快速識別,并因此得到更好的響應。算法越來越多地進行“大數據殺熟”,消費頻率高的老顧客,在網上所看產品和服務的定價,反而要高于消費頻率低或從未消費過的新顧客。
此外,安全可信問題也需要引起重視。在人工智能與數字倫理論壇上,一位業內人士指出,新一代人工智能是數據驅動的,是機器的自我學習,這就可能帶來系統的不夠魯棒、不可解釋、不夠可靠等問題。特別在諸如醫療、制造、金融等與社會生活息息相關的領域,機器學習模型作出錯誤預測的后果往往是難以接受的。
清華大學人工智能研究院名譽院長、中國科學院院士張鈸表示,人工智能的發展必然帶來對倫理和傳統規范的沖擊。人們可以惡意地利用算法的脆弱性,對算法進行攻擊,導致基于該算法的人工智能系統失效,甚至做出相反的破壞行為。深度學習還可以用來造假,通過人工智能的深度造假,可以制造出大量逼真的假新聞、假視頻、假演說等,擾亂社會秩序,誣陷無辜的人。
鑒于以上問題的存在,我們迫切需要新的數字治理方案。
去年,我國通過了《關于加強互聯網信息服務算法綜合治理的指導意見》,要求在三年內逐步建立治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局。這為維護社會公平公正和網民合法權益帶來了有力保障,算法的合理應用、人工智能的健康發展也是如此。
就像兩只腳走路,總有一前一后。科技創新與倫理規則的制定,不可能齊頭并進,但兩者都不能放慢腳步。
雖然我們無法預想未來的賽博世界有多么遼闊,但我們當下能做的,是在人工智能這片“新疆土”自由馳騁時,不忘套上法律法規和倫理道德的韁繩。
習近平總書記指出:“面對各國對數據安全、數字鴻溝、個人隱私、道德倫理等方面的關切,我們要秉持以人為中心、基于事實的政策導向,鼓勵創新,建立互信,支持聯合國就此發揮領導作用,攜手打造開放、公平、公正、非歧視的數字發展環境。”
增進人類福祉,是人工智能技術發展的根本依歸。正因如此,公平公正、向上向善等人類社會的基本價值取向,仍然是人工智能必須堅守的原則。比如,最基本要求是安全可控;最終目標是服務于人而非超越人、取代人;終極理想是為人類帶來更多自由和可能。
在政府層面,怎樣在法律法規、管理服務上加快破題,動態平衡科技創新發展和社會公平正義;在企業層面,怎樣避免技術濫用、不當采集用戶數據,以正向社會價值創造為目標;對我們每個人來說,怎樣成為數字化時代的主人,而不是被數字和算法驅使?
筆者注意到,在論壇上,張鈸院士認為,人工智能的研究和治理都需要全世界不同領域的人員參與和合作,除從事人工智能的研發和使用人員之外,還需要法律、道德、倫理等不同領域人員的參與,我們需要明晰倫理道德的標準,什么是符合道德和倫理的?不同國家、民族團體和個人都有不盡相同的認識,因此需要全球范圍的合作,共同制定出一套符合全人類利益的標準。
在一次次思維的碰撞和實踐的探索中,人類一定能找到“駕馭”人工智能的方法,讓AI成為人腦的有益補充,讓科技更好賦能人的美好生活。
隨著時間的推移,人類似乎正在走向科幻影視里那個“技術奇點”。曾經設想的種種人機關系、道德困境、倫理思辨、哲學難題,在不久的將來都可能一一上演。
2016年,谷歌人工智能程序“阿爾法狗”戰勝世界圍棋冠軍李世石,這場“人機大戰”被視為人工智能發展史上的里程碑。悲觀者認為,AI取代人腦將是必然趨勢。
在人工智能全面融入社會生活的當下,加強人工智能科技倫理治理,找到“人機共處”之道,是一個十分現實的問題。10日下午,世界互聯網大會烏鎮峰會舉辦人工智能與數字倫理分論壇,正是在這一背景下對數字倫理問題進行前瞻性探討。
2022年世界互聯網大會烏鎮峰會——人工智能與數字倫理分論壇。圖源:中國網
汽車為人帶來出行的便利,但它排出尾氣。萬物智能時代,人們每時每刻都會留下大量的“數字尾氣”,面部信息、指紋信息、定位信息、語音信息乃至用戶偏好等數據,會被永久或半永久保留下來,并加以索引、恢復、搜索和分析。
人工智能的發展極大提升了數據處理能力,為我們的生活提供了許多便利,數據價值在日益凸顯。但與此同時,被互聯網記錄和存儲的個人信息,相對更容易被泄露和傳播。保護用戶隱私,保障用戶知情權、選擇權,成為社會各界的重要關切。
比如,大數據成為商業平臺“讀心”的工具。只是因為你在茫茫信息流中多看了一眼,就可能被瘋狂推送“猜你喜歡”,連廣告推銷都能精準到人,許多人對此深有體會。當我們感嘆大數據如此“貼心”的同時,是否也有一種被“偷窺”的不適感。
比如,大數據被用于操控輿論走向。2018年,特朗普聘用的一家政治AI公司,被曝非法將大約5000萬Facebook用戶的信息用于大數據分析,從而精準刻畫這些Facebook用戶的心理特征,并向他們推送定制廣告,甚至假新聞。扎克伯格因為這場可能影響大選結果的大規模數據泄露事件,遭到國會詢問。這再一次讓人們意識到,科技公司很可能將數據作為牟利的原材料,而非需要保護的個人資產。
事實上,數據流通與隱私保護,從來不是“魚和熊掌”的關系。如何找到二者的平衡點,讓大數據既能更好服務公眾,又能防止侵犯個人隱私,全世界都在尋找破題之道。
隱私計算就是為了解決這一問題而誕生的新技術。通過把大數據放進“盲盒”進行分析,將信息的所有權、管理權和使用權分離,從而充分保護數據和隱私安全,達到對數據“可用而不可見”的目的。
我們看到,近年來,加強數據安全管理成為各國立法的重點。歐盟頒布了“史上最嚴”數據保護法案《通用數據保護條例》,我國出臺了《網絡安全法》《數據安全法》《個人信息保護法》等法律,數據安全的籬笆正在被逐步扎緊。
2021年6月10日,十三屆全國人大常委會第二十九次會議通過了數據安全法。圖源:新華社
對于人工智能來說,數據是石油,算法則是引擎。沒有算法,就沒法使用大數據。
人工智能遇到的倫理問題,將越來越多地體現在算法無法解決的“兩難困境”中。
比如,“電車難題”出現了新的表現形式:
行人橫穿馬路,剎車來不及。如果不轉向,會撞死行人;如果轉向,乘客會死于翻車。自動駕駛汽車應該作何選擇?即使人工智能作出一萬個正確的決策,它是否應當為一次致命失誤而負責?
必須看到,算法絕非不帶有任何價值判斷。當我們越來越依賴于算法決策、算法推薦、算法預測,就應更加警惕其背后的倫理問題。
比如,“AI老板”的變相壓榨。今年8月,Facebook母公司Meta宣布使用算法解雇了60名合同工。裁員郵件未表明具體原因,只說這是算法評估的結果。這并非個例,亞馬遜很早就將人工智能運用于倉庫員工的管理中,通過人工智能自動化地跟蹤員工工作狀態,一旦發現倉庫員工長時間沒有接觸包裹或者處理速度變慢,就會記錄員工效率過低,甚至對多次不達標的員工“一鍵裁員”。
比如,算法歧視和區別對待問題。在社交網站擁有較多粉絲的“大V”,在客服人員處理其投訴時往往被快速識別,并因此得到更好的響應。算法越來越多地進行“大數據殺熟”,消費頻率高的老顧客,在網上所看產品和服務的定價,反而要高于消費頻率低或從未消費過的新顧客。
此外,安全可信問題也需要引起重視。在人工智能與數字倫理論壇上,一位業內人士指出,新一代人工智能是數據驅動的,是機器的自我學習,這就可能帶來系統的不夠魯棒、不可解釋、不夠可靠等問題。特別在諸如醫療、制造、金融等與社會生活息息相關的領域,機器學習模型作出錯誤預測的后果往往是難以接受的。
清華大學人工智能研究院名譽院長、中國科學院院士張鈸表示,人工智能的發展必然帶來對倫理和傳統規范的沖擊。人們可以惡意地利用算法的脆弱性,對算法進行攻擊,導致基于該算法的人工智能系統失效,甚至做出相反的破壞行為。深度學習還可以用來造假,通過人工智能的深度造假,可以制造出大量逼真的假新聞、假視頻、假演說等,擾亂社會秩序,誣陷無辜的人。
鑒于以上問題的存在,我們迫切需要新的數字治理方案。
去年,我國通過了《關于加強互聯網信息服務算法綜合治理的指導意見》,要求在三年內逐步建立治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局。這為維護社會公平公正和網民合法權益帶來了有力保障,算法的合理應用、人工智能的健康發展也是如此。
就像兩只腳走路,總有一前一后。科技創新與倫理規則的制定,不可能齊頭并進,但兩者都不能放慢腳步。
雖然我們無法預想未來的賽博世界有多么遼闊,但我們當下能做的,是在人工智能這片“新疆土”自由馳騁時,不忘套上法律法規和倫理道德的韁繩。
習近平總書記指出:“面對各國對數據安全、數字鴻溝、個人隱私、道德倫理等方面的關切,我們要秉持以人為中心、基于事實的政策導向,鼓勵創新,建立互信,支持聯合國就此發揮領導作用,攜手打造開放、公平、公正、非歧視的數字發展環境。”
2022年世界互聯網大會“互聯網之光”博覽會會場
增進人類福祉,是人工智能技術發展的根本依歸。正因如此,公平公正、向上向善等人類社會的基本價值取向,仍然是人工智能必須堅守的原則。比如,最基本要求是安全可控;最終目標是服務于人而非超越人、取代人;終極理想是為人類帶來更多自由和可能。
在政府層面,怎樣在法律法規、管理服務上加快破題,動態平衡科技創新發展和社會公平正義;在企業層面,怎樣避免技術濫用、不當采集用戶數據,以正向社會價值創造為目標;對我們每個人來說,怎樣成為數字化時代的主人,而不是被數字和算法驅使?
筆者注意到,在論壇上,張鈸院士認為,人工智能的研究和治理都需要全世界不同領域的人員參與和合作,除從事人工智能的研發和使用人員之外,還需要法律、道德、倫理等不同領域人員的參與,我們需要明晰倫理道德的標準,什么是符合道德和倫理的?不同國家、民族團體和個人都有不盡相同的認識,因此需要全球范圍的合作,共同制定出一套符合全人類利益的標準。
在一次次思維的碰撞和實踐的探索中,人類一定能找到“駕馭”人工智能的方法,讓AI成為人腦的有益補充,讓科技更好賦能人的美好生活。