2019年,李飛飛教授與哲學家約翰·埃切門迪共同成立了斯坦福大學以人為本人工智能研究院(HAI),旨在推動人工智能技術的發展,同時確保這些強大的工具能夠服務于提升人類福祉,而非僅僅追求生產力的提高。
作為現代人工智能領域的奠基人之一,李飛飛從更加人文的視角看待如今的技術發展,她說:“現在有很多噪音,有很多夸張的論述,但這是技術發展的一個必經階段。在這個以人工智能為驅動的時代,以人為本的理念比以往任何時候都更為重要。”
本文經授權摘編整理自《我看見的世界》。
《我看見的世界:李飛飛自傳》,作者: [美] 李飛飛,譯者:趙燦,版本:中信出版社 2024年4月
人工智能帶來社會危機
2015 年 5 月,雅虎圖片托管服務 Flickr 在描述 56 歲黑人男子威廉的肖像時,自動生成了一個標簽“猿”。
雅虎的新技術立刻引發了各方強烈憤慨。此后,這項技術接二連三出現失誤:將達豪集中營大門的照片標記為攀爬架,把一位臉上涂有彩色粉末的白人婦女貼上了“猿”的標簽。雅虎 Flickr 已經麻煩纏身。不僅是雅虎,谷歌也陷入了類似的爭議,谷歌照片服務也將兩個黑人青少年錯誤地標記為“大猩猩”。
圖像分類本已是老生常談的成功技術,卻在短短幾周內變得非常復雜。
雖然事故并非惡意,但這并不能讓人感到寬慰。相反,無心之失所揭示的問題才更加令人不安:包括 ImageNet 在內的數據集由于缺乏多樣性,導致了一系列意料之外的結果;未經充分測試的算法和存疑的決策又進一步加劇了負面影響。當互聯網呈現的是以白人、西方人和男性為主的日常生活畫面時我們的技術就很難理解其他人群了。
有果必有因,正如記者兼評論員杰克·克拉克(Jack Clark) 所言,問題的根源在于人工智能“男性之海”問題:科技行業的代表性不足,導致算法無意中帶有偏見,在非白人、非男性用戶身上表現不佳。這篇文章于 2016 年發表在彭博社網站上,是對人工智能倫理問題的最早一批討論之一。
從代表性問題的出現,到問題被大眾真切地感受到,中間往往需要幾年的時間。
李飛飛和她的同僚們決定,向九年級和十年級的女生開放為期兩周的斯坦福大學人工智能實驗室課程。讓每個一直被歷史排除在外的參與者相信,她們同樣屬于這個時代、這個領域。
李飛飛,1976年出生于中國北京,美國國家工程院院士、美國國家醫學院院士、美國藝術與科學院院士,美國斯坦福大學首位紅杉講席教授,以人為本人工智能研究院(HAI)院長,研究領域主要為計算機視覺、認知神經科學、計算神經科學和大數據分析。
邀請少數人群參加人工智能課程的想法非常受歡迎,這個項目很快就像滾雪球一樣發展成為全國性的非營利組織,遍布北美各地校園,使命范圍也不斷擴大。這個項目開始向有色人種學生和經濟困難學生開放。
在短短幾年后,這個項目就正式命名為 AI4ALL,甚至吸引了一些資金,梅琳達·弗倫奇·蓋茨(Melinda French Gates) 的 Pivotal Ventures 創投公司和英偉達創始人黃仁勛提供了一輪融資,讓項目改頭換面。
這個旅程可能需要幾代人才能完成,現在只是邁出了一小步,但實現了從無到有的跨越。在業界追逐人工智能未來時,往往肆意而為,缺乏自省,而 AI4ALL的努力能夠保證,至少有一小部分人在逆向而行。
在風暴中心
2022 年底,ChatGPT 的公開發布席卷了世界,隨后出現了更多生成式人工智能工具。
從最初只能執行簡單的任務到如今具備類似人類的能力,短短幾年的時間,人工智能的發展速度令人咋舌,與此同時,對其潛在風險的擔憂也日益增加。
事實上,人工智能存在的偏見問題直到現在依然沒有被很好地解決。2023年底,《華盛頓郵報》發表了一篇詳盡的專題報道,深入探討了機器學習技術中潛在的偏見。當前的 AI 圖像生成模型,如 Dall-E 和 Stable Diffusion,有時仍會反映出社會的刻板印象。例如,在生成“具有創造力的人”的圖像時,這些系統往往傾向于呈現白人形象;而在描繪“社會服務人員”時,則多數情況下展示的是有色人種的形象。
美劇《西部世界》劇照。
其實,大型語言模型,即使是多模態的大型語言模型,可能也并不具備真正意義上的“思考”能力。大型語言模型很容易出現荒謬的概念性失誤,也樂于編造聽起來合理但實際上毫無意義的胡言亂語。
了解這些事實有助于我們避免過分迷戀模型的能力。然而,隨著大型語言模型生成的文本、圖像、語音和視頻越來越復雜,真與假之間的界限愈加模糊。越來越多的評論家開始質疑,為我們敲響警鐘:作為個人、機構,甚至社會,我們究竟有沒有能力區分真實和虛構?
當人們意識到這一切還只是 1.0 版本時,這種發問尤其令人警醒。
我們仍身處一場全球風暴之中。每天似乎都有新的頭條新聞報道自動化對全球勞動者構成的威脅。隨著人工智能在監控領域的應用日趨成熟,記者和人權活動家的擔憂與日俱增,對隱私和個人尊嚴對隱私的古老威脅也在現代社會出現,相關報道使公眾對人工智能形成了負面看法,這在整個科技領域都是非常罕見的。
科技不斷發展,算法語言表達的高級程度已逼近人類水平。機器人正在逐漸學會應對真實的環境。視覺模型不僅可以通過照片進行訓練,還可以在全三維世界中進行沉浸式實時訓練。人工智能能夠像識別內容一樣流暢地生成內容。與此同時,倫理問題在我們周圍不斷涌現,與人類經濟社會發展的關聯也日益緊密,但這就是科學一直以來的樣子。
重估人工智能
從 ImageNet 時代開始,規模的重要性就已經顯而易見。但近年來,“越大越好”的觀點幾乎被賦予了宗教般的意義,關于“大數據”的討論永無休止,不斷強化著這樣的觀點:規模是神奇催化劑,是機器中的幽靈,可以將人工智能的舊時代與令人窒息的夢幻未來區分開來。
沒有人能否認,神經網絡確實在這個資源豐富的時代蓬勃發展:驚人的數據量、大規模分層架構和大量互聯的硅片確實帶來了歷史性變化。
美劇《西部世界》第三季劇照。
人工智能正在成為一種特權,一種排他性極強的特權。越來越多的學者、政策制定者認為,使用人工智能模型的高昂成本正在將研究人員排除在該領域之外,從而損害了對這一新興技術的獨立研究。這種權力的轉移正在悄然改變人工智能領域的格局,促使研究人員將他們的研究成果更多地應用于商業領域。
學術界早就意識到人工智能可能會帶來負面沖擊,比如缺乏透明度、容易受到偏見和對抗性影響等等。然而,由于研究規模有限,風險一直只存在于理論層面。市值接近萬億美元的公司已經掌握了主導權,潛在風險的發展步伐也急劇加快。無論是否準備就緒,這些問題都需要以商業速度加以解決。
每個問題單獨來看都令人擔憂,但它們共同指向了一個未來,其特點是監督減少、不平等加劇,如果處理不當,甚至可能導致迫在眉睫的數字獨裁主義問題。
硅谷的傲慢態度向來為外界所詬病。在人工智能時代,盡管我們對潛在風險的認知不斷加深,企業的夸夸其談也上升到了新的高度,企業高管們承諾將在不久后推出自動駕駛汽車,設計出高超精湛的腫瘤檢測算法,實現工廠的端到端自動化。至于被先進技術取代了工作的人(出租車司機、長途卡車司機、裝配線工人甚至放射科醫生)的命運,商業領域的態度似乎介于半心半意的“再培訓”和幾乎不加掩飾的漠不關心之間。
無論首席執行官和自詡為未來學家的人的言論如何徹底脫離公眾,技術的日益普及都會進一步加劇人們對人工智能的恐懼。在這個時代,里程碑接二連三地出現,最可怕的情景正在逼近。有偏見的人工智能被廣泛應用于處理貸款申請,甚至協助法官做出假釋決定等方面。類似的報道還顯示,在某些招聘中,求職者會先經過人工智能技術的篩選,然后才有真人面試官進行面試,此類做法往往會在無意中造成歧視性影響。
如今的人工智能是如此宏偉,如此強大,如此反復無常,既能輕易激發靈感, 也很容易摧毀一切。要讓人工智能值得信任,需要的遠不止商業公司空洞的陳詞濫調。
美劇《西部世界》第三季劇照。
人工智能的未來
我們曾經將人工智能視作純粹的科學,而現在,我們更愿意用:“現象”“顛覆”“謎題”“特權”“自然之力”來定義新一代人工智能所能做的一切,無論是好是壞,無論是在預期之內,還是在意料之外,都因其設計本身缺乏透明度而變得復雜。
如果在算法設計完成后,再加入安全性和透明度等考慮因素,無論設計得多么精妙,都不足以滿足要求。下一代人工智能必須從開發之初就采取與現在完全不同的理念。以激情為起點固然很好,但我們要面對的是紛繁復雜而又不起眼的挑戰,要取得真正的進展,就必須有敬畏之心。而硅谷似乎缺乏這種心態。
如今,人工智能是一種責任,是我們所有人共同承擔的責任。
深度學習飛速發展,每一年都感覺像是要面對一個全新的領域,其應用的深度和多樣性增長得如此之快,甚至全職研究生和博士后也很難跟上文獻的步伐,更不用說教授們了。可能性無窮無盡,挑戰也永無止境。
即使在這樣一個黑暗的時代,人工智能也具有無與倫比的激勵力量。面對全球亟待解決的 問題,面對具有歷史意義的機遇,面對可能需要幾代人的努力才能揭開謎底的未知,真正解決所有問題的答案遠遠不是公司戰略或學術課程所能提供的。未來幾年,從業者需要的不僅是專業技術知識,他們還必須了解哲學、倫理學,甚至法律。
想象空間是巨大的,但愿景需要一個重要的紐帶串聯起來,這個紐帶就是大學。早在有人利用人工智能謀取利益之前,人工智能就已經在大學里起步了。在大學校園里,仍然最有可能感受到某些意想不到的研究突破帶來的火花。感知機、神經網絡、ImageNet,以及后來的很多東西都出自大學。
要從根本上重新構想人工智能,使其成為以人為本的實踐,與其說這是旅程方向的改變,不如說是旅程范圍的擴展。人工智能一直以來都追求科學性,而現在,它必須也追求人性。人工智能應該秉承最優秀的學術傳統,保持合作和敬畏,同時不懼怕直面現實世界。畢竟,星光是多樣的。一旦白色的光輝展開,各種顏色就會發出耀眼奪目的光芒。