盡管一路上有一些失望和驚喜,但很明顯,人工智能的發(fā)展總體上給我們留下了積極的印象。我之所以這么說,是因為我們中的許多人越來越多地將各種模型融入到我們的日常生活中。
話雖如此,我們總是想要更多,這是事實——這只是人性。考慮到這一點,讓我們來探討一些挑戰(zhàn)和趨勢,我相信大型科技公司已經在著手解決這些問題。
讓我澄清一下:我并不是想預測未來——這根本不是我的目標。相反,我想強調您可能已經注意到的領域,就像我一樣,人工智能仍有發(fā)展空間。
1)一切都與人工智能代理有關
近幾個月來,人們對更好地了解這項技術的興趣日益濃厚。但在深入研究之前,讓我們先解決一個簡單的問題:什么是人工智能代理?
這些是能夠推理、規(guī)劃和采取行動的智能系統(tǒng)。本質上,AI 代理可以分解復雜問題、制定多步驟計劃并與工具和數(shù)據(jù)庫交互以實現(xiàn)特定目標。因此,大多數(shù)人都認同性能良好的 AI 代理的價值。
然而,挑戰(zhàn)在于,當前的模型往往難以進行邏輯和一致的推理。它們通常擅長執(zhí)行簡單的計劃,但當涉及到處理具有多個變量的復雜場景時,它們往往會失去焦點并做出并不總是合理的決策。
人工智能代理有望根據(jù)我們提供的上下文或輸入提供更具體、更個性化的響應。最大的障礙之一是在這些代理的自主性與它們產生的響應質量之間找到適當?shù)钠胶狻?/p>
為了彌補這一差距,我們在 2025 年需要更先進的模型。
2)重新思考人機交互人工智能系統(tǒng)
您可能聽說過一項研究,其中聊天機器人在臨床推理方面的表現(xiàn)優(yōu)于醫(yī)生。在這項研究中,50 名醫(yī)生被要求根據(jù)病例報告診斷病情。同樣的信息被提供給聊天機器人,最終聊天機器人的得分高于醫(yī)生。
更令人著迷的是,在研究期間,一些醫(yī)生被隨機分配使用聊天機器人作為助手。令人驚訝的是,這組醫(yī)生(與聊天機器人一起工作的醫(yī)生)的得分低于單獨工作的聊天機器人。這表明人工智能系統(tǒng)和人類增強過程都出現(xiàn)了故障。理想情況下,專家與有效的人工智能系統(tǒng)相結合的表現(xiàn)應該比單獨使用任何一種系統(tǒng)都要好。
部署 LLM 驅動的聊天機器人并非易事。它需要設計正確的提示,這意味著你需要以正確的方式提出要求。為了解決這個問題,我們需要更好的系統(tǒng),使專業(yè)人士能夠將 AI 工具無縫地整合到他們的工作流程中——而無需自己成為 AI 專家。
3)超大型人工智能模型的興起
大型語言模型由大量參數(shù)構建而成,這些參數(shù)在訓練過程中經過微調。我們在 2024 年看到的模型通常包含 1 到 2 萬億個參數(shù)。展望未來,下一代模型預計將更大,可能超過 50 萬億個參數(shù)。
隨著 2024 年接近尾聲,我們看到 ChatGPT 推出了 Gemini 2.0 和 o3 等產品,這表明了這些發(fā)展的方向。毫無疑問,這些更先進的模型也為隨之而來的全新商業(yè)機會鋪平了道路。
4)緊湊型人工智能模型的潛力
雖然我們談到了大型模型的興起,但小型模型也擁有越來越多的機會。這些模型只有幾十億個參數(shù)(聽起來可能還是很多),不需要裝載大量 GPU 的大型數(shù)據(jù)中心來運行。相反,它們可以在筆記本電腦甚至智能手機上運行。
以IBM的Granite 3模型為例,它只有20億個參數(shù),可以在筆記本電腦上運行,且不需要強大的計算能力。
展望未來,我們可能會看到更多這種規(guī)模的模型,它們專為特定任務而設計,無需耗費大量資源就能提供高效的解決方案。
5)人工智能中接近無限記憶的路徑
我還記得第一次使用生成式人工智能幫我寫電子郵件的情景。當時,法學碩士的上下文窗口只有 2,000 個標記。如今的模型可以處理數(shù)十萬甚至數(shù)百萬個標記的上下文,目標是達到近乎無限的內存——機器人可以隨時保留他們所知道的關于我們的一切。
我們即將迎來一個客戶服務聊天機器人將記住與我們進行的每一次對話的時代。乍一看,這似乎是一個積極的發(fā)展——但事實真是如此嗎?
6)不斷發(fā)展的人工智能應用
您知道 2024 年 AI 最常見的商業(yè)用例是什么嗎?
根據(jù)哈里斯的一項調查,人工智能主要用于增強客戶體驗、改善 IT 運營和自動化、增強虛擬助手以及加強網(wǎng)絡安全。
隨著我們進入 2025 年,我們可以期待看到更多高級用例。隨著多模式功能日益復雜,客戶服務機器人可能會處理更復雜的問題,而不僅僅是生成支持單。我們還可能看到主動優(yōu)化整個 IT 網(wǎng)絡的 AI 系統(tǒng)或實時適應不斷變化的威脅的安全工具。
7)推理時間的作用
在推理過程中,模型會處理實時數(shù)據(jù),將用戶的查詢與訓練期間學到的信息進行比較。在此過程中,新的 AI 模型正在擴展其推理能力,本質上需要一些時間進行“思考”才能生成響應。這需要多長時間取決于所需推理的復雜性。一個簡單的查詢可能只需要一兩秒鐘,但更復雜或更大規(guī)模的請求可能需要幾分鐘。
推理時間計算如此引人注目的原因在于,推理可以進行微調和改進,而無需重新訓練或修改底層模型。這為 LLM 中的推理提供了兩個關鍵機會:在訓練期間(通過使用更高質量的數(shù)據(jù))以及在推理期間(通過改進思路鏈過程)。