大模型持續更新
1.1 百川智能發布最新一代基座大模型 Baichuan 4
5 月 22 日,歷時4個月打磨,百川智能發布最新一代基座大模型 Baichuan 4,并推出成立之后的首款AI助手“百小應”。
相較于前代Baichuan 3,迭代后的Baichuan 4在各項能力上均有極大提升,其中通用能力提升超過10%,數學和代碼能力分別提升14%和9%,在國內權威大模型評測機構SuperCLUE的評測中,模型能力國內第一。
此外,官方表示,Baichuan 4還具備行業領先的多模態能力,即文本和圖像等多種元素對齊、交互的能力,并在各大評測基準上表現優異,領先Gemini Pro、Claude3-sonnet等多模態模型。
在Baichuan4的基礎上,百川智能將搜索技術與大模型深度融合,推出懂搜索、會提問的AI助手“百小應”。百小應不僅可以隨時回答用戶提出的各種問題,速讀文件、整理資料、輔助創作等,還具備多輪搜索、定向搜索等搜索能力,能更精準地理解用戶需求,為用戶提供專業、豐富的知識和資源,還會在用戶問題的基礎上通過一系列提問來幫助用戶明確自身需求,給出更精準的答案。
百川智能還宣布開放Baichuan4、Baichuan3-Turbo、Baichuan3-Turbo-128k、AssistantAPI四款API,所有開發者、企業用戶均可登錄百川智能開發者中心選擇并接入相應API,便捷高效地體驗百川智能新一代模型的強大能力。
1.2 微軟新開源Phi-3系列三個模型
5 月 22 日凌晨,微軟 Build 2024 開發者大會在美國西雅圖召開,發布了有關 AI 技術,更有關 AI 帶來的新工具。
小模型 Phi-3 家族上新!
先前,微軟已發布Phi-3 mini版本,支持4k、128k上下文,能夠在手機上運行,同時保持與大型模型如Mixtral 8x7B和GPT-3.5相媲美的性能。
這次發布會上,微軟新開源Phi-3系列的三個模型:多模態Phi-3 Vision 4.2B、兩個語言模型 Phi-3 Small 7B 和 Phi-3 Medium 14B。
Phi-3 Vision 4.2B 是Phi-3家族中的第一個多模態模型,結合了文本和圖像視覺功能,以及對現實世界圖像進行推理和從圖像中提取文本并進行推理的能力。同時還針對圖表和圖解的理解進行了優化,可用于生成數據洞見和回答問題具有圖像理解能力。Phi-3 Vision 4.2B 在benchmark數據集上性能超過 Claude-3 Haiku 和 Gemini 1.0 Pro V。
Phi-3 Small 7B 支持跨操作系統及云邊端運行,在性能上與 Mixtral 8x22B 和Llama 3 70B 相當,目前優于Command R+ 104B和GPT 3.5。
Phi-3 Medium 14B 支持跨操作系統及云邊端運行,性能上超越了 Mistral 7B 和 Llama 3 8B。
1.3 面壁智能發布MMiniCPM-Llama3-V 2.5,成為全球最強端側多模態模型!
5 月 20 日,面壁智能推出了最強端側多模態開源模型 MiniCPM-Llama3-V 2.5。僅用8B參數,擊敗了OpenAI的 GPT-4V 和谷歌的 Gemini Pro,而且,其 OCR 長難圖識別刷新SOTA,圖像編碼速度暴漲150倍,成為全球最強端側多模態模型!