在低功耗設備上例如智能手機和平板電腦上也可以運行,
微軟研究院日前推出了輕量級人工智能模型 Microsoft Phi 的第三個迭代版本,
我們還提供了一些針對 4.8 萬億個 tokens 訓練的 7B 和 14B 模型的初始參數縮放結果,Phi 係列模型的側重點是輕量級,這是一個在 3.3 萬億個 tokens 上訓練的 3.8B 參數人工智能模型,
根據微軟自己的基準測試,
論文地址:https://arxiv.org/abs/2404.14219
因此 Phi-3 Mini 等模型非常適合集成到一些需要人工智能參與的新穎應用中。名稱分別是 Mini、並且在實際使用過程中不會消耗太多的資源。例如 phi-3-mini 在 MMLU 測試中達到了 69%,MT-bench 為 8.7;Medium 版 MMLU 為 78%、僅有 3.8B 參數的 Phi-3 Mini 版在性能上表現優於 Meta 8B 參數的 Llama 和 OPENAI 3.5B 參數的 GPT-3。其使用的資源要比同等規模的人工智能模型少得多,
其中 Small 版的 MMLU 為 75%、MT-bench 為 8.9。新版本也就是 Phi-3 分成 3.8B、這兩個版本能力都要比 Mini 版更好。最重要的是這個模型足夠小,因此可以在智能手機等設備上本地運行。
與其他人工智能模型不同的是,可以直接部署在手機上。它無法與互聯網上訓練的大規模 AI 模型的知識廣度相匹配,即 phi-3-small 和 phi-3-medium,從學術基準和內部測試來看,
微軟對 Phi-3 係列模型進行了優化,
當然微軟也強調 Phi-3 模型的訓練數據集有限,7B 和 14B 參數版本,Small 和 Medium。但微軟也指出較小的高質量模型往往表現更好。在 MT-bench 上達到了 8.38,

微軟研究院在論文中表示:
我們引入了 phi-3-mini,
這意味著新模型能夠直接在智能手機上進行高級自然語言處理而不需要實時聯網進行計算,其整體性能可與 Mixtral 8x7B 和 OPENAI GPT-3.5 等模型媲美。



