7 月 23 日消息,Meta 今晚正式發布 Llama 3.1 開源大語言模型,提供 8B、70B 及 405B 參數版本。
據介紹,Llama 3.1 系列改進了推理能力及多語言支持,上下文長度提升至 128K,首次推出 405B 參數的旗艦模型。
Meta 稱 4050 億參數的 Llama 3.1-405B 在常識、可引導性、數學、工具使用和多語言翻譯等一系列任務中,可與 GPT-4、GPT-4o、Claude 3.5 Sonnet 等領先的閉源模型相媲美。
此外,8B 與 70B 參數的 Llama 3.1 模型與其他參數量相似的閉源和開源模型相比,也同樣具有競爭力。
注:Llama 3.1 現已于 Meta 官網和 Hugging Face 開放下載,包括 AWS、英偉達、戴爾、Azure 和 Google Cloud 在內的超過 25 個合作伙伴也已經準備就緒。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。