【 2023 年 7 月 19 日】最近在人工智慧( AI )領域,尤其在生成式 AI 的突破性發展引起大眾無限的想像。許多開發者早已預見 AI 的潛力將可幫助大家實現各種可能,開創經濟與社會機會的新時代,並提供個人、創作者與企業以全新的方式展現自己並創造連結。
- Meta 今日發布 Llama 2,新一代的開源大型語言模型。
- Llama 2 將免費提供研究與商業使用。Meta 與微軟持續拓展長期合作夥伴關係,微軟為 Meta 在 Llama 2 商用化的特選合作夥伴。
- Meta 與在科技界、學術界、政策領域中眾多公司與專業人士,共同相信以開放的態度在 Al 科技上創新,並共同支持 Meta 開放 Llama 2。
- Meta 承諾負責任地構建 Llama 2 ,並提供資源幫助使用 Llama 2 的開發者落實相同承諾。
Meta 相信對現今正在發展中的 AI 模型而言,開放的態度是最正確的選擇,特別是正在快速進化的生成式技術。透過開放 AI 模型,可以造福大眾。Meta 期待幫助大家開啟新的機會,為企業、新創公司、創業者與研究人員提供過去可能因無法獲取的運算能力而難以自行構建的規模,將讓大家以備受期待的方式實驗、創新,最終為整體經濟與社會創造益處。
Meta 也認為將現今的 AI 模型開源取用是較安全的做法,代表當代的開發者與研究人員可組成社群,對其進行壓力測試、快速識別並解決問題,透過了解其他人如何使用這些工具,Meta 團隊將向大家學習,改善這些工具並修補漏洞。
過去十多年,Meta 將探索性研究、開源、與學術界及業界夥伴的合作作為 AI 發展的核心,並親眼見證開放創新可以如何孵化造福大眾的科技。數十個大型語言模型在發布後,藉由開發者與研究人員的推動下正持續進展,這些模型成為被企業用來催生新一代生成式 AI 體驗的核心。目前申請 Llama 1 的使用已超過 10 萬次,研究人員對 Llama 1 的龐大需求,與大家在 Llama 1 基礎上創造的驚人成就都讓人深感震撼。
Meta 現已完成分享 Llama 2 新版本並開放用於商業用途的相關準備,包括預訓練模型與對話式的微調版本的模型權重與起始代碼。正如微軟執行長 Satya Nadella 在微軟 Inspire 大會上所宣布,Meta 與微軟將進一步提升合作關係,微軟成為 Meta 在 Llama 2 與拓展生成式 AI 成果的首選合作夥伴。從今天起,Llama 2 將在 Azure AI 模型目錄中上線,使開發人員可以運用 Microsoft Azure 構建並利用其雲端原生工具開展內容過濾與安全功能。Llama 2 也針對 Windows 本機執行進行優化,讓開發者在提供生成式 AI 體驗給不同平台客戶時,擁有無縫的工作流程。Llama 2 也將可透過 Amazon Web Services( AWS )、Hugging Face 予其他夥伴取得。
大家與企業將從 Microsoft 與 Meta 間的長期合作夥伴關係中受益,兩家公司共同為可互換 AI 框架推出開放生態系統,並為了推動 AI 的發展共同撰寫相關研究論文。此外,雙方的合作也擴大 PyTorch 在 Azure 上的應用。PyTorch 是由 Meta 與 AI 社群創建且領先業界的 AI 框架,Meta 也是 PyTorch 基金會創始成員之一。微軟與 Meta 近期加入許多認同 AI 框架夥伴關係的支持者,一起創建與共享合成媒體內容。合作夥伴關係將拓展至 AI 領域之外,甚至延伸至元宇宙中,為未來的工作及娛樂提供身歷其境的體驗。
透過擴大合作夥伴關係,微軟與 Meta 目前支持開放式的創新態度,將增加對基礎 AI 技術的使用,進而造福全球企業。不只 Meta 與微軟相信普及化可促進 AI 模型的進步,在世界各地也有廣泛的支持者,包括早期運用 Llama 2 建構新產品並分享回饋的公司、將 Llama 2 納入客戶服務產品中的雲端服務供應商、致力於與 Meta 共同安全地及負責任地開展大型生成模型的研究機構,還有與 Meta 一樣預見未來效益的科技、學術與政策領域等人士。
聚焦於負責任地開發
開源將促進 Llama 2 的透明度與可獲取性。AI 為社會帶來顯著的進步,但也伴隨著風險,因此 Meta 承諾將負責任地構建並提供大量資源協助使用 Llama 2 的開發者。
- 紅隊演練( Red-Teaming Exercises ):在內部與外部努力下,Meta 的微調模型已通過紅隊演練安全測試。團隊致力於生成對抗式指令( prompts )來進行模型微調。此外,Meta 委託第三方對經過微調的模型進行外部對抗性測試,以類似方式識別性能上的不足。這些安全微調過程是不斷迭代的;Meta 將繼續透過微調與基準測試,投入於安全性的提升,並基於這些努力發布更新的微調模型。
- 透明度示意圖:解釋對於模型的微調與評估方式,並確認其缺陷。在研究論文中,Meta 的透明度示意圖揭露過去所經歷過的已知挑戰與問題,並提供曾採取的緩解措施,以及未來計畫探索的解決方式。
- 負責任的使用指南:Meta 建立一套指南,與開發者分享負責任地開發與安全評估的最佳實踐方式。指南概述在業界與 AI 研究社群間,所討論出目前關於負責任生成式 AI 的最佳研究方式。
- 可接受的使用政策:Meta 制定了禁止某些案例的政策,以確保這些模型得以公平且負責任地被使用。
Meta 也開展新方式,運用全球各地的個人、研究人員、開發者的洞察力與創造力,收集關於模型表現成效及如何改進的回饋。
- 開放創新 AI 研究社群:Meta 更為學術研究人員啟動新的合作夥伴計劃,企盼更進一步瞭解大型語言模型的負責任開發與共享。研究人員可以申請加入從業者社群,分享重要主題的相關經驗,社群將制定研究議程來推動未來的發展。
- Llama 影響力挑戰賽:Meta 期待活絡積極使用 Llama 解決難題的創新社群,Meta 發起挑戰賽,鼓勵各種大眾、非營利組織與營利單位,運用 Llama 2 應對氣候、教育及其他相關議題上面臨的挑戰。挑戰賽的規則將再另行公布。
回顧 Meta 過去發展,在發展非業務相關領域時,開源帶來許多益處。Meta 的工程師開發並分享現已成為業界標準的框架,例如引領業界用於製作網頁與行動應用程式的框架 React ,與領先 AI 業界的框架 PyTorch,這些已成為提供給整個科技業的通用基礎架構。Meta 相信公開共享大型語言模型,也將支援有用且安全的生成式 AI 的開發。
本篇來源為 Meta 提供之新聞稿/調整