1. <output id="qauya"></output>

    <ins id="qauya"><option id="qauya"></option></ins>

    <output id="qauya"></output>
      <small id="qauya"><video id="qauya"></video></small>
      <tr id="qauya"><track id="qauya"></track></tr> <ins id="qauya"><th id="qauya"></th></ins>
      ITBear旗下自媒體矩陣:

      Meta 推出 AI 語言模型 LLaMA,一個有著 650 億參數的大型語言模型

         時間:2023-02-25 09:12:18 來源:IT之家編輯:芳華 發表評論無障礙通道

      2 月 25 日消息,meta 在當地時間周五宣布,它將推出一種針對研究社區的基于人工智能 (AI) 的新型大型語言模型,與微軟、谷歌等一眾受到 ChatGPT 刺激的公司一同加入人工智能競賽。

      meta 的 LLaMA 是“大型語言模型 meta AI” (Large Language Model meta AI)的縮寫,它可以在非商業許可下提供給政府、社區和學術界的研究人員和實體工作者。

      該公司將提供底層代碼供用戶使用,因此用戶可以自行調整模型,并將其用于與研究相關的用例。meta 表示,該模型對算力的要求“低得多”。

      據介紹,該公司正在開發多種參數(7B、13B、33B 和 65B)的 LLaMA。其中,LLaMA 65B 和 LLaMA 33B 在 1.4 萬億個 tokens 上訓練,而最小的模型 LLaMA 7B 也經過了 1 萬億個 tokens 的訓練。

      與其他大型語言模型一樣,LLaMA 的工作原理是將一系列單詞作為“輸入”并預測下一個單詞以遞歸生成文本。為了這套模型,meta 從使用人數最多的 20 種語言中選擇文本進行訓練,重點是拉丁語和西里爾字母。

      當然,與其他模型一樣,LLaMA 也面臨著偏見、有毒評論和幻覺的挑戰,meta 還需要做更多的研究來解決這類語言模型中的不足。

      meta 表示,LLaMA 作為一個基礎模型被設計成多功能的,可以應用于許多不同的用例,而不是為特定任務設計的微調模型。通過開源 LLaMA 的代碼,其他研究人員可以更輕松地找到限制或消除這些問題的新方法。meta 還在本文中提供了一組評估模型偏差和毒性的基準評估標準,以顯示模型的局限性并支持研究人員在這一關鍵領域的進一步研究。

      值得一提的是,meta 在去年 5 月也曾推出過大型語言模型 OPT-175B。該項目同樣也是針對研究人員的,這構成了其聊天機器人 blenterbot 新迭代的基礎。

      后來,該公司還推出了一款名為“卡拉狄加”(Galactica) 的模型,據稱它可以撰寫科學文章和解決數學問題,但其演示版本后來被下架,因為它反復生成“聽起來很權威”的內容。

      免責聲明:本網信息來自于互聯網,目的在于傳遞更多信息,并不代表本網贊同其觀點。其內容真實性、完整性不作任何保證或承諾。如若本網有任何內容侵犯您的權益,請及時聯系我們,本站將會在24小時內處理完畢。
      舉報 0 收藏 0 打賞 0評論 0
       
       
      更多>同類資訊
      全站最新
      熱門內容
      網站首頁  |  關于我們  |  聯系方式  |  版權聲明  |  網站留言  |  RSS訂閱  |  違規舉報  |  開放轉載  |  滾動資訊  |  English Version
      關閉
      ITBear微信賬號

      微信掃一掃
      加微信拉群
      電動汽車群
      科技數碼群