会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 Meta加入AI军备竞赛:发布开源大语言模型,号称优于ChatGPT!

Meta加入AI军备竞赛:发布开源大语言模型,号称优于ChatGPT

时间:2025-07-08 06:20:21 来源:瞒心昧己网 作者:知识 阅读:557次

继、加入军备竞赛之后,发布脸书(Facebook)母公司Meta(Nasdaq:META)也加入AI军备竞赛。开源

当地时间2月24日,大语Meta官网公布了一款新的言模于人工智能大型语言模型LLaMA,从参数规模来看,型号Meta提供有70亿、称优130亿、加入军备竞赛330亿和650亿四种参数规模的发布LLaMA模型,并用20种语言进行训练。开源

Meta首席执行官马克·扎克伯格表示,大语LLaMA模型旨在帮助研究人员推进工作,言模于在生成文本、型号对话、称优总结书面材料、加入军备竞赛证明数学定理或预测蛋白质结构等更复杂的任务方面有很大的前景。

怎么理解人工智能大型语言模型的参数?

据悉,AIGC(利用人工智能技术来生成内容)形成的学习能力在一定程度上取决于参数的规模。OpenAI推出的ChatGPT是通过其AI大模型GPT-3的基础上通过指令微调后得到的,参数量达1750亿,谷歌推出的Bard使用的是轻量级LaMDA模型,相比标准版本,轻量化版本模型所需要的运算能力较小,能面向更多使用者开放,使其参与体验,有报道指出LaMDA模型参数量在1370亿。文心大模型参数量达到2600亿,则表示,从过往实践来看,其具备支撑超万亿参数大模型研发的技术实力。

Meta此次推出的大模型实力如何呢?

Meta首席AI科学家杨立昆(Yann LeCun)表示,在一些基准测试中,LLaMA 130亿参数规模的模型性能优于OpenAI推出的GPT3,且能跑在单个GPU上;650亿参数的LLaMA模型能够和DeepMind 700亿参数的Chinchilla模型、谷歌5400亿参数的PaLM模型竞争。

法新社称,按照Meta的表述,LLaMA是一套“更小、性能更好”的模型,且不同于谷歌的LaMDA和OpenAI的GPT机密训练资料和演算,LLaMA是基于公开资料进行训练。

Meta在官网表示,在大型语言模型中,像LLaMA这样的小型基础模型是可取的,因为测试新方法、验证他人的工作和探索新用例所需的计算能力和资源要少得多。基础模型基于大量未标记的数据进行训练,这使得它们非常适合于各种任务的微调。与其他大型语言模型一样,LLaMA的工作原理是将一系列单词作为输入,并预测下一个单词以递归生成文本。

Meta称将致力于这种开源模型的研究,新模型会开源给整个AI研究社区使用,并授予大学、非政府组织和行业实验室访问权限。另外,Meta表示其还有更多研究需要做,以解决大型语言模型中的偏见、有害评论等风险。

Meta披露的2022年第四季度财报显示,该公司已连续第三个季度出现营收同比下滑,四季度营收312.54亿美元,同比下降4%。广告为Meta的支柱业务,为第四季度的总营收贡献超97%,报告期内,尽管广告展现量增长了23%,但单位广告价格下滑了22%。

截至美东时间2月24日,Meta股价跌0.96%报170.390美元/股,总市值4418亿美元。

(责任编辑:娱乐)

相关内容
  • 特定养老储蓄首批试点规模40亿元,每个试点城市或仅2亿元
  • 通胀降温带来好消息!美联储博斯蒂克放鸽:加息步伐或将放缓
  • 2022胡润中国500强榜单发布:台积电位列第一,比亚迪进入前十
  • 增聘潮起 明星基金经理“减负”进行时
  • 农行与五家房企签署银企战略合作协议
  • 央行:去年社融增量32.01万亿元,对实体支持力度较大
  • 德国统计局:德国2022年Q4经济或陷入停滞,全年增长1.9%
  • 苹果CEO库克降薪40%!
推荐内容
  • 亚洲航空燃油对柴油的差价创7个月来最低 炼油厂可能考虑调整产量
  • 转基因玉米品种将过审?头部种企:若通过可对外供应 各种企小规模扩繁自种面积均严格保密
  • 一年花费168亿美元,韩国成全球人均奢侈品消费最高国家
  • 商务部、海关总署:2023年澳大利亚羊毛关税配额为42213吨
  • 全国超300地调整楼市政策超900次,市场仍有待激活
  • 爆火一个月后,“顶流”ChatGPT开始搞钱了