当前位置:AIGC资讯 > AIGC > 正文

AI视野:xAI首个大模型Grok炸场;李开复官宣开源大模型Yi-34B;ChatGPT原型Gizmo新功能曝光;百度网盘引入大模型智能助理

????大模型动态

李开复官宣全球最强开源大模型Yi-34B 一次可处理40万汉字

零一万物发布全球最强的开源大模型Yi-34B,具备超强的语言理解和处理能力,支持处理40万汉字,在中文指标上表现卓越,标志着中国在大模型领域的重大突破。

项目地址:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

马斯克旗下xAI首个大模型Grok炸场

马斯克旗下xAI团队发布了首个AI大模型产品“Grok”,它是一款智能助手,能回答各种问题并实时获取最新信息。

体验地址:https://grok.x.ai/

元象XVERSE开源650亿参数通用大模型XVERSE-65B

深圳元象科技开源650亿参数的XVERSE-65B语言模型,支持多语言,适用于多轮对话和知识问答等任务。

项目地址:https://github.com/xverse-ai/XVERSE-65B

知乎“知海图AI”大模型开放服务

知乎“知海图AI”大模型即将向公众开放服务,具备千亿级参数和强逻辑推理能力,旨在赋能创作者、讨论场、信息获取、内容运营。知海图AI已在多业务场景广泛应用,提高了效率和准确性。

多模态大模型面壁露卡开放服务

面壁智能多模态大模型应用「面壁露卡 Luca」正式面向公众开放服务。经过多次迭代更新,Luca不仅在中英文语言对话方面表现出色,还具备强大的代码、知识、逻辑及图片理解能力。

面壁露卡官网导航:https://top.aibase.com/tool/mianbiluka

中科院物理研究所发布材料合成AI大语言模型MatChat

中国科学院计算机网络信息中心与物理研究所合作,利用400多万篇论文数据,开发了MatChat,一款专注于无机材料合成路径预测的大语言模型,展现了潜在的应用潜力。

代码:https://www.scidb.cn/en/detail?dataSetId=37b8ce88305d44db9cdfe7c2d8fef4dd

DeepSeek发布开源代码大模型DeepSeek Coder

DeepSeek Coder 是一个智能代码助手,可以生成各种代码,包括贪吃蛇游戏、2048游戏、测试样例、修 bug、SQL 查询等。DeepSeek Coder 还在国际权威数据集的测试中表现出色,领先其他开源模型。

???AI应用

ChatGPT订阅用户有望获得定制对话AI功能

OpenAI旗下热门聊天机器人ChatGPT即将推出名为"GPT构建器"的重要更新,允许用户创建和管理自定义聊天机器人,拓展其商业化应用。

百度网盘引入大模型智能助理

百度网盘进行了重大首页改版,采用多巴胺配色和个性化字体设计,引入智能助理,提供更智能化、年轻化的用户体验。

???AI新鲜事

OpenAI首届开发者大会泄露消息,ChatGPT原型Gizmo新功能曝光

今年9月,OpenAI宣布首届开发者大会,而泄露消息透露了ChatGPT原型Gizmo的重大更新,包括自定义聊天机器人、界面改进、企业订阅和更多功能。

蚂蚁百灵大模型通过备案

蚂蚁百灵大模型已完成备案,支持32K窗口长度的Transformer架构,多款相关产品即将完成内测并向公众开放。

迪拜将举办“全球AI挑战赛”,冠军可获近200万元奖金

迪拜哈姆丹亲王宣布将举办全球AI挑战赛,冠军可获得100万迪拉姆(约合人民币198.28万元)的奖金,旨在推动迪拜成为全球领先的人工智能创新中心。

全球热门AI软件JUNLALA正式进军中国

JUNLALA计划将其AI软件SUPERLALA引入中国市场,注重本地化功能,旨在提供极致用户体验,标志着公司扩大全球影响力的重要举措。

官网:https://Junlala.ai

AI大佬Wolfram最新演讲:宇宙的本质是基于计算模型

英国科学家Stephen Wolfram在最新的TED演讲中分享了他的独特观点,认为宇宙的本质是基于计算模型运行的,由离散元素遵循简单计算规则构成。

AI面孔识别技术被用来识别鹅的面孔

维也纳大学的生物学家Sonia Kleindorfer博士及其团队开发了一种人工智能工具,用于识别鹅的面部特征,提高对鹅群个体的准确性,这项技术还将在生物多样性保护和生态学研究中发挥重要作用。

?‍???聚焦开发者

李飞飞团队推零样本360度场景合成技术ZeroNVS

斯坦福和谷歌的ZeroNVS技术能从单个图像实现零样本360度场景合成,通过3D感知扩散模型和SDS蒸馏生成逼真的合成图像,聚焦于场景。

论文地址:https://arxiv.org/pdf/2310.17994.pdf

Together AI发布RedPajama v2:30万亿token数据集用于大模型训练

TogetherAI最近发布了RedPajama v2,这是一个包含30万亿token的在线数据集,专为大型语言模型的培训而设计,为LLM领域提供了高质量的数据支持。

UNC斯坦福等推出通用修正器LURE 多模态物体幻觉下降23%

多个大学合作开发的通用修正器LURE可解决多模态大模型中的物体幻觉问题,降低了幻觉频发的三个成因,提高了通用物体幻觉评估指标23%以上。

论文地址:https://arxiv.org/abs/2310.00754

代码地址:https://github.com/YiyangZhou/LURE

谷歌DeepMind研究发现Transformer模型难以泛化超出预训练数据范围

谷歌DeepMind的研究揭示,Transformer模型在预训练数据之外的泛化能力受到严重限制,难以解决新问题和函数类别。

论文地址:https://arxiv.org/pdf/2311.00871.pdf

GPU推理提速4倍!FlashDecoding++技术加速大模型推理

FlashDecoding++技术是一种用于加速大模型推理任务的新方法,可将GPU推理速度提升2-4倍,降低运营成本,支持多种GPU后端。

论文地址:https://arxiv.org/pdf/2311.01282.pdf

更新时间 2023-11-06