-
苹果ferret官网体验入口 Apple AI模型工具免费下载地址
Appleml-ferret是一个先进的端到端机器学习语言模型(MLLM),专门设计用于在多模态环境中进行精准定位。它结合了混合区域表示和空间感知的视觉采样器,支持对细粒度和开放词汇的引用和定位。此外,ml-ferret还包含了包括约 110 万个样本的G...
-
论最近热门的AI绘画技术—从小白绘画到文创手账设计【文末送书-13】
文章目录 ?前言 ⚽AI绘图技术栈 ⚾️简单的代码实现案例 ?iPad萌系简笔画:从小白绘画到文创手账设计【文末送书-13】 ⛳粉丝福利:文末推荐与福利免费包邮送书! ?前言 AI绘画技术,也称为人工智能绘画,是指利用人工智能技术...
-
智能编程助手!华为云CodeArts Snap免费公测:基于盘古研发大模型
快科技1月3日消息,据华为云”公众号介绍,近日,华为云CodeArts Snap正式开启公测。 这是一款基于华为云研发大模型的智能化编程助手,旨在为开发者提供高效且智能的编程体验,提升研发人员的单兵作战能力。 该服务公测期间免费,不向用户收取任何费用,商用...
-
最强开源大模型?Llama 2论文解读
标题 简介 模型预训练 预训练设置 硬件资源与碳排放 模型评估 模型微调 有监督微调 基于人工反馈的强化学习(RLHF) 人类偏好数据的收集 奖励模型 迭代微调过程 多轮对话控制 RLHF 结果 模型回答的安全性 一直...
-
清华大学研发 LLM4VG 基准:用于评估 LLM 视频时序定位性能
12 月 29 日消息,大语言模型(LLM)的触角已经从单纯的自然语言处理,扩展到文本、音频、视频等多模态领域,而其中一项关键就是视频时序定位(Video Grounding,VG)。 VG 任务的目的基于给定查询(一句描述),然后在目标视频段中定位...
-
小米SU7汽车发布会; 齐碳科技C+轮融资;网易 1 月 3 日发布子曰教育大模型;百度文心一言用户数已突破 1 亿
投融资 • 3200 家 VC 投资的创业公司破产,那个投 PLG 的 VC 宣布暂停投资了 • 云天励飞参与 AI 技术与解决方案提供商智慧互通 Pre-IPO 轮融资 • 百度投资 AIGC 公司必优科技 • MicroLED量测公司点莘技术获数...
-
面向未来的数据安全的人工智能解决方案
如今,在快速发展的数字世界中,企业领导者正在应对大量数据安全威胁。网络攻击不仅更加复杂,而且成本高昂,全球平均违规损失超过450万美元。随着数据对我们的日常工作变得非常重要,改变我们保护数据安全的方式也非常重要。事实证明,在网络周围筑墙的传统安全措施是...
-
年度最热AI应用TOP 50,除了ChatGPT还有这么多宝藏
百模齐发、AI工具乱杀的一年里,谁是真正赢家? ChatGPT访问量遥遥领先位居第一,但单次使用时长没超过平均线。 Midjourney访问量年度第四,但下滑量位居第二。 引爆AI绘画趋势的Stable Diffusion,年度访问量居然没进前20名?...
-
「灌篮高手」模拟人形机器人,一比一照搬人类篮球招式,看一遍就能学会,无需特定任务的奖励
投篮、运球、手指转球…这个物理模拟人形机器人会打球: 图片 会的招数还不少: 图片 一通秀技下来,原来都是跟人学的,每个动作细节都精确复制: 图片 这就是最近一项名为PhysHOI的新研究,能够让物理模拟的人形机器人通过观看人与物体交互(HOI)的演示,...
-
这是GPT-4变笨的新解释
变笨的本质是知识没进脑子。 自发布以来,曾被认为是世界上最强大的 GPT-4也经历了多场「信任危机」。 如果说今年早些时候那次「间歇式降智」与 OpenAI 重新设计 GPT-4架构有关,前段时间的「变懒」传闻就更搞笑了,有人测出只要告诉 GPT-4「现在...
-
GPT-4变笨!回答新问题性能太差,想保持水准只能不断训练新模型
昨天,一篇系统性地研究了GPT-4为什么会「降智」的论文,引发了AI圈的广泛讨论。 随着大家对GPT-4使用得越来越频繁,用户每过一段时间都会集中反应,GPT-4好像又变笨了。 图片 最近的情况是,如果用户不小心和GPT-4说现在是12月份,GPT-4的...
-
人工智能生成内容AIGC是什么?
一、AIGC的概念和特点 AIGC是人工智能生成内容(Artificial Intelligence Generated Content)的简称,指的是利用人工智能技术,通过已有数据寻找规律,并通过预训练大模型、生成式对抗网络(GAN)等方法,自动生成各...
-
文生视频下一站,Meta已经开始视频生视频了
文本指导的视频到视频(V2V)合成在各个领域具有广泛的应用,例如短视频创作以及更广泛的电影行业。扩散模型已经改变了图像到图像(I2I)的合成方式,但在视频到视频(V2V)合成方面面临维持视频帧间时间一致性的挑战。在视频上应用 I2I 模型通常会在帧之间...
-
谷歌Gemini大逆转?斯坦福Meta华人证明其推理性能强于GPT-3.5
【新智元导读】谷歌放出的Gemini,在对标GPT的道路上似乎一直处于劣势,Gemini真的比GPT-4弱吗?最近,斯坦福和Meta的学者发文为Gemini正名。 Gemini的推理能力,真的比GPT-4弱吗? 此前,谷歌憋出的重磅复仇神器Gemini P...
-
Hyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%
最近几年发布的AI模型,如语言、视觉、音频、生物等各种领域的大模型都离不开Transformer架构,但其核心模块「注意力机制」的计算复杂度与「输入序列长度」呈二次方增长趋势,这一特性严重限制了Transformer在长序列下的应用,例如无法一次性处理一...
-
《我的世界》化身AI小镇,NPC居民角色扮演如同真人
注意看,这个方块人正在快速思考面前几位“不速之客”的身份。 原来她是遇到了危险,意识到这一点之后,她马上开始在脑海中搜索策略。 最终,她的方案是先逃跑然后寻求帮助,并马上付诸行动。 与此同时,对面的人也在进行着和她一样的思考…… 这样的一幅场景出现...
-
还不知道?近20+自动驾驶数据集、榜单和Benchmark汇总
本文经自动驾驶之心公众号授权转载,转载请联系出处。 1.Nuscenes 数据集链接:nuScenes nuscenes数据集下有多个任务,涉及Detection(2D/3D)、Tracking、prediction、激光雷达分割、全景任务、规划控制等...
-
LLaMA模型论文《LLaMA: Open and Efficient Foundation Language Models》阅读笔记
文章目录 1. 简介 2.方法 2.1 预训练数据 2.2 网络架构 2.3 优化器 2.4 高效的实现 3.论文其余部分 4. 参考资料 1. 简介 LLaMA是meta在2023年2月开源的大模型,在这之后,很多开源模型都...
-
微软推出AI助手Copilot的正式版本;ChatGPT:七位研究人员分享他们的观点
? AI新闻 ? 微软推出AI助手Copilot的正式版本 摘要:微软宣布其AI助手Copilot正式上线,此前Copilot的预览版已成为很多用户的日常AI伴侣。此次上线后,Copilot将继续提供AI驱动的网络聊天体验,并具备商业数据保护功能,...
-
基础模型+机器人:现在已经走到哪一步了
机器人是一种拥有无尽可能性的技术,尤其是当搭配了智能技术时。近段时间创造了许多变革性应用的大模型有望成为机器人的智慧大脑,帮助机器人感知和理解这个世界并制定决策和进行规划。近日,CMU 的 Yonatan Bisk 和 Google DeepMind...
-
【网安AIGC专题10.19】论文4:大模型(CODEX 、CodeGen 、INCODER )+自动生成代码评估:改进自动化测试方法、创建测试输入生成器、探索新的评估数据集扩充方法
Is Your Code Generated by ChatGPT Really Correct? 写在最前面 主要贡献 这篇论文的创新点,为之后的论文提供了一些的启发 未来研究的方向:改进自动化测试方法、创建测试输入生成器、探索新的评估数...
-
ChatGPT变笨新解释:世界被AI改变,与训练时不同了
对于ChatGPT变笨原因,学术界又有了一种新解释。 加州大学圣克鲁兹分校一项研究指出: 论文重点研究了“任务污染”问题,也就是大模型在训练时期就见识过很多任务示例,给人一种AI拥有零样本或少样本能力的错误印象。 也有学者从另一个角度指出,大模型训练...
-
每个开发者都应该知道的6个生成式AI框架和工具
译者 | 晶颜 审校 | 重楼 在快速发展的技术领域,生成式人工智能是一股革命性的力量,它改变了开发人员处理复杂问题和创新的方式。本文深入探讨了生成式AI的世界,揭示了对每个开发人员都必不可少的框架和工具。 一、LangChain 图片 LangCh...
-
LLM之Colossal-LLaMA-2:源码解读(init_tokenizer.py文件)实现基于源词表的扩展、(init_model.py文件)实现过计算均值扩展模型、(prepare_pretr
LLM之Colossal-LLaMA-2:源码解读(init_tokenizer.py文件 实现基于源词表的扩展(中文标记的新词汇 进而实现持续预训练、(init_model.py文件 实现过计算均值来扩展模型的嵌入层以适应新的词汇表,然后保存扩展后的模型...
-
[人工智能] 程序员超级进化ai必修课+AIGC全栈项目实战课
课程内容: ├10_02【Java项目】基于ChatGPT的瑞吉外卖系统开发-01.ChatGPT在Java中的应用 .mp4 ├11_02【Java项目】基于ChatGPT的瑞吉外卖系统开发-02.多轮对话和编写文档 .mp4 ├12_02【Jav...
-
万能Prompt句式拆解,人人都是Prompt 工程师
正文共 1318字,阅读大约需要 5 分钟 内容特辑,介绍单一技能的同时今天我们添加一个Prompt造句模板,学会这个,你会成为一个优秀的Prompt Engineer ~ 快去学习、收藏、下载资料包,输出你的独立Prompt吧 ~ 推荐人 |...
-
LLaMA, ChatGLM, BLOOM的参数高效微调实践
作者:回旋托马斯x(腾讯NLP算法工程师) 项目地址:https://zhuanlan.zhihu.com/p/635710004 1. 开源基座模型对比 大语言模型的训练分为两个阶段: (1)在海量文本语料上的无监督预训练,学习通用的语义表...
-
一个超强 Pytorch 操作!!
哈喽,我是小壮! 这几天关于深度学习的内容,已经分享了一些。 另外,类似于numpy、pandas常用数据处理函数,在Pytorch中也是同样的重要,同样的有趣!! Pytorch同样提供了许多用于数据处理和转换的函数。 今儿来看下,最重要的几个必会函数...
-
九大Pytorch最重要操作!!
今儿咱们聊聊pytorch的事情,今儿总结了九个最重要的pytorch的操作,一定会给你一个总体的概念。 张量创建和基本操作 PyTorch的张量类似于NumPy数组,但它们提供了GPU加速和自动求导的功能。张量的创建可以通过torch.tensor,...
-
一文带你UI界面玩转ChatGLM以及Llama的微调
Lora微调的概念: lora是Low-Rank Adaptation的缩写,是微软的Hu等人于2021年挂在ArXiv上(后又发表在ICLR2022上)的一篇论文《LoRA: Low-Rank Adaptation of Large...
-
lag-llama源码解读(Lag-Llama: Towards Foundation Models for Time Series Forecasting)
Lag-Llama: Towards Foundation Models for Time Series Forecasting 文章内容: 时间序列预测任务,单变量预测单变量,基于Llama大模型,在zero-shot场景下模型表现优异。创新点,引入滞后...
-
kaggle竞赛-Stable Diffusion数据分析与baseline
你的目的是来预测我们生成图像的提示词 1.比赛目标 这个竞赛的目标不是从文本提示生成图像,而是创建一个模型,可以在给定生成图像的情况下预测文本提示(你有一堆提示词,你预测是否该提示词参与了图像的生成)?您将在包含由Stable Diffusion 2....
-
两只羊驼掐头去尾拼一起,屠榜HuggingFace
HuggingFace开源大模型排行榜,又被屠榜了。 前排被清一色的SOLAR 10.7B微调版本占据,把几周之前的各种Mixtral 8x7B微调版本挤了下去。 SOLAR大模型什么来头? 相关论文刚刚上传到ArXiv,来自韩国公司Upstage A...
-
史上最大AI版权案深度分析!OpenAI必败,还是纽约时报胜率为0?
纽约时报起诉OpenAI和微软的案子,可能成为影响AI技术发展的里程碑式案例。 《纽约时报》作为西方传统媒体中影响力最大的机构之一,下场与代表AI技术「最先进生产力」的OpenAI开撕,本身就话题性十足。 图片 一位传统媒体人Jason Kint,在读完...
-
在自定义数据集上微调Alpaca和LLaMA
本文将介绍使用LoRa在本地机器上微调Alpaca和LLaMA,我们将介绍在特定数据集上对Alpaca LoRa进行微调的整个过程,本文将涵盖数据处理、模型训练和使用流行的自然语言处理库(如Transformers和hugs Face 进行评估。此外还将介...
-
用扩散模型监督NeRF,清华文生3D新方法成新SOTA
用文字合成3D图形的AI模型,又有了新的SOTA! 近日,清华大学刘永进教授课题组提出了一种基于扩散模型的文生3D新方式。 无论是不同视角间的一致性,还是与提示词的匹配度,都比此前大幅提升。 图片 文生3D是3D AIGC的热点研究内容,得到了学术界和工...
-
抗生素研究新突破!麻省理工用AI发现新抗生素类别 可对抗MRSA
最近,麻省理工大学的科学家们利用人工智能技术取得了突破性的发现,发现了一种新的抗生素类别,用于对抗耐药性金黄色葡萄球菌(MRSA)。60年来的抗生素研究已经有60多年没有取得重要的进展了,这是60年来发现的首个新型抗生素。该研究结果发表在了《自然》杂志上。...
-
提高LLaMA-7B的数学推理能力
概述 这篇文章探讨了利用多视角微调方法提高数学推理的泛化能力。数学推理在相对较小的语言模型中仍然是一个挑战,许多现有方法倾向于依赖庞大但效率低下的大语言模型进行知识蒸馏。研究人员提出了一种避免过度依赖大语言模型的新方法,该方法通过有效利用具有不同注释格式...
-
MonoLSS:用于视觉3D检测训练中的样本选择
本文经自动驾驶之心公众号授权转载,转载请联系出处。 MonoLSS: Learnable Sample Selection For Monocular 3D Detection 论文链接:https://arxiv.org/pdf/2312.14474...
-
字节具身智能新成果:用大规模视频数据训练GR-1,复杂任务轻松应对
最近 GPT 模型在 NLP 领域取得了巨大成功。GPT 模型首先在大规模的数据上预训练,然后在特定的下游任务的数据上微调。大规模的预训练能够帮助模型学习可泛化的特征,进而让其轻松迁移到下游的任务上。 但相比自然语言数据,机器人数据是十分稀缺的。而且机器...
-
这次重生,AI要夺回网文界的一切
重生了,这辈子我重生成了 MidReal。一个可以帮别人写「网文」的 AI 机器人。 这段时间里,我看到很多选题,偶尔也会吐槽一下。竟然有人让我写写 Harry Potter。拜托,难道我还能写的比 J・K・Rowling 更好不成?不过,...
-
人工智能 | Llama大模型:与AI伙伴合二为一,共创趣味交流体验
Llama 大模型介绍 我们介绍 LLaMA,这是一个基础语言模型的集合,参数范围从 7B 到 65B。我们在数万亿个Token上训练我们的模型,并表明可以专门使用公开可用的数据集来训练最先进的模型,而无需诉诸专有的和无法访问的数据集。特别是,LL...
-
【AIGC】图片生成的原理与应用
前言 近两年 AI 发展非常迅速,其中的 AI 绘画也越来越火爆,AI 绘画在很多应用领域有巨大的潜力,AI 甚至能模仿各种著名艺术家的风格进行绘画。 目前比较有名商业化的 AI 绘画软件有 Midjourney、DALL·E2、以及百度出品...
-
Gemini偷师文心一言?这一局,百度给中国大模型找回了面子!
大数据产业创新服务媒体 ——聚焦数据 · 改变商业 在模型表现方面,百度文心一言、阿里通义千问、华为盘古、腾讯混元、科大讯飞星火等,都在说超过ChatGPT-3.5,马上要追上GPT-4,甚至在某些领域的表现超越了GPT-4。...
-
数据闭环!DrivingGaussian:逼真环视数据,驾驶场景重建SOTA
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 北大王选计算机研究所的最新工作,提出了DrivingGaussian,一个高效、有效的动态自动驾驶场景框架。对于具有移动目标的复杂场景,首先使用增量静态3D高斯对整个...
-
KwaiAgents体验入口 快手AI模型工具app免费下载地址
KwaiAgents是由快手科技KwaiKEG开源的一系列智能体相关工作。这个工具集包括KAgentSys-Lite系统,它是Paper中KAgentSys系统的精简版;KAgentLMs系列模型,这是具备计划、反思、工具使用等智能体功能的大语言模型;KA...
-
嵌入和矢量数据库实操指南
译者 | 布加迪 审校 | 重楼 这场革命的核心是矢量数据库概念,这一突破性发展正在重塑我们处理复杂数据的方式。与传统的关系数据库不同,这种数据库具有管理和处理高维矢量数据的独特功能,这种数据是许多AI 和机器学习应用所固有的。随着我们更深入研究先进AI...
-
【扩散模型Diffusion Model系列】0-从VAE开始(隐变量模型、KL散度、最大化似然与AIGC的关系)
VAE VAE(Variational AutoEncoder ,变分自编码器,是一种无监督学习算法,被用于压缩、特征提取和生成式任务。相比于GAN(Generative Adversarial Network ,VAE在数学上有着更加良好的性质,有利...
-
2024年我期待的五个AI故事
在OpenAI于2022年11月发布ChatGPT之后,我喜欢称之为AI新闻的持续“海啸”,我不必等待很长时间:从GPT-4和欧盟AI法案到AI搜索之战,开放与封闭AI之争,以及对训练数据和计算能力的渴望,我多次写下了所有这些话题。 现在,距离新年只有...
-
Llama2推理RTX3090胜过4090,延迟吞吐量占优,但被A800远远甩开
大型语言模型 (LLM 在学界和业界都取得了巨大的进展。但训练和部署 LLM 非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速 LLM 预训练、微调和推理的开源框架和方法。然而,不同硬件和软件堆栈的运行时性能可能存在很大差异,这使得选...