-
机器学习中不得不知的数学基础
随着各类语言库和框架的不断增加,机器学习变得越来越受欢迎。人们在各个领域更容易找到人工智能和机器学习的应用。然而,依赖库和框架来使用人工智能可能不会使人们成为该领域的专家。虽然编码框架的支持增加了可用性,但要在人工智能行业取得成功,我们必须深入理解代码背...
-
YoloCS:有效降低特征图空间复杂度
本文经计算机视觉研究院公众号授权转载,转载请联系出处。 论文地址:YOLOCS: Object Detection based on Dense Channel Compression for Feature Spatial Solidificatio...
-
3B模型新SOTA!开源AI让日常调用不同大模型更简单
大模型,大,能力强,好用! 但单一大模型在算力、数据和能耗方面面临巨大的限制,且消耗大量资源。 而且目前最强大的模型大多为闭源,对AI开发的速度、安全性和公平性有所限制。 AI大模型的未来发展趋势,需要怎么在单一大模型和多个专门化小模型之间做平衡和选择?...
-
多模态模型学会打扑克:表现超越GPT-4v,全新强化学习框架是关键
只用强化学习来微调,无需人类反馈,就能让多模态大模型学会做决策! 这种方法得到的模型,已经学会了看图玩扑克、算“12点”等任务,表现甚至超越了GPT-4v。 图片 这是来自UC伯克利等高校最新提出的微调方法,研究阵容也是相当豪华: 图灵奖三巨头之一、M...
-
昆仑万维宣布开源2千亿稀疏大模型Skywork-MoE 性能强劲成本更低
在大模型技术迅速发展的背景下,昆仑万维公司开源了一个具有里程碑意义的稀疏大型语言模型Skywork-MoE。这个模型不仅在性能上表现出色,而且还大幅降低了推理成本,为应对大规模密集型LLM带来的挑战提供了有效的解决方案。 Skywork-MoE模型特点:...
-
清洁数据,可信模型:确保您的LLM拥有良好的数据卫生
事实上,有些数据输入模型风险太大。有些可能带来重大风险,例如隐私侵犯或偏见。 译自Clean Data, Trusted Model: Ensure Good Data Hygiene for Your LLMs,作者 Chase Lee。 大语言模型...
-
英伟达新研究:上下文长度虚标严重,32K性能合格的都不多
无情戳穿“长上下文”大模型的虚标现象—— 英伟达新研究发现,包括GPT-4在内的10个大模型,生成达到128k甚至1M上下文长度的都有。 但一番考验下来,在新指标“有效上下文”上缩水严重,能达到32K的都不多。 新基准名为RULER,包含检索、多跳追踪、...
-
ICML2024高分!魔改注意力,让小模型能打两倍大的模型
改进Transformer核心机制注意力,让小模型能打两倍大的模型! ICML 2024高分论文,彩云科技团队构建DCFormer框架,替换Transformer核心组件多头注意力模块(MHA),提出可动态组合的多头注意力(DCMHA)。 DCMHA解除...
-
大型科技公司拥才有承担 AI 训练数据成本的能力
AI 的发展离不开数据,而这种数据的成本越来越高,这使得除了最富有的科技公司外,其他公司难以承担这一成本。根据去年 OpenAI 的研究人员 James Betker 的文章,AI 模型的训练数据是决定模型能力的关键因素。传统的 AI 系统主要是基于统计机...
-
使用LLaMA Factory来训练智谱ChatGLM3-6B模型
使用LLaMA Factory来训练智谱ChatGLM3-6B模型时,以下是一个训练过程: 1. 环境搭建 a. 安装Python和Anaconda 下载并安装适合你操作系统的Python版本(推荐Python 3.10或更高版本)。 安装Anac...
-
AI作画算法原理
1.概述 AI作画算法的原理相当复杂,涉及多个领域的知识,包括计算机视觉、机器学习和神经网络等。我们从以下几个方面来描述AI作画算法的基本原理。 2. 数据准备 在数据准备方面,AI作画算法通常需要大量的图像数据作为训练样本。可以是各种各样的艺术...
-
Stable Diffusion的微调方法详解
Stable Diffusion作为一种强大的文本到图像生成模型,已经在艺术、设计和科研等多个领域取得了广泛的应用。然而,为了使其更好地适应特定任务或领域,微调(Fine-tuning)技术显得尤为重要。本文将详细介绍Stable Diffusion的微调...
-
Stable Diffusion 3.0技术论文解读
前几周 AI绘画领域扔出了一颗重磅炸弹 那就是Stability AI发布了备受期待的Stable Diffusion 3.0 简称SD3 一周后 官方放出了一篇详尽的技术论文 阐述了SD3实现突破性进展的底层原理 但是同时也引发了一连串疑问...
-
MonoDETRNext:下一代准确高效的单目3D检测方法!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 基于单目视觉的3D目标检测在各个领域都至关重要,但现有方法在准确性和计算效率方面面临着重大挑战。在2D检测和深度估计的成功策略的基础上,本文提出了MonoDETRNe...
-
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
如今,想训个SOTA的大模型,不仅缺数据和算力,甚至连电都不够用了。 最近马斯克就公开表示,因为苦于买不到足够的芯片,xAI只能推迟Gork 2的训练和发布。 Grok 3及更高版本,甚至需要10万个H100,按每台H100售价3万美元来算,仅芯片就要花...
-
探秘Faster Whisper:一款加速 Whisper 模型训练的高效工具
探秘Faster Whisper:一款加速 Whisper 模型训练的高效工具 项目地址:https://gitcode.com/SYSTRAN/faster-whisper 在自然语言处理(NLP)领域,Transformer架构的模型如Whis...
-
可解释性人工智能:解释复杂的AI/ML模型
译者 | 李睿 审校 | 重楼 人工智能(AI 和机器学习(ML 模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关者解释。可解释性人工智能(XAI)旨在通过让利益相关者理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如...
-
可控核聚变新里程碑,AI首次实现双托卡马克3D场全自动优化,登Nature子刊
几十年来,核聚变释放能量的「精妙」过程一直吸引着科学家们的研究兴趣。 现在,在普林斯顿等离子体物理实验室(PPPL)中 ,科学家正借助人工智能,来解决人类面临的紧迫挑战:通过聚变等离子体产生清洁、可靠的能源。 与传统的计算机代码不同,机器学习不仅仅是指令...
-
LLM大模型推理加速实战:vllm、fastllm与llama.cpp使用指南
随着人工智能技术的飞速发展,大型语言模型(LLM)在诸如自然语言处理、智能问答、文本生成等领域的应用越来越广泛。然而,LLM模型往往具有庞大的参数规模,导致推理过程计算量大、耗时长,成为了制约其实际应用的关键因素。为了解决这个问题,一系列大模型推理加速工具...
-
在个人 Linux 机器 (GPU/CPU) 上本地运行 LLaMA-3(Docker+Ollama+Open WebUI+LLama3教程含详细步骤)
在当今快速发展的人工智能环境中,部署开源大型语言模型 (LLM 通常需要复杂的计算基础设施。然而,Ollama 的创新平台正在改变这一规范,支持在标准个人计算机上使用这些强大的模型,支持CPU和GPU配置。本指南介绍了如何使用 Ollama 在您自己的设...
-
通透!如何选择合适的机器学习算法
算法选择注意事项 为任务选择正确的机器学习算法涉及多种因素,每个因素都会对最终决策产生重大影响。以下是决策过程中需要牢记的几个方面。 1.数据集特征 数据集的特征对于算法的选择至关重要。数据集的大小、包含的数据元素的类型、数据是结构化的还是非结构化的等...
-
大模型烧钱战“卷”出白菜价,李开复、王小川为何拒绝入局?
撰稿丨今日晴 出品 | 51CTO技术栈(微信号:blog51cto) 暗流涌动的大模型圈,几乎毫无征兆地开启了价格战。 近一周时间,字节跳动、阿里巴巴、百度、腾讯等多家厂商纷纷调整旗下大模型产品的定价策略,宣布面向企业市场的API价格下调,动辄下调90...
-
单模型斩获「蛋白质突变预测」榜一!西湖大学提出基于结构词表方法 | ICLR 2024 Spotlight
蛋白质结构相比于序列往往被认为更加具有信息量,因为其直接决定了蛋白质的功能。 而随着AlphaFold2带来的巨大突破,大量的预测结构被发布出来供人研究使用,如何利用这些蛋白质结构来训练强大且通用的表征模型是一个值得研究的方向。 西湖大学的研究人员利用F...
-
腾讯混元大模型降价 混元-lite全面免费
腾讯云宣布大模型升级,旨在通过技术革新和价格调整,进一步推动人工智能(AI)应用的普及与发展。其中,混元系列模型作为腾讯云的主力模型,迎来了全面的性能提升和价格调整。 首先,混元-lite模型将实现API输入输出长度的巨大飞跃。目前,其API输入输出总长度...
-
时间序列预测:探索性数据分析和特征工程的实用指南
时间序列分析是数据科学和机器学习领域最广泛的主题之一:无论是预测金融事件、能源消耗、产品销售还是股票市场趋势,这一领域一直是企业非常感兴趣的领域。 随着机器学习模型的不断进步,使除了传统的统计预测方法(如回归模型、ARIMA模型、指数平滑 外,与机器学习...
-
击穿全球底价!阿里云通义千问GPT-4级主力模型降价97%:约为GPT-4价格的1/400
快科技5月21日消息,今日阿里云宣布,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。 这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。...
-
大模型“价格战”开打,给刚入商业化“佳境”的智谱AI提出了新挑战
1块钱买100万个tokens,为跟上Open AI,这家公司先给自己打个“骨折价”。 1 一比一复刻Open AI AI大模型在商业化路途中还在摸索,便已开打“价格战”。 5月15日,字节跳动宣布,豆包通用模型pro在企业市场的定价为0.0008元/千T...
-
百度:文心大模型日均处理Tokens文本达2490亿
快科技5月15日消息,今日,百度发布公告表示,文心大模型日均处理Tokens文本已达2490亿。 百度认为,使用大模型不应该只看价格,更要看综合效果,只有让AI应用效果更好、响应速度更快、分发渠道更广,才能让人们切实感受AI为社会生产带来的便利。 近日,国...
-
西浦、利物浦大学提出:点云数据增强首个全面综述
本论文的第一作者朱钦峰是西交利物浦大学和利物浦大学联合培养的一年级在读博士,其导师为范磊副教授。他的主要研究方向为语义分割、多模态信息融合、3D视觉、高光谱图像和数据增强。 本文是对发表于模式识别领域顶刊Pattern Recognition 2024的...
-
人工客服要被取代?用GPT-4o模拟处理客服事务,100%流畅毫无AI味
OpenAI于2024年5月13日推出了GPT-4o模型,其中的“O”代表全能(Omni),在人机互动的自然度上取得了显著进步。GPT-4o支持多模态输入和输出,包括语音、视频、图像和代码,能够实时与用户进行无缝交流,理解情感,并展现出幽默个性。 该模型的...
-
看红帽如何在RHEL与OpenShift中玩转生成式AI
市场上有很多生成式AI平台的选择,为什么要选择红帽? 红帽总裁兼CEO Matt Hicks直言红帽的不同之处在于运行位置的核心灵活性。企业既可以对小型开源模型进行混合部署,也可以在公有云或自有数据中心训练模型,同时支持主要的GPU供应商。 最近在R...
-
划重点!!因果推断两大算法框架解析
一、整体框架 因果推断的主要任务可分为三类。首先是因果结构的发现,即从数据中识别出变量之间的因果关系。其次是因果效应的估计,即从数据中推断一个变量对另一个变量的影响程度。需要注意的是,这种影响并非指相关性,而是指在对一个变量进行干预时,另一个变量的数值...
-
开源领域最强大模型!阿里云发布通义千问2.5:全面赶超GPT-4 Turbo
快科技5月9日消息,阿里云正式发布了通义千问2.5,模型性能全面赶超GPT-4 Turbo,声称地表最强中文大模型。 据了解,通义千问2.5最新开源的1100亿参数模型在多个基准测评中均取得了最佳成绩,成功超越了Meta的Llama-3-70B模型,成为开...
-
《2024年人工智能准备度报告》发布!6成企业拟采用AI,投入生产的仅占其中三分之一;OpenAI稳坐王位;比起RAG更爱微调…
整理 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) 最近,人工智能公司 Scale AI发布 《2024年人工智能准备度报告》。 该系列报告已经是连续第三年进行发布,本次报告调查采访了1800 多名在企业中构建或应用人...
-
阿里巴巴推出通义千问2.5 号称性能超越GPT-4 Turbo
在人工智能领域,阿里巴巴再次取得重大进展,于5月9日正式发布了通义千问2.5版本。该版本在模型性能上全面超越了GPT-4Turbo,标志着阿里巴巴在AI技术发展上的又一重要里程碑。 通义千问2.5的主要提升包括: 理解能力提升9%:在文本理解方面,相较...
-
港大开源图基础大模型OpenGraph: 强泛化能力,前向传播预测全新数据
图学习领域的数据饥荒问题,又有能缓解的新花活了! OpenGraph,一个基于图的基础模型,专门用于在多种图数据集上进行零样本预测。 背后是港大数据智能实验室的主任Chao Huang团队,他们还针对图模型提出了提示调整技术,以提高模型对新任务的适应性。...
-
“守卫模型”让GenAI更安全
企业渴望部署生成式人工智能(GenAI)应用程序,但对有毒内容、敏感数据泄露和幻觉的担忧让他们犹豫不决。一个潜在的解决方案是在GenAI应用程序旁边部署“守卫模型”(guard models),可以立即检测和防止这种风险行为。这就是Datarobot所支...
-
重启与OpenAI的谈判,苹果为iOS 18的AI找“备胎”
如果说在AI大模型崭露头角的2023年,苹果方面的做法是观望,那么到了2024年,他们显然已经不再认为这一轮人工智能浪潮是“AI炒作”(AI hype)了。继此前300亿参数规模的MM1模型亮相后,苹果又在不久前在AI开源社区Hugging Face放出了...
-
OpenAI也要做搜索?传SearchGPT将迎击谷歌核心业务!OpenAI与金融时报新协议已定,将进行链接和引用
整理 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) OpenAI也要杀入AI搜索领域分一杯羹?非常可能!毕竟连SearchGPT的入口已经准备好了! 图片 X平台上网友甚至还发现了SearchGPT的medo视频...
-
谷歌DeepMind新方法Gecko,为测试AI图像生成器引入严格新标准
谷歌 DeepMind 最近的研究示了当前我们对文本到图像 AI 模型性能评估的隐藏局限性。在其发布在预印本服务器 ariv 上的研究中,他们引入了一种全新的方法称为 “Gecko”,承诺提供一个更全和可靠的基准,以评估这一蓬勃发展的技术。 研究团队在其...
-
Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH
大模型力大砖飞,让LLaMA3演绎出了新高度: 超15T Token数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超Chinchilla推荐量再次引爆开源社区讨论。 与此同时,在实际应用层面上,另一个热点话题也浮出水面: 资源有限场景下...
-
量化、剪枝、蒸馏,这些大模型黑话到底说了些啥?
量化、剪枝、蒸馏,如果你经常关注大语言模型,一定会看到这几个词,单看这几个字,我们很难理解它们都干了些什么,但是这几个词对于现阶段的大语言模型发展特别重要。这篇文章就带大家来认识认识它们,理解其中的原理。 模型压缩 量化、剪枝、蒸馏,其实是通用的神经网络...
-
股价飙升!商汤大模型挑战GPT4
4月24日,商汤集团在港交所暂停交易前股价上涨31.15%。商汤集团表示,其大模型日日新5.0发布会受到市场极大关注,公司将进一步刊发相关公告。在“2024年商汤技术交流日”上,商汤发布了其最新的大模型——SenseNova5.0,旨在追赶GPT-4,这反...
-
挑战拯救痴心“舔狗”,我和大模型都尽力了
天降猛男,大模型化身为 “痴情男大”,等待人类玩家的拯救。 一款名为 “拯救舔狗” 的大模型原生小游戏出现了。 游戏规则很简单:如果玩家在几轮对话内说服 “他” 放弃追求对他并无青睐的女神,就算挑战成功。 听起来并不难,然而游戏源于生活,模型人设是痴情属...
-
谷歌AI提出MathWriting:整合人工书写和合成数据集等改变手写数学表达式识别
近年来,在线文本识别模型取得了显著进展,但数学表达(ME)识别作为更为复杂的任务仍未得到足够关注。 谷歌研究团队推出了 MathWriting,一个专注于在线手写数学表达的数据集,包含230k 人工编写和400k 合成样本,超越了类似 IM2LATEX-1...
-
微软推出iPhone能跑的ChatGPT级模型,网友:OpenAI得把GPT-3.5淘汰了
Llama 3发布刚几天,微软就出手截胡了? 刚刚发布的Phi-3系列小模型技术报告,引起AI圈热议。 其中仅3.8B参数的Phi-3-mini在多项基准测试中超过了Llama 3 8B。 为了方便开源社区使用,还特意设计成了与Llama系列兼容的结...
-
发布几小时,微软秒删媲美GPT-4开源大模型!竟因忘记投毒测试
上周,微软空降了一个堪称GPT-4级别的开源模型WizardLM-2。 却没想到发布几小时之后,立马被删除了。 有网友突然发现,WizardLM的模型权重、公告帖子全部被删除,并且不再微软集合中,除了提到站点之外,却找不到任何证据证明这个微软的官方项目。...
-
微软发布iPhone可运行的ChatGPT级AI模型Phi-3系列 挑战OpenAI地位
近日,微软推出了一款名为Phi-3系列的小型AI模型,该模型在AI领域引起了广泛关注。Phi-3系列中的Phi-3-mini模型,仅拥有3.8B参数,却在多项基准测试中超越了拥有8B参数的Llama3模型。 微软特别强调,经过4bit量化处理的Phi-3-...
-
4000万蛋白结构训练,西湖大学开发基于结构词表的蛋白质通用大模型,已开源
蛋白质结构相比于序列往往被认为更加具有信息量,因为其直接决定了蛋白质的功能。而随着AlphaFold2带来的巨大突破,大量的预测结构被发布出来供人研究使用。如何利用这些蛋白质结构来训练强大且通用的表征模型是一个值得研究的方向。 西湖大学的研究人员利用Fo...
-
EMNLP 2023|利用LLM合成数据训练模型有哪些坑?
大家好,我是HxShine 今天我们将介绍EMNLP2023的一篇大模型(LLMs)生成文本分类任务合成数据的文章,标题是《Synthetic Data Generation with Large Language Models for Text Cla...