-
大模型时代下如何数据治理?|
随着ChatGPT和其他大语言模型(LLM 的快速发展,AI已成为我们工作和生活中不可或缺的一部分,并从简单的文本生成逐渐演变成为能够处理复杂语义理解和生成的高级AI系统。 这些模型的能力和应用范围的扩展,不仅标志着技术的进步,也标志着它们在实际业务中...
-
AIGC在汽车软件开发的应用举例
AIGC(人工智能生成内容)在汽车软件开发领域的应用主要体现在以下几个方面: 个性化和定制化车辆的创造:通过分析大型数据集并生成新内容,AIGC技术使得创造更加个性化和定制化的车辆成为可能。这不仅提高了车辆的安全性和用户体验,还推动了自动驾驶汽车的发展。...
-
Stable Diffusion实现模特换衣等功能
Stable Diffusion是一种基于Latent Diffusion Models(潜在扩散模型,LDMs 的文图生成(text-to-image 模型。它使用来自LAION-5B数据库子集的512x512图像进行训练。 Stable Diffus...
-
探秘Faster Whisper:一款加速 Whisper 模型训练的高效工具
探秘Faster Whisper:一款加速 Whisper 模型训练的高效工具 项目地址:https://gitcode.com/SYSTRAN/faster-whisper 在自然语言处理(NLP)领域,Transformer架构的模型如Whis...
-
Meta被曝使用Instagram等照片训练AI模型引发隐私争议
全球社交巨头 Meta 最近因使用用户照片训练 AI 模型 Emu 引发了一场隐私争议。据报道,Meta 正在利用 Instagram 和 Facebook 上的用户照片进行训练,同时还会使用用户对图片的描述、标题等文本数据。这严重违反了数据隐私搜集条例,...
-
“数字中国”前瞻:谁是AI大模型时代的驯龙高手?
大模型圈最近都在讨论一个议题:GPT-4o为什么要免费? 一个可见的事实是,ChatGPT的版本迭代速度在放缓。这预示着大模型行业进入平台期,向上攀登变得越来越困难。在这样的背景下GPT-4o宣布免费,说白了就是想用好先发优势,尽快训练出更加强大的模型能力...
-
智慧建筑:基于YOLOv7的建筑外墙缺陷检测
01 前景概要 现有的基于深度学习的方法在识别速度和模型复杂性方面面临一些挑战。为了保证建筑外墙缺陷检测的准确性和速度,我们研究了了一种改进的YOLOv7方法BFD-YOLO。首先,将YOLOv7中原有的ELAN模块替换为轻量级的MobileOne模块,...
-
利用SpringBoot和TensorFlow进行语音识别模型训练与应用
本专题系统讲解了如何利用SpringBoot集成音频识别技术,涵盖了从基础配置到复杂应用的方方面面。通过本文,读者可以了解到在智能语音填单、智能语音交互、智能语音检索等场景中,音频识别技术如何有效提升人机交互效率。无论是本地存储检索,还是云服务的集成,丰...
-
马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o
前段时间,OpenAI、谷歌、微软相继开大会,AI圈子的竞争如火如荼。 这么热闹的时候,怎么能少得了马斯克。 前段时间忙着特斯拉和星链的他,最近好像开始腾出手,而且不鸣则已、一鸣惊人,直接放出一个大消息——自己要造世界上最大的超算中心。 今年3月,他旗下...
-
换了30多种方言,我们竟然没能考倒中国电信的语音大模型
不管你来自哪个城市,相信在你的记忆中,都有自己的「家乡话」:吴语柔软细腻、关中方言质朴厚重、四川方言幽默诙谐、粤语古雅潇洒…… 某种意义上说,方言不只是一种语言习惯,也是一种情感连接、一种文化认同。我们「上网冲浪」遇到的新鲜词汇中,有不少就是来自各地方言。...
-
MacOS使用ollama部署codellama+openui以及llama.cpp部署
现在AI这么火,你是不是也渴望能够在本地部署并运行属于自己的大模型,然而,高昂的硬件成本又往往成了一大障碍,限制了你继续在AI领域去探索和创新。如果告诉你,无需换电脑,无需额外花钱买GPU或换显卡,你现在的电脑就可以本地跑一些大模型,那将是多么酷的一...
-
LLaMA-Factory参数的解答(命令,单卡,预训练)
前面这个写过,但觉得写的不是很好,这次是参考命令运行脚本,讲解各个参数含义。后续尽可能会更新,可以关注一下专栏!! *这是个人写的参数解读,我并非该领域的人如果那个大佬看到有参数解读不对或者有补充的请请反馈!谢谢(后续该文章可能会持续更新) * LLaMA...
-
Llama3-8B+ LLaMA-Factory 中文微调
Llama3-8B+ LLaMA-Factory 中文微调 Llama3是目前开源大模型中最优秀的模型之一,但是原生的Llama3模型训练的中文语料占比非常低,因此在中文的表现方便略微欠佳! 本教程就以Llama3-8B-Instruct开源模型为模...
-
llama3 微调教程之 llama factory 的 安装部署与模型微调过程,模型量化和gguf转换。
本文记录了从环境部署到微调模型、效果测试的全过程,以及遇到几个常见问题的解决办法,亲测可用(The installed version of bitsandbytes was compiled without GPU support. NotImpleme...
-
Stable Diffusion教程:LoRA模型
LoRA模型是一种微调模型,它不能独立生成图片,常常用作大模型的补充,用来生成某种特定主体或者风格的图片。 下载模型 在模型下载网站,如果模型是LoRA模型,网站会特别标识出来。以 liblib.ai为例: 模型左上角会有一个模型类型的标记,CHE...
-
【热门话题】AI作画算法原理解析
?个人主页: 鑫宝Code?热门专栏: 闲话杂谈| 炫酷HTML | JavaScript基础 ?个人格言: "如无必要,勿增实体" 文章目录 AI作画算法原理解析 AI作画算法概述 基础原理:机器学习与深度学习 卷积...
-
简单通用:视觉基础网络最高3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024
本文经计算机视觉研究院公众号授权转载,转载请联系出处。 论文链接:https://arxiv.org/pdf/2405.08768 代码和预训练模型已开源:https://github.com/LeapLabTHU/EfficientTrain 会议...
-
单模型斩获「蛋白质突变预测」榜一!西湖大学提出基于结构词表方法 | ICLR 2024 Spotlight
蛋白质结构相比于序列往往被认为更加具有信息量,因为其直接决定了蛋白质的功能。 而随着AlphaFold2带来的巨大突破,大量的预测结构被发布出来供人研究使用,如何利用这些蛋白质结构来训练强大且通用的表征模型是一个值得研究的方向。 西湖大学的研究人员利用F...
-
掌阅科技携手亚马逊云科技,以生成式 AI 之力重塑阅读体验
在数字化时代,尽管信息获取变得轻而易举,但读者在享受阅读的过程中仍面临着诸多挑战。从挑选书籍的迷茫,到阅读过程中的注意力分散,再到阅读后的知识吸收与整理,构成了读者体验中的一道道难关。 作为深耕数字阅读领域的领军企业,掌阅科技深刻洞察用户在阅读方面的不同...
-
受生成式AI推动,2024年全球公有云支出将增长到6754亿美元
根据Gartner日前预测,受到生成式人工智能(GenAI)和应用现代化的推动,全球用户今年在公有云服务上的支出将增长到6754亿美元。这一数字与去年的5,610亿美元相比大幅增长了20.4%。 这一持续的增长趋势并没有显示出减弱的迹象。到2025年,...
-
「豆包」拉低价格线 全球大模型开卷性价比
大模型也开始打起价格战。 5月15日,字节跳动旗下火山引擎发布豆包大模型,除了针对C端用户的豆包APP可免费使用该模型的应用外,豆包大模型将B端用价拉至行业最低。 按照火山引擎总裁谭待的说法,豆包主力模型(≤32K)在企业市场的定价只有0.0008元/千T...
-
国产黑马与GPT-4o称霸中文榜首!Yi-Large勇夺国内LLM盲测桂冠,冲进世界第七
【新智元导读】真正与GPT-4o齐头并进的国产大模型来了!刚刚,LMSYS揭开最新榜单,黑马Yi-Large在中文分榜上与GPT-4o并列第一,而在总榜上位列世界第七,紧追国际第一阵营,并登上了国内大模型盲测榜首。 几周前,一个名为「im-also-a-g...
-
案例分享|Alluxio在自动驾驶模型训练中的应用与部署
分享嘉宾: 杨林三-辉羲智能 关于辉羲智能: 辉羲智能是一家做自动驾驶芯片的初创公司,成立于2022年。致力打造创新车载智能计算平台,提供高阶智能驾驶芯片、易用开放工具链及全栈自动驾驶解决方案,助力车企实现优质高效的自动驾驶量产交付,构建低成本、大规...
-
大模型变天 国内厂商纷纷推出“骨折价”
近期,国内云服务厂商之间掀起了一场大模型降价潮,这场价格战的目的是为了快速抢占市场,实现商业化的快速落地。包括火山引擎、阿里云、智谱AI、面壁智能等在内的厂商和创业团队都参与其中。 智谱AI首先在 5 月 11 日宣布大幅降价,新注册用户获得的额度从 50...
-
To C大模型,将是字节跳动新“王牌”?
字节跳动,“放大招”了! 5月15日,火山引擎发布会上,字节正式对外发布豆包大模型,并宣布了0.0008元/千Tokens的超低定价。 火山引擎还做了个类比:一元钱就能买到豆包主力模型的125万Tokens,大约200万个汉字,相当于三本《三国演义》。 豆...
-
从“天价”到“骨折价”,大模型要变天了
十年后,国内云厂商又打起来了! 近一个月,国内云厂商掀起了新一轮的大模型降价潮。这意味着AI竞争已经不仅仅是一场军备技术竞赛这么简单,各头部厂商也在考虑如何赚钱了。 在这场价格战中,包括火山引擎、阿里,还有智谱AI、面壁智能这样的明星创业团队都卷了进来。各...
-
数据更多更好还是质量更高更好?这项研究能帮你做出选择
对基础模型进行 scaling 是指使用更多数据、计算和参数进行预训练,简单来说就是「规模扩展」。 虽然直接扩展模型规模看起来简单粗暴,但也确实为机器学习社区带来了不少表现卓越的模型。之前不少研究都认可扩大神经模型规模的做法,所谓量变引起质变,这种观点也...
-
腾讯 PCG 搜广推机器学习框架GPU 性能优化实践
一、为什么 GPU 推荐模型训练框架是刚需 1. PCG 算力集群缺点 最开始的时候,腾讯 PCG 所有的推荐模型训练都是使用 CPU。但随着业务的深入,以及深度学习模型的发展,PCG 算力集群在做下一代推荐模型时会遇到各种问题: 首先,系统网络带宽...
-
谷歌Gemini AI 计划为学校提供额外的数据保护和隐私
Google 即将向学校提供 Gemini AI,并专门针对教育工作者和年满18岁的学生提供服务,承诺会将他们的数据用于 AI 模型训练或与他人分享。 Google 将在 Workspace for Education 账户上提供额外的 Gemini 隐私...
-
粘土特效带火AI修图 美图距离Remini还差一「手」
上传一张图片,点击黏土特效,你将收获一张“小羊肖恩”风格的全新卡通照,无论是图片里的人、物、景,每个细节都如同黏土捏得一样立体。 黏土特效在社交平台风靡,拥有该功能的AI修图应用程序Remini也随即收获了下载量。各种黏土照被产出后,有人嫌丑“不懂为何流行...
-
有望替代谷歌成全球新范式!阿里云重磅论文提出新一代AI网络架构
快科技5月14日消息,在网络通信领域的国际顶会SIGCOMM2024上,阿里云6篇论文被收录。 其中最引人注目的是介绍其最新一代智算集群网络架构HPN 7.0的论文,该论文也是SIGCOMM历史上首篇关于AI智算集群网络架构的论文。 据介绍,HPN 7.0...
-
DLRover 如何拯救算力浪费?10 分钟自动定位故障机,1 秒内保存 Checkpoint!
欢迎大家在 GitHub 上 Star 我们: 分布式全链路因果学习系统 OpenASCE:https://github.com/Open-All-Scale-Causal-Engine/OpenASCE 大模型驱动的知识图谱 OpenSPG:http...
-
大神Karpathy强推,分词领域必读:自动钓鱼让大模型“发疯”的token,来自Transformer作者创业公司
关于大模型分词(tokenization),大神Karpathy刚刚推荐了一篇必读新论文。 主题是:自动检测大模型中那些会导致“故障”的token。 图片 简单来说,由于大模型tokenizer的创建和模型训练是分开的,可能导致某些token在训练中很少...
-
Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动
Meta FAIR 联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。 众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由...
-
英伟达开源大模型对齐框架—NeMo-Aligner
随着ChatGPT、Midjourney等大模型产品的影响力、应用场景越来越多,为了确保输出的内容安全、可靠,对齐成为开发人员的关注重点和难点。 但现在的模型参数少则几百亿多则上千亿,想通过传统的监督式微调方法来完成对齐效果往往不理想。 因此,英伟达的研究...
-
Paper Digest | 基于原型学习的实体图谱预训练跨域推荐框架
可以看到,通过映射得到对应item相关的entity后,基于图谱推理流程,我们可以得到许多和映射得到的entity相关的高阶信息,如苹果这个公司有手机产品,而手机这类产品相关的公司有三星等,从而可以潜在的拉近和其他相关实体(如三星生产的手机等)间的关系。...
-
什么值得买发布全面AI战略:值得买消费大模型参数规模达130亿
站长之家(ChinaZ.com)5月11日 消息:在5月10日于北京举行的以“效率驱动未来”为主题的2024值得买科技集团战略发布会上,值得买科技创始人、董事长隋国栋分享了公司的创业理念、AIGC实践以及对未来技术发展趋势的深入洞察。 隋国栋表示,值得买科...
-
万字长文超全总结Pytorch核心操作!
在深度学习与人工智能领域,PyTorch已成为研究者与开发者手中的利剑,以其灵活高效的特性,不断推动着新技术的边界。对于每一位致力于掌握PyTorch精髓的学习者来说,深入了解其核心操作不仅是提升技能的关键,也是迈向高级应用与创新研究的必经之路。本文精心...
-
一文读懂多家厂商的大模型训练、推理、部署策略
大合影 get ✅ 披萨和礼物不能少! 接下来进入主题演讲回顾环节。可扫描下方二维码、关注“OSC 开源社区”视频号,进入“直播回放”页面查看完整视频回顾: 刘昊:大模型分析与趋势展望 武汉人...
-
Deepseek-V2技术报告解读!全网最细!
深度求索Deepseek近日发布了v2版本的模型,沿袭了1月发布的 Deepseek-MoE(混合专家模型)的技术路线,采用大量的小参数专家进行建模,同时在训练和推理上加入了更多的优化。沿袭了一贯的作风,Deepseek对模型(基座和对话对齐版本)进行了...
-
理论+实践,带你了解分布式训练
本文分享自华为云社区《大模型LLM之分布式训练》,作者: 码上开花_Lancer。 随着语言模型参数量和所需训练数据量的急速增长,单个机器上有限的资源已无法满足大语言模型训练的要求。需要设计分布式训练(Distributed Training)系统来解决...
-
港大开源图基础大模型OpenGraph 增强图学习泛化能力
香港大学数据智能实验室主任黄超团队开发了一款名为 OpenGraph 的图基础大模型,专注于在多种图数据集上进行零样本预测。该模型通过学习通用的图结构模式,仅通过前向传播即可对全新数据进行预测,有效缓解了图学习领域的数据饥荒问题。 关键特点: 强泛化能...
-
OpenAI 打造媒体管理工具,让内容创作者可以选择退出 AI 训练
人工智能公司 OpenAI 近日表示,他们正在研发一款名为媒体管理(Media Manager)的工具,旨在让内容创作者更好地控制其作品在生成式人工智能训练中的使用。这一工具将允许创作者和内容所有者向 OpenAI 确认其作品,并指定希望这些作品是否包含在...
-
OpenAI CEO曾称 GPT-2“非常糟糕”,现在对该版本“情有独钟”
OpenAI 首席执行官 Sam Altman 近日表达了对 GPT-2语言模型的喜爱之情,尽管他此前批评了早期模型,但他对即将推出的 GPT-5充满期待。Altman 在社交平台上承认,他 “确实对 GPT-2有一种软肋”。 今年早些时候,Altman...
-
大模型时代,九章云极DataCanvas点亮五座“灯塔”
“计算”是贯穿人类文明史的一大主题。 早在茹毛饮血的原始社会,先民们就开始结绳记事;进入20世纪,世界上首台数字式电子计算机ENIAC诞生,标志着人类算力正式跨越阈限;随后半导体技术出现,芯片成为了算力的主要载体;科技巨轮驶入21世纪,云计算的发展再度为...
-
甲骨文加强生成式 AI 能力,云计算竞争白热化
美国多国计算机技术公司甲骨文(Oracle)正加强其生成式 AI 能力,与云计算竞争日益激烈,越来越多的公司加入 AI 领域。AI 繁荣 ——ChatGPT 聊天机器人在2022年11月推出,推动了对云计算服务和数据中心的需求增加,因为 AI 模型训练需要...
-
图灵诺奖得主等大佬齐聚海淀!清华版Sora震撼首发,硬核AI盛会破算力黑洞
中关村论坛举办以来的首个主题日活动:「人工智能主题日」今日开启! 到场嘉宾,也是星光熠熠,大佬云集,还有着浓浓的国际范儿,与世界顶尖水平接轨。 一共161位嘉宾,近一半是外籍AI大佬和从业者。 而嘉宾阵容也是非常豪华,汇集了国内外30多名院士,还有诺奖、...
-
一次性讲明白,如何搞定一个可以支持多芯混合训练的 AI 集群
由于外部环境的变化,适用于大模型训练任务的 GPU 整体规模无法继续增长。这些存量 GPU 组成的集群,仍然是当前加速大模型训练的主要 AI 算力来源。同时,各类国产 AI 芯片开始大规模投入实际生产任务。在未来一段时间内,数据中心的 AI 算力将保持多...
-
量化、剪枝、蒸馏,这些大模型黑话到底说了些啥?
量化、剪枝、蒸馏,如果你经常关注大语言模型,一定会看到这几个词,单看这几个字,我们很难理解它们都干了些什么,但是这几个词对于现阶段的大语言模型发展特别重要。这篇文章就带大家来认识认识它们,理解其中的原理。 模型压缩 量化、剪枝、蒸馏,其实是通用的神经网络...
-
挑战拯救痴心“舔狗”,我和大模型都尽力了
天降猛男,大模型化身为 “痴情男大”,等待人类玩家的拯救。 一款名为 “拯救舔狗” 的大模型原生小游戏出现了。 游戏规则很简单:如果玩家在几轮对话内说服 “他” 放弃追求对他并无青睐的女神,就算挑战成功。 听起来并不难,然而游戏源于生活,模型人设是痴情属...