-
研究人员使用机器学习优化高功率激光实验
高强度和高重复的激光器能快速连续每秒发射多次强大的光。商业聚变能源工厂和先进的紧凑型辐射源都依赖这种激光系统。然而,人类的反应时间不足以管理这种速射系统,应用面临挑战。 为了应对这一挑战,科学家们正在寻找不同的方法来利用自动化和人工智能的力量,这些技术...
-
这些AI芯片创企想挑战英伟达,它们能成功吗?
科幻小说《沙丘》中有这样一句话:“谁控制了GPU,谁就控制了宇宙。”在今天的科技世界,如果哪家企业想在AI领域有所见树,就要购买英伟达GPU。 分析师们喋喋不休,将追逐AI梦想的企业分成两类,也就是“GPU-rich”和“GPU-poor”,前者拥有大...
-
从“天价”到“骨折价”,大模型要变天了
十年后,国内云厂商又打起来了! 近一个月,国内云厂商掀起了新一轮的大模型降价潮。这意味着AI竞争已经不仅仅是一场军备技术竞赛这么简单,各头部厂商也在考虑如何赚钱了。 在这场价格战中,包括火山引擎、阿里,还有智谱AI、面壁智能这样的明星创业团队都卷了进来。各...
-
苹果将用自研模型Ajax优化iOS 18 不会推出类ChatGPT聊天机器人
苹果公司正致力于通过其自研的大语言模型Ajax来革新和增强iOS18的用户体验。 Ajax模型于2023年7月首次亮相,它基于Google的Jax机器学习框架构建,并在Google Cloud上运行,展现出了与OpenAI的ChatGPT、微软的Bing、...
-
探秘Python神器:eli5模块如何解读机器学习模型的预测结果?
在Python编程领域,有时候我们会遇到一些复杂的代码或者算法,很难理解其中的逻辑和原理。 为了帮助我们更好地理解代码背后的运行机制,eli5模块应运而生。eli5模块是一个Python库,可以解释机器学习模型的预测结果,帮助我们理解模型是如何做出决策的...
-
开源AI平台Lightning AI发布AI编译器“Thunder”以加速模型训练
开源人工智能平台Lightning AI宣布与Nvidia合作,发布了名为“Thunder”的下一代AI编译器,旨在加速人工智能模型的训练速度。据Lightning AI称,该编译器在实际场景中相比未优化的代码,可将大型语言模型(LLMs)的训练速度提高高...
-
消息称高通、谷歌、英特尔等联合开发 AI 软件:让代码不挑硬件,打破英伟达统治格局
3 月 26 日消息,英伟达凭借 AI 芯片的领先,如今已成为行业巨无霸,包括微软等巨头也需要与其合作,全球超过 400 万开发者依靠英伟达的 CUDA 软件平台来构建 AI 和其他应用。 据路透社报道,为了打破这一局面,包括高通、谷歌和英特尔在内的科...
-
Fastwhisper + Pyannote 实现 ASR + 说话者识别
文章目录 前言 一、faster-whisper简单介绍 二、pyannote.audio介绍 三、faster-whisper + pyannote.audio 实现语者识别 四、多说几句 前言 最近在研究ASR相关的业务,也...
-
智能邮件防护:ML.NET 3.0助力垃圾邮件过滤,让你告别烦扰
概述:ML.NET3.0等机器学习工具,我们可以利用这一数据集训练模型,实现自动分类邮件为垃圾或正常,提高电子邮件过滤效果。 ML.NET是Microsoft推出的开源机器学习框架,可用于在.NET应用程序中集成机器学习功能。ML.NET提供了基础用法...
-
Mac专属大模型框架来了!两行代码部署,能聊本地数据,还支持中文
Mac用户,终于不用羡慕N卡玩家有专属大模型Chat with RTX了! 大神推出的新框架,让苹果电脑也跑起了本地大模型,而且只要两行代码就能完成部署。 仿照Chat with RTX,框架的名字就叫Chat with MLX(MLX是苹果机器学习框...
-
大模型最快推理芯片一夜易主:每秒500tokens干翻GPU!谷歌TPU人马打造,喊话奥特曼:你们也太慢了
太快了太快了。 一夜间,大模型生成已经没什么延迟了……来感受下这速度。 ,时长00:06 眼花缭乱了吧,生成速度已经接近每秒500 tokens。 还有更直观的列表对比,速度最高能比以往这些云平台厂商快个18倍吧。 (这里面还有个熟悉的身影:Lepton...
-
Groq大模型推理芯片每秒500tokens超越GPU,喊话三年超过英伟达
Groq公司推出的大模型推理芯片以每秒500tokens的速度引起轰动,超越了传统GPU和谷歌TPU。该芯片由初创公司Groq研发,其团队成员来自谷歌TPU,包括创始人兼CEO Jonathan Ross,曾设计实现第一代TPU芯片的核心元件。 Groq采...
-
人工智能教程(七):Scikit-learn 和训练第一个模型
在本系列的 上一篇文章 中,我们用 TensorFlow 构建了第一个神经网络,然后还通过 Keras 接触了第一个数据集。我们还将介绍另一个强大的机器学习 Python 库 scikit-learn。不过在进入正题之前,我要介绍两个轰动性的人工...
-
Netflix旗下工作室招AI岗位 懂stable diffusion成硬技能
Netflix 旗下的一家大型视觉特效工作室正在招聘一系列人工智能职位,包括生成成像、工作流程设计、模型训练、数据采集,甚至机器学习研究人员。 从招聘要求来看,Netflix需要用户具备一定AI技能,尤其是需要擅长使用stable diffusion。...
-
AIGC内容分享(三十五):AIGC赋能的“秒鸭相机”到底有多强?
目录 01-FaceChain算法简介 02-FaceChain-FACT算法简介 03-FaceChain算法流程 04-FaceChain-FACT算法流程 05-FaceChain算法应用场景 06-FaceChain环境搭建与运...
-
史上超全自动驾驶岗位介绍
本文经自动驾驶之心公众号授权转载,转载请联系出处。 1.背景 近日分享如何高新转型到自动驾驶领域时,几位朋友不约而同的问到了我同一个问题:“L2~L4自动驾驶的岗位都有哪些?对应着具体的什么 工作内容?需要哪方面的技能?”今天就针对这个大家都很想了解的...
-
突破 Pytorch 核心点,自动求导 !!
嗨,我是小壮! 关于pytorch中的自动求导操作,介绍有关pytorch自动求导的概念. 自动求导是深度学习框架中的一项重要功能,它允许机器学习模型自动计算梯度,进而进行参数更新和优化。 PyTorch是一个流行的深度学习框架,它通过动态计算图和自动...
-
苹果与新闻出版机构谈判,寻求利用其内容开发生成式 AI 系统
据《纽约时报》报道,四位熟悉谈判的人士透露,苹果公司近几周已经开始与主要新闻和出版机构进行谈判,旨在获得使用其材料以开发生成式人工智能(AI)系统的权限。 这些知情人士表示,苹果提出了价值至少 5000 万美元的多年期协议,以获得新闻文章档案的授权。由于...
-
LLaMA(大规模机器学习和分析)
LLaMA(大规模机器学习和分析 是一个先进的软件平台,是Meta 推出 AI 语言模型 LLaMA,一个有着 上百亿数量级参数的大语言模型用于大规模部署和管理机器学习模型。借助LLaMA,组织可以高效地在大型数据集上训练和部署模型,缩短投放市场的...
-
谷歌发布Cloud TPU v5p和AI超级计算机:人工智能处理能力飞跃
谷歌在推出其张量处理单元Cloud TPU v5p和具有突破性的超级计算机架构AI Hypercomputer时掀起了轩然大波。这些创新的发布,再加上资源管理工具Dynamic Workload Scheduler,标志着在处理组织的人工智能任务方面迈出了...
-
微软推出ML.NET 3.0版本,扩展了深度学习功能
11月29日消息,据外媒报道,微软日前发布了ML.NET 3.0,这是该公司开源、跨平台机器学习框架的最新版本,可以将机器学习模型集成到.NET应用程序中。 ML.NET 3.0在对象检测、命名实体识别和问题回答方面包含了新的深度学习功能。通过与Tor...
-
微软推出跨平台框架 ML.NET 3.0 版本:强化深度学习功能、加强 AI 计算效率
IT之家 11 月 29 日消息,微软日前宣布推出跨平台机器学习框架 ML.NET 3.0,主要强化了深度学习功能,改进 ML.NET 数据处理能力,并添加了英特尔 oneDAL 加速训练技术,以及自动机器学习等功能。 ▲ 图源微软 IT之家注意到,M...
-
Arm最新Cortex-M52芯片助力小型物联网设备实现AI分析功能
人工智能(AI)的普及已经无处不在,但真正需要它的地方是在物联网(IoT 设备生成大量数据的边缘。Arm公司最新推出的Cortex-M52芯片旨在实现在边缘进行小型IoT设备上的AI分析,为开发者提供更多硬件能力和简化的软件开发平台。 Arm的高级副总裁兼...
-
腾讯披露最新大模型训练方法:Angel框架升级 效率提升2.6倍
在当前大模型参数规模呈指数级增长的情况下,腾讯近日披露了混元大模型训练的最新方法,通过升级自研机器学习框架Angel,成功提升大模型训练效率。这一升级使得千亿级大模型训练可以节省高达50%的算力成本,为应对算力紧缺提供了有力支持。Angel框架的升级不仅仅...
-
腾讯披露最新大模型训练方法,可节省50%算力成本
在算力紧缺的背景下,如何提升大模型训练和推理的效率,并降低成本,成为业界关注的焦点。 11月23日,腾讯披露,腾讯混元大模型背后的自研机器学习框架Angel再次升级,大模型训练效率提升至主流开源框架的2.6倍,千亿级大模型训练可节省50%算力成本。升级后...
-
腾讯三季度研发投入164.5亿元,腾讯混元大模型助力多业务提效
站长之家(ChinaZ.com 11月15日 消息:腾讯在研发和专利方面持续领先,大模型推动业务增长。根据最新财报,腾讯三季度研发开支同比增长9%,达到164. 5 亿元,自 2018 年以来累计投入超过 2532 亿元。 在全球范围内,腾讯的专利申请公...
-
Llama大模型运行的消费级硬件要求【CPU|GPU|RAM|SSD】
大型语言模型 (LLM 是强大的工具,可以为各种任务和领域生成自然语言文本。 最先进的LLM之一是 LLaMA(大型语言模型 Meta AI),这是由 Facebook 的研究部门 Meta AI 开发的一个包含 650 亿个参数的模型 要在家运行 L...
-
【AI绘画--七夕篇】:如何训练Lora模型打造令人惊叹的AI绘画
目录 前言 一、? 选择合适的云端平台 1-1、云端平台的优势 1-2、选择适合的云端平台 二、? 账号注册 三、? 开始炼丹 3-1、购买算力并创建工作空间 3-2、启动工作空间 3-3、应用市场一键安装 四、? 使用Stable-D...
-
实测腾讯AI文生图!王者荣耀画风一键直出,小程序就能玩
鹅厂大模型,又有新玩法! 发布不到两个月,腾讯混元大模型就速通了一个新版本,除了语言模型升级以外,还悄悄上线了AIGC最火热?的功能—— 文生图。 和语言模型一样,文生图同样可以通过微信小程序直接体验。 不过与Midjourney独立出图不同,混元的文生...
-
腾讯混元大模型再进化,文生图能力重磅上线,这里是一手实测
2023年,大模型的落地按下加速键,文生图便是最火热的应用方向之一。 自从 Stable Diffusion 诞生以来,海内外的文生图大模型不断涌现,一时有「神仙打架」之感。每一次技术迭代,都带来了模型生成效果和速度的飞速提升。 就在今天,腾讯混元大模型也...
-
腾讯混元大模型升级:新增“文生图”,代码能力大幅提升
10月26日,腾讯宣布,腾讯混元大模型迎来全新升级,并正式对外开放“文生图”功能,展示了其在图像自动生成领域的领先能力。升级后的腾讯混元中文能力整体超过GPT3.5,代码能力大幅提升20%,达到业界领先水平。 作为实用级的通用大模型,腾讯混元大模型的应用...
-
度小满自动机器学习平台实践
一、机器学习平台 首先介绍一下度小满机器学习平台的背景、发展过程以及现状。 1、业务场景 度小满是一家金融科技公司,公司内部的业务场景主要分为三个方面: 智能风控:涉及关系数据挖掘、文本数据挖掘、情感分析等 NLP 技术,及人脸识别等 CV 技术。...
-
AMD Ryzen AI 暂仅支持 Windows,Linux 系统有望后续支持
10 月 22 日消息,最新的 AMD Ryzen 7040 系列笔记本电脑配备了基于 Xilinx IP 的专用 AI 引擎,名为“Ryzen AI”,可以加速 PyTorch 和 TensorFlow 等机器学习框架的运行。不过目前这个 Ryz...