-
谷歌AI提出MathWriting:整合人工书写和合成数据集等改变手写数学表达式识别
近年来,在线文本识别模型取得了显著进展,但数学表达(ME)识别作为更为复杂的任务仍未得到足够关注。 谷歌研究团队推出了 MathWriting,一个专注于在线手写数学表达的数据集,包含230k 人工编写和400k 合成样本,超越了类似 IM2LATEX-1...
-
曾秒售罄口袋AI设备Rabbit R1竟是一场骗局?设备源代码首次曝光
美国初创公司rabbit.tech推出的口袋 AI 设备 Rabbit R1曾一度引起轰动,声称该设备能够代替用户执行任务,让用户远离应用程序的束缚。Rabbit首批1万台竟在短短一天内就被抢购一空,其售价为199美元 不过,有开发者在github曝光,...
-
AI成功改写人类DNA,全球首个基因编辑器震撼开源!近5倍蛋白质宇宙LLM全生成
AI,能够重写人类基因组了? 就在刚刚,初创公司Profluent宣布,完全由AI设计的基因编辑器,已经成功编辑了人类细胞中的DNA。 也就是说,世界上首个使用AI从头设计的分子级精确基因编辑器诞生了。 就像ChatGPT能生成诗歌一样,Proflue...
-
研究显示,GPT-4可以自主利用安全漏洞,具备攻击性
每周至少有一次,生成式人工智能都会给我们带来新的恐惧。虽然我们仍在焦急地等待 OpenAI 发布的下一个大型语言模型,但与此同时,GPT-4似乎比你想象的更具备能力。最近的一项研究表明,研究人员展示了 GPT-4可以在没有人类干预的情况下利用网络安全漏洞。...
-
云端部署大模型的三个秘密
编译 | 星璇 出品 | 51CTO技术栈(微信号:blog51cto) 在过去的两年里,我更多地参与了使用大型语言模型(LLMs)的生成式AI项目,而非传统的系统。我开始怀念无服务器云计算。它们的应用范围广泛,从增强对话式AI到为各行各业提供复杂的分...
-
自然语言处理(NLP)的工作原理
本文旨在揭开语言模型的神秘面纱,阐明其处理原始文本数据的基本概念和机制。它涵盖了几种类型的语言模型和大型语言模型,重点关注基于神经网络的模型。 语言模型定义 语言模型专注于生成类似人类的文本的能力。通用语言模型本质上是单词序列的统计模型或概率分布,用于...
-
2024年8个AI商业趋势 最先进的AI模型变得越来越昂贵
斯坦福大学人类中心人工智能研究所发布的2024年人工智能指数,报告揭示了人工智能在商业领域的八大趋势,涵盖了人类优势、成本、监管、投资增长、工作效率提升等方面的关键问题,为企业和决策者提供了重要的参考和启示。 1. 人类在许多任务上仍然优于人工智能 研究表...
-
开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了
虽然大型语言模型(LLM)在各种常见的自然语言处理任务中展现出了优异的性能,但随之而来的幻觉,也揭示了模型在真实性和透明度上仍然存在问题。 在模型生成错误回复内容时,如果能够「深入理解其背后运行机制」,或许可以解决模型的幻觉问题。 然而,随着深度神经网络...
-
一文了解大语言模型(LLM)
人工智能的发展给我们的生活带来很多不一样的体验。面部识别可以解锁设备,激光雷达可以实现自动驾驶。当2023年,OpenApi的chatGPT可以“理解”人类的语言并与我们进行沟通时,大语言模型的概念出现在我们面前。 在自然语言处理领域的大语言模型(La...
-
用AI应对网络安全挑战,思科推出“HyperShield”安全系统
思科日前推出了一款新的安全产品,据称可以利用AI帮助用户保护关键系统。 思科表示,这项名为“HyperShield”的安全系统能够将多个IT资产转换为安全执行点,包括公共云中的虚拟机和Kubernetes集群,使用户能够更容易地阻止应用程序漏洞和黑客入...
-
CIO分享:企业会把自己最好的生成式AI案例保密起来吗?
零售行业不乏生成式AI展现出实实在在好处的案例。以法国跨国公司家乐福为例,他们用生成式AI来制作数字化身和视频。他们让ChatGPT编写脚本,使用其他生成式AI工具来创建一个读取脚本的数字人,这是一个可扩展的过程,至少有一个可衡量的好处:速度。 “突然...
-
集体智慧:LLM预测能力与人群可相互媲美
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 现在,AI系统的预测准确率达到甚至超过了人群。 在不断发展的人工智能(AI)领域,语言模型已取得了重大进展,实现了曾经被认为人类认知...
-
采用OpenAI还是DIY?揭开自托管大型语言模型的真实成本
你自豪地将你的服务标榜为“AI驱动”,通过整合大型语言模型。你的网站首页自豪地展示了你的AI驱动服务带来的革命性影响,通过互动演示和案例研究,这也是你的公司在全球GenAI领域留下的第一个印记。 你的小而忠实的用户基础正在享受提升后的客户体验,并且你可...
-
揭开大型语言模型(LLM)的力量:初创企业如何通过精简集成彻底改变运营方式
大型语言模型(LLM 已成为各种规模企业的游戏规则改变者,但它们对初创企业的影响尤其具有变革性。为了理解其中的原因,让我们来看看初创企业相对于老牌企业有哪些优势,以及为什么AI是它们的重要推动力。 初创企业往往面临预算有限、时间紧迫的局面,即便它们争夺...
-
五种搭建LLM服务的方法和代码示例
在不断发展的大型语言模型(LLMs)领域中,用于支持这些模型的工具和技术正以与模型本身一样快的速度进步。在这篇文章中,我们将总结5种搭建开源大语言模型服务的方法,每种都附带详细的操作步骤,以及各自的优缺点。 1、Anaconda + CPU 我们首先介...
-
阿里云宣布全方位支持Llama 3训练推理 帮助开发者构建自己的大模型
阿里云百炼大模型服务平台近期宣布了一项重要的支持计划,即为Meta公司最新开源的Llama3系列大语言模型提供全方位的支持。这项服务包括限时免费的模型训练、部署和推理服务,旨在帮助企业和开发者在阿里云平台上构建和优化自己的专属大模型。 主要如下: 免费...
-
Linux之父讽刺AI炒作:很搞笑,大概我也会被大模型取代
几天前,由 Linux 基金会主办的北美开源峰会(Open Source Summit North America)在华盛顿西雅图闭幕。 会上,Linux 之父 Linus Torvalds 与其好友、Verizon 开源项目办公室负责人 Dirk Ho...
-
时代2024最具影响力100人:黄仁勋、Bengio、纳德拉 、王传福等人入选
刚刚,《时代》周刊发布了 2024 年度最具影响力的 100 人名单。 在这份名单中,我们看到了很多熟悉的学者和企业家。 微软公司 CEO、董事长萨蒂亚・纳德拉,比亚迪创始人王传福,英伟达创始人兼首席执行官黄仁勋,图灵奖得主 Yoshua Bengio...
-
英特尔构建全球最大的神经形态系统,以促进更可持续的AI
英特尔宣布,已经建造了世界上最大的神经形态系统,代号为Hala Point,这一大规模神经形态系统最初部署在桑迪亚国家实验室,采用英特尔的Loihi 2处理器,旨在支持未来以大脑启发的AI研究,并解决当前AI在效率和可持续性方面的挑战。Hala Po...
-
用百度文库AI,我也能轻松创建漫画、画本?
作为一种受众广泛的艺术形式,漫画的影响力应该不需要我多说什么。 强烈的视觉化和叙事性,让漫画成为无数年轻读者的阅读启蒙,也让无数二十一世纪青年拥有了自己的「漫画梦」。可是要制作出一份能拿得出手的漫画谈何容易,先不论作画水平能不能拿出手,单纯是前期查找资料、...
-
小即是大?HuggingFace CEO预测小模型元年将至,将成为AI的下一个“大事件”
编译 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) 在人工智能领域的竞争中,科技巨头们一直在竞相构建越来越大的语言模型。Scaling Law 信仰随着模型规模的增加,其性能会指数提升,展现出更好的泛化能力,甚至在某些情况下展现出“...
-
微软紧急撤回最先进的AI大模型:居然忘了测试了
快科技4月21日消息,Meta发布超级彪悍的大语言模型Llama 3之后,微软也很快推出了自己的新一代WizardLM2 8x22B,号称迄今最强大,完全超越Claude 3 OpusSonnet、GPT-4等竞品,而且开源,但是马上又把它撤回去了。 没有...
-
EMNLP 2023|利用LLM合成数据训练模型有哪些坑?
大家好,我是HxShine 今天我们将介绍EMNLP2023的一篇大模型(LLMs)生成文本分类任务合成数据的文章,标题是《Synthetic Data Generation with Large Language Models for Text Cla...
-
让玩家全程掌控游戏:自然语言指令驱动的游戏引擎到来了
对于每一位热爱打游戏的人而言,都曾经想过这样一个问题,「这游戏要是我来做就好了!」 可惜的是,游戏开发有很高的门槛,需要专业的编程技巧。 近日,来自上海交大的团队开展了一个名为「Instruction-Driven Game Engine, IDGE」的...
-
再见,AI意识先驱:Daniel Dennett
认知科学和哲学的巨人、塔夫茨大学名誉教授丹尼尔·丹尼特(Daniel Dennett)逝世了,享年82岁。 丹尼特在哲学领域做出了重大的贡献,被称为“进化论四骑士”之一,是近二十年来西方新无神论运动的领军人物。 他的巨作《意识的解释》被认为是心智哲学甚至当...
-
部署本地的大语言模型,只需几分钟!
2023 年是 AI 高速发展的一年,除了功能强大的商用大语言模型之外,也出现了很多不错的开源大语言模型。比如,Llama2、Codellama、Mistral 和 Vicuna 等。虽然商用的大语言模型 ChatGPT、Bard 和 Claude 功...
-
2024谷歌研究学者计划名单公布:清华、北大、上交ACM班等校友在列
2024 年谷歌研究学者计划(Research Scholar Program)获奖名单公布了。获奖者最高将获得 6 万美元奖金,用于支持研究工作。 今年该计划共涉及 12 个领域,包括算法与优化;应用科学;人机交互;健康研究;机器学习和数据挖掘;机器感...
-
蚂蚁集团等发布开源大模型知识抽取框架OneKE
蚂蚁集团和浙江大学合作开发了一个名为 OneKE 的开源大模型知识抽取框架。该框架旨在帮助处理信息抽取、文本数据结构化和知识图谱构建等任务,为研究人员和开发者提供有力工具。 这个框架的作用是从海量数据中提取结构化知识,构建高质量的知识图谱,并建立知识要素之...
-
国内百模谁第一?清华14大LLM最新评测报告出炉,GLM-4、文心4.0站在第一梯队
在2023年的「百模大战」中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题。 尽管国内外存在多个模型能力评测榜单,但它们的质量参差不齐,排名差...
-
自回归超越扩散!北大、字节 VAR 范式解锁视觉生成 Scaling Law
新一代视觉生成范式「VAR: Visual Auto Regressive」视觉自回归来了!使 GPT 风格的自回归模型在图像生成首次超越扩散模型,并观察到与大语言模型相似的 Scaling Laws 缩放定律、Zero-shot Task General...
-
RAG 2.0架构详解:构建端到端检索增强生成系统
关于检索增强生成(RAG)的文章已经有很多了,如果我们能创建出可训练的检索器,或者说整个RAG可以像微调大型语言模型(LLM)那样定制化的话,那肯定能够获得更好的结果。但是当前RAG的问题在于各个子模块之间并没有完全协调,就像一个缝合怪一样,虽然能够工作...
-
提高 RAG 应用准确度,时下流行的 Reranker 了解一下?
检索增强生成(RAG)是一种新兴的 AI 技术栈,通过为大型语言模型(LLM)提供额外的“最新知识”来增强其能力。 基本的 RAG 应用包括四个关键技术组成部分: Embedding 模型:用于将外部文档和用户查询转换成 Embedding 向量...
-
泰勒·斯威夫特新专辑显现关于 AI 生成音乐的大问题
周四,泰勒·斯威夫特以其标志性的方式在 Instagram Story 中发布了链接购买她新专辑《The Tortured Poets Department》中的首支单曲《Fortnight》。这对于斯威夫特来说可能算不了什么,她是世界上最大的录音艺术家之...
-
单篇赚两万,AI写短剧是噱头还是风口?
重生之我用AI写短剧故事。 打开MidReal最新网页版,页面中间偌大的标语写着“What’s your fantasy?(你的幻想是什么?)”和引导用户输入提示词的对话框。 免费体验网页版MidReal链接:https://midreal.ai/ 如果...
-
GPT-4 Turbo重回王座,ChatGPT免费升级!数学暴涨10%/上下文全面碾压
今天起,最新版的GPT-4 Turbo,正式向ChatGPT Plus用户开放了! 图片 有了GPT-4 Turbo加持后,ChatGPT写作、数学、逻辑推理和编码的能力得到提升。 小编小试,果然ChatGPT最新数据已经更新到了4月。 图片 根据基准测...
-
Meta AI 发布开源基准数据集OpenEQA 促进AI代理的 “体验智能”
Meta AI 研究人员今天发布了 OpenEQA,这是一个新的开源基准数据集,旨在衡量人工智能系统对 “体验式问答”(embodied question answering)的能力 —— 这种能力使人工智能系统能够理解现实世界,从而回答有关环境的自然语言...
-
OpenAI新GPT-4 Turbo模型上线:可供付费ChatGPT用户使用
快科技4月12日消息,据媒体报道,OpenAI的全新GPT-4 Turbo模型已全面上线,并正式向付费ChatGPT用户开放。 GPT-4 Turbo更新标志着人工智能领域的又一重要进步,为用户提供了更强大、更高效的文本处理、数学计算、逻辑推理以及编码能力...
-
一文搞懂Tokenization!
语言模型是对文本进行推理,文本通常是字符串形式,但是模型的输入只能是数字,因此需要将文本转换成数字形式。 Tokenization是NLP的基本任务,按照特定需求能把一段连续的文本序列(如句子、段落等)切分为一个字符串序列(如单词、短语、字符、标点等多个...
-
Meta AI推MA-LMM:用于长视频理解的记忆增强多模态大模型
Meta AI近日推出了一种名为MA-LMM的新型模型,旨在解决长期视频理解中的挑战。LLMs在处理文本数据时表现出了令人印象深刻的能力,但在处理视频输入方面存在一些限制,例如上下文长度限制和GPU内存限制。 为了克服这些限制,研究人员提出了MA-LMM,...
-
等等我还没上车!LLM赋能端到端全新范式LeGo-Drive,车速拉满
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者个人理解 这篇论文介绍了一种名为LeGo-Drive的基于视觉语言模型的闭环端到端自动驾驶方法。该方法通过预测目标位置和可微分优化器规划轨迹,实现了从导航指令到目标位置的端到端闭...
-
刚刚,图灵奖揭晓!史上首位数学和计算机最高奖“双料王”出现了
刚刚,“计算机界最高荣誉”图灵奖揭晓—— 复杂性理论先驱、普林斯顿高等研究院教授艾维·维格森(Avi Wigderson 摘得。 美国计算机协会(ACM)表示,表彰他对计算理论的基础性贡献,包括重塑人类对计算中随机性作用的理解,以及数十年来在理论计算机...
-
来自Anthropic:如何衡量大语言模型的说服力?
尽管人们长期以来一直在质疑AI模型是否会在某些时候变得像人类一样具有说服力,从而改变人们的想法,但在模型规模与输出说服力程度之间的关系方面,实证研究一直有限。为了解决这个问题,研究人员开发了一种基本方法来衡量说服力,并将其用于比较三个不同世代(Clau...
-
如何评估大语言模型(LLM)的质量——框架、方法、指标和基准。
在人工智能领域,由于大模型(LLM)技术的发展以及其广阔的市场前景,MaaS 以及开源大模型呈现出百家争鸣的景象。现阶段,大型语言模型的开发和应用已经成为各个领域智能化提升的重要方向。为了利用大模型实现业务和产品的提升或创新,就需要对大模型进行系统的评估...
-
十个大型语言模型(LLM)常见面试问题和答案解析
今天我们来总结以下大型语言模型面试中常问的问题 一、哪种技术有助于减轻基于提示的学习中的偏见? A.微调 Fine-tuning B.数据增强 Data augmentation C.提示校准 Prompt calibration D.梯度裁剪 Gra...
-
为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑
几天前,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」。 llm.c 旨在让大模型(LM)训练变得简单...
-
「大模型+强化学习」最新综述!港中文深圳130余篇论文:详解四条主流技术路线
强化学习(RL)通过与环境交互的试错反馈来优化顺序决策问题。 虽然RL在允许大量试错的复杂电子游戏环境中实现了超越人类的决策能力(例如王者荣耀,Dota 2等),但很难在包含大量自然语言和视觉图像的现实复杂应用中落地,原因包括但不限于:数据获取困难、样本...
-
激发大语言模型空间推理能力:思维可视化提示
大语言模型(LLMs)在语言理解和各种推理任务中展现出令人印象深刻的性能。然而,它们在人类认知的关键一面——空间推理上,仍然未被充分研究。人类具有通过一种被称为 心灵之眼 的过程创造看不见的物体和行为的心智图像的能力,从而使得对未见世界的想象成为可能。...
-
多个SOTA !OV-Uni3DETR:提高3D检测在类别、场景和模态之间的普遍性(清华&港大)
本文经自动驾驶之心公众号授权转载,转载请联系出处。 这篇论文聚焦于3D目标检测的领域,特别是Open-Vocabulary的3D目标检测。在传统的3D目标检测任务中,系统旨在预测真实场景中物体的定向3D边界框和语义类别标签,这通常依赖于点云或RGB图像...
-
使用BERT的LLM提取摘要
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 在当今快节奏的世界里,充斥着太多的信息,并且难以处理。人们越来越习惯于在更短的时间内接收更多的信息,当他们不得不阅读大量的文件或书籍时...
-
探索智能体的边界:AgentQuest,一个全面衡量和提升大型语言模型智能体性能的模块化基准框架
随着大模型的不断进化,LLM智能体——这些强大的算法实体已经展现出解决复杂多步骤推理任务的潜力。从自然语言处理到深度学习,LLM智能体正逐渐成为研究和工业界的焦点,它们不仅能够理解和生成人类语言,还能在多变的环境中制定策略、执行任务,甚至使用API调用和...