-
加量降价!OpenAI推出史上最强ChatGPT,人人可自定义GPT,GPT商店本月上线
很快,GPT系列都将可以通过GPT商店访问。 是的,这是在OpenAI首次举办的首次开发者大会DevDay上,官方亲自宣布的消息。 在旧金山的开发者大会上,除了官宣GPT商店外,OpenAI还表示会有一款更便宜的GPT-4,为开发者在应用程序中的使用...
-
强化学习与多任务推荐
一、短视频推荐两阶段约束强化学习算法 首先介绍的一项快手自研的 WWW 2023 Research Track 工作,主要解决短视频推荐场景下的带约束多目标优化问题。 在短视频推荐单列场景中,用户通过上下滑形式和系统进行交互,观看多个视频。用户对每个...
-
AI视野:xAI首个大模型Grok炸场;李开复官宣开源大模型Yi-34B;ChatGPT原型Gizmo新功能曝光;百度网盘引入大模型智能助理
????大模型动态 李开复官宣全球最强开源大模型Yi-34B 一次可处理40万汉字 零一万物发布全球最强的开源大模型Yi-34B,具备超强的语言理解和处理能力,支持处理40万汉字,在中文指标上表现卓越,标志着中国在大模型领域的重大突破。 项目地址:htt...
-
PubDef:使用公共模型防御迁移攻击
译者 | 布加迪 审校 | 重楼 对抗性攻击对机器学习系统的可靠性和安全性构成了严重威胁。通过对输入进行微小的变动,攻击者就可以导致模型生成完全错误的输出。防御这种攻击是一个很活跃的研究领域,但大多数提议的防御措施都存在重大的缺点。 这篇来自加州大学伯克...
-
AI治理的内容、方式及其产生的原因
自诞生以来,AI一直是一个强大的工具,通过自动化任务和简化操作,构建更好的技术,并使最终用户体验更轻松和更个性化,帮助改善内部运营。虽然AI对社会的影响并不新鲜,但更先进的AI解决方案的崛起引发了人们对这些技术将如何利用的担忧。 AI的繁荣创造了对强大...
-
蚂蚁集团CodeFuse代码大模型开源ModelCache大模型语义缓存
蚂蚁集团旗下CodeFuse 代码大模型宣布开源了 ModelCache 大模型语义缓存,可以降低大型模型应用的推理成本,提升用户体验。 ModelCache 的架构包括 adapter、embedding、similarity 和 data_manage...
-
数据和AI如何重塑当代人力资源实践
今天的人力资源团队的任务是取得平衡。一方面,他们可以利用数据和AI的力量为企业增加价值,另一方面,他们必须在所有流程中保持以人为本,融合技术和以人为本的方法,为应聘者和员工提供增强的人力资源服务。 智能人力资源的兴起 智能人力资源是数据、分析和AI在人...
-
用AI整顿AI?这些检测工具了解了解
自生成式AI创作机器人出现以来,各行各业都开始用来撰写文章甚至学术论文,针对该情况,一些AI内容检测工具也随之诞生,一起看看吧。 1.Copyleaks AI Content Detector https://copyleaks.com/ai-co...
-
生成式 AI 如何支撑当前的 DevOps 和 SRE 工作体系?
Hello folks,我是 Luga,今天我们来聊一下人工智能生态核心技术—— GAI,即 “生成式人工智能” 。 在信息技术(IT)和系统可靠性的不断发展领域中,DevOps(开发和运营)和 SRE (站点可靠性工程)已经成为不可或缺的方法。这些实践...
-
人工智能将面孔识别技术带入动物界:AI 被用来识别鹅的面孔
维也纳大学的生物学家 Sonia Kleindorfer 博士,现任 Konrad Lorenz 行为与认知研究中心主任,最近发起了一项突破性研究。继承了著名的奥地利生物学家 Konrad Lorenz 研究灰雁鹅群行为的遗产,Kleindorfer 博士...
-
国内最大开源模型发布,无条件免费商用!参数650亿,基于2.6万亿token训练
国内规模最大的开源大模型来了: 参数650亿、基于2.6-3.2万亿token训练。 排名仅次于“猎鹰”和“羊驼”,性能媲美GPT3.5,现在就能无条件免费商用。 它就是来自深圳元象公司的XVERSE。 根据算力、资源限制和具体任务需求的不同,我们能对...
-
使用LIME解释各种机器学习模型代码示例
机器学习模型变得越来越复杂和准确,但它们的不透明性仍然是一个重大挑战。理解为什么一个模型会做出特定的预测,对于建立信任和确保它按照预期行事至关重要。在本文中,我们将介绍LIME,并使用它来解释各种常见的模型。 LIME LIME (Local Inter...
-
知乎“知海图AI”大模型开放服务 相关产品将择机上线
知乎宣布,旗下的“知海图AI”大模型即将面向社会公众开放服务。该大模型具备千亿级参数和更强的逻辑推理能力,旨在持续赋能创作者、讨论场、信息获取、内容运营等各项业务场景。 知乎在2023年4月推出了首个中文大模型“知海图AI”,该大模型在成熟大模型CPM-B...
-
给大模型评分的基准靠谱吗?Anthropic来了次大评估
现阶段,大多数围绕人工智能 (AI)对社会影响的讨论可归结为 AI 系统的某些属性,例如真实性、公平性、滥用的可能性等。但现在面临的问题是,许多研究人员并没有完全意识到建立稳健可靠的模型评估是多么困难。当今许多现有的评估套件在各个方面的表现都很有限。 A...
-
AI能理解自己生成的东西吗? 在GPT-4、Midjourney上实验后,有人破案了
从 ChatGPT 到 GPT4,从 DALL・E 2/3 到 Midjourney,生成式 AI 引发了前所未有的全球关注。强大的潜力让人们对 AI 产生了许多期待,但是强大的智能也会引发人们的恐惧和担忧。近期大牛们针对该问题还上演了一场激烈的论战。先...
-
谷歌推出“先进天气预报 AI”MetNet-3,号称预测结果超过传统物理模型
11 月 3 日消息,谷歌研究院与 DeepMind 合作开发了最新的天气模型 MetNet-3,该模型以之前的 MetNet 和 MetNet-2 为基础,能够提前 24 小时,能够对全球天气情况进行高解析度预测,包括降水、表面温度、风速、风向和体感...
-
研究称:向GPT-4等AI模型添加“情感提示词”会提高性能
最新研究发现,当用户表达紧急感或压力等情感时,AI模型如GPT-4可以表现得更好。这一发现对于在其AI应用中的开发者和企业家具有重要意义,提示了一种引入情感语境的新方法,以提高AI性能。 这项研究发现,添加情感因素的提示,被称为“情感提示”,可以提高AI在...
-
SciMatch:AI看相为你找灵魂伴侣 准确率达87%
一款名为SciMatch的应用声称通过"AI+社会科学"的方法,帮助用户找到高度匹配的灵魂伴侣,准确率达到87%。用户只需上传一张自拍照,应用的"A.I.Ruby"算法会分析面部特征,识别性格特质,然后推荐相应的潜在约会对象。这一过程涉及用户的年龄和面部特...
-
自动化测试有哪些缺陷?如何解决?
自动化测试是一种利用软件工具或者硬件设备来代替人工执行测试用例的方法,它可以提高测试效率和质量,但也可能存在一些缺陷,影响测试结果的准确性和可信度。 自动化测试的缺陷主要有以下几点: 自动化测试不能完全替代人工测试:自动化测试只能模拟用户操作和检查功能...
-
「联网」ChatGPT:一个不完美的新闻助手
ChatGPT打破“数据截至2021年”的枷锁,成功连接上网的信息一经发布,便引发媒体圈的好奇与围观。 9月27日,OpenAI公司宣布ChatGPT向付费用户提供互联网浏览版本,付费用户可以通过微软的搜索引擎Bing联网获取最新信息,这打破了ChatGP...
-
人工智能的未来是什么
人工智能(AI 的未来是一个充满潜力和希望的世界,引领我们走向创新、效率和前所未有的进步。当我们站在人工智能驱动时代的悬崖边时,这种变革性技术的能力和应用正在重塑行业、社会和人类互动。让我们深入研究人工智能的全面细节,进一步探索以获得更深入的见解。 人...
-
Nuscenes最新SOTA | DynamicBEV超越PETRv2/BEVDepth!
1. 论文信息 2. 引言 这篇论文介绍了一种新的3D object detection方法,这对于自动驾驶、机器人技术和监控等应用至关重要。传统的3D object detection方法使用鸟瞰视角(BEV)方法,将3D场景简化为2D表示。然而,常...
-
DeepMind曝新一代AlphaFold,预测准确率暴涨近10%!DNA和RNA的AlphaFold时刻来了
就在今天,DeepMind公布了AlphaFold最新进展——「AlphaFold-latest」。 根据DeepMind最新发布的技术报告,新一代的AlphaFold不仅仅能够以更高的准确性处理和预测蛋白质的结构。 ,时长01:32 它还能将相似的能力...
-
研究:人类参与提升了公众对AI的接受度
一项新研究表明,增加人类参与对公共服务中使用的人工智能(AI)可以提高对该技术的接受度。 这项研究发现,市民不仅关心AI的公平性,还担忧潜在的人类偏见。当市民认为行政裁量权过大时,他们支持在公共服务中使用AI。此外,研究人员还发现,市民对AI的知识水平并不...
-
2023年五大惊人的自动化进步
自动化一直是工业和流程转型的推动力,使之更有效率、更具成本效益且更不容易出错。随着我们步入2023年,自动化进步的步伐正在加快,给各个行业带来不可思议的变化。以下是今年值得期待的五大惊人的自动化进步: 1、机器人过程自动化(RPA 与人工智能集成...
-
多模态大模型幻觉降低30%!中科大等提出首个幻觉修正架构「Woodpecker」啄木鸟
视觉幻觉是常见于多模态大语言模型(Multimodal Large Language Models, MLLMs)的一个典型问题。 简单来说就是:模型输出的描述与图片内容不相符。 下图中体现了两种幻觉,红色部分错误地描述了狗的颜色(属性幻觉),蓝色部分描...
-
人工智能教程(一):基础知识
如今,计算机科学领域的学生和从业者绝对有必要了解人工智能artificial intelligence、数据科学data science、机器学习machine learning、深度学习deep learning方面的基本知识。但是应该从哪里开始呢?...
-
海洋工程中的生成式AI:专有数据集不足正限制其实际应用
现代计算正显著改进造船与海洋工程的设计与建造流程,但相当数据集的捉襟见肘正在阻碍其进一步融合。 造船与海洋工程(NAME)这一学科名称可能只有几百年的历史,但其起源却可以追溯至几千年之前的古代文明,当时人类就已经在建造船只来探索世界、开展商业活动。包括...
-
Agent 应用于提示工程
如果Agent模仿了人类在现实世界中的操作方式,那么,能否应用于提示工程即Prompt Engingeering 呢? 从LLM到Prompt Engineering 大型语言模型(LLM 是一种基于Transformer的模型,已经在一个巨大的语料库或...
-
多模态LLM幻觉问题降低30%!业内首个“啄木鸟”免重训方法诞生
还在用指令微调解决多模态大模型的“幻觉”问题吗? 比如下图中模型将橙色柯基错认为“红狗”,还指出周围还有几条。 图片 现在,中科大的一项研究想到了一个全新办法: 一个免重训、即插即用的通用架构,直接从模型给出的错误文本下手,“倒推”出可能出现“幻觉”之处...
-
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构
图神经网络(Graph Neural Networks)已经成为分析和学习图结构数据的强大框架,推动了社交网络分析、推荐系统和生物网络分析等多个领域的进步。 图神经网络的主要优势在于它们能够捕获图数据中固有的结构信息和依赖关系。利用消息传递和聚合机制,图...
-
网络安全中的生物识别技术:加强数据保护
在当今的数字时代,广阔的互联网上不断的信息交换引发了前所未有的网络安全问题。当我们将最敏感的个人数据、金融交易甚至国家安全托付给数字系统时,对强大数据保护的需求比以往任何时候都更加重要。面对不断变化的网络威胁,传统的安全措施往往无法满足要求,例如基于密...
-
自动化时代的网络安全:人工智能如何提供帮助?
自动化和网络安全的挑战 扩大攻击面:自动化引入了一系列互连的设备和系统,扩大了网络犯罪分子的攻击面。这些复杂的攻击可以利用网络和设备上的漏洞。 人工智能在加强网络安全方面的作用 威胁检测和预防:人工智能驱动的算法可以实时分析大量数据集,快速识别异常...
-
DeepMind:谁说卷积网络不如ViT?
深度学习的早期成功可归功于卷积神经网络(ConvNets)的发展。近十年来,ConvNets 主导了计算机视觉基准测试。然而近年来,它们越来越多地被 ViTs(Vision Transformers)所取代。 很多人认为,ConvNets 在小型或中等规...
-
GraphAlign:通过图匹配增强多模态3D目标检测的准确特征对齐
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:GraphAlign: Enhancing Accurate Feature Alignment by Graph matching for Multi-Modal 3D Object Det...
-
Bing AI图片生成器拒绝生成女性的逼真图像,称其“不安全”
微软的Bing AI Image Creator最近引起了关注,因为它似乎拒绝生成逼真的女性图像,声称这些图像不符合其内容政策。这一现象引发了许多讨论,特别是关于AI系统如何处理性别相关问题。 一位名为 u/Arceist_Justin 的用户要求Bing...
-
用检索增强生成技术解决人工智能幻觉问题
作者| Rahul Pradhan 来源| https://www.infoworld.com/article/3708254/addressing-ai-hallucinations-with-retrieval-augmented-generatio...
-
吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室
现在,大模型也学会“吃一堑,长一智”了。 来自香港科技大学和华为诺亚方舟实验室的最新研究发现: 相比于一味规避“有毒”数据,以毒攻毒,干脆给大模型喂点错误文本,再让模型剖析、反思出错的原因,反而能够让模型真正理解“错在哪儿了”,进而避免胡说八道。 具体...
-
35年首次证明,NYU重磅发现登Nature:神经网络具有类人泛化能力,举一反三超GPT-4
【新智元导读】Nature刊登了纽约大学等机构的研究人员在人工智能领域最新突破,证明神经网络具有类似人类语言的泛化性能,再一次印证了AI发展的无限潜力! 35年来,认知科学、人工智能、语言学和哲学领域的研究人员一直在争论神经网络是否能实现类似人类的系统泛...
-
35年首次证明!NYU重磅发现登Nature:神经网络具有类人泛化能力,举一反三超GPT-4
35年来,认知科学、人工智能、语言学和哲学领域的研究人员一直在争论神经网络是否能实现类似人类的系统泛化。 具体来说,人们一直认为,AI无法像人类一样具有「系统泛化(systematic generalization)」能力,不能对没有经过训练的知识做到「...
-
比尔·盖茨:ChatGPT、生成 AI已经达到顶峰,GPT-5不会有太大改进
在接受德国商业报纸 Handelsblatt 采访时,比尔·盖茨表达了对生成式人工智能发展轨迹的担忧。 比尔·盖茨认为,生成式AI如ChatGPT已经在功能上达到了极限,未来的发展将主要集中在完善而不是增加新的主要功能,包括OpenAI的GPT-5在内不会...
-
LexisNexis 推出全面可用的 Lexis+ AI:承诺为法律问题提供「无幻觉」的答案
去年五月,LexisNexis 首次透露了推出 Lexis+ AI 的计划,这是一个新产品,将利用大型语言模型来回答法律研究问题、总结法律问题,并生成法律文档草稿。当时,它限制了对一些同意参与商业预览的 Am Law 50 强律师事务所的可用性。 今天...
-
Anthropic AI 团队研究显示:人工智能倾向于产生迎合用户的奉承性回应而非事实真相
Anthropic 是一家美国的人工智能初创企业和公益公司,由 OpenAI 的前成员创立。Anthropic 专注于开发通用 AI 系统和语言模型,并秉持负责任的 AI 使用理念。Anthropic 开发的 Claude 2 于 2023 年七月推出。...
-
LeCun又双叒唱衰自回归LLM:GPT-4的推理能力非常有限,有两篇论文为证
「任何认为自动回归式 LLM 已经接近人类水平的 AI,或者仅仅需要扩大规模就能达到人类水平的人,都必须读一读这个。AR-LLM 的推理和规划能力非常有限,要解决这个问题,并不是把它们变大、用更多数据进行训练就能解决的。」 一直以来,图灵奖得主 Yan...
-
AI 社交产品Airchat火了 主要以语音为内容载体
近期推出的社交产品Airchat引起了广泛的关注,吸引了许多用户的好奇和兴趣。Airchat是一款有AI大模型加成的社交产品,创始人之一是硅谷著名投资人纳瓦尔。这款产品在朋友圈和产品群中引起了热议,让人们对这个新的AI社交产品产生浓厚兴趣。 Airchat...
-
UniPAD:自动驾驶通用预训练范式来了!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 UNIPAD:自动驾驶通用预训练范式 原标题:UNIPAD: A UNIVERSAL PRE-TRAINING PARADIGM FOR AUTONOMOUS DRIVING 论文链接:https:/...
-
元象 XVERSE 与腾讯音乐推出 lyraXVERSE 加速大模型
元象 XVERSE 与腾讯音乐合作推出 lyraXVERSE 加速大模型,将应用于音乐助手 “AI 小琴” 中。 用户可以通过点击 QQ 音乐上的 “AI 一起听” 按键来与升级版的 “AI 小琴” 互动,她将根据用户的提问、播放习惯和心情提供闲聊、推歌、...
-
最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力
在长文本场景中,ChatGPT等大语言模型经常面临更高算力成本、更长的延迟以及更差的性能。为了解决这三大难题,微软开源了LongLLMLingua。 据悉,LongLLMLingua的核心技术原理是将“文本提示”实现最高20倍的极限压缩,同时又可以准确评估...
-
八款旨在窃取数据的假冒ChatGPT恶意应用
译者 | 陈峻 审校 | 重楼 目前,人们已开始逐渐习惯于借助ChatGPT开展各种日常工作,包括:搜寻答案、生成图文内容、解释复杂概念、以及编写程序代码等。不过,相对付费版本,免费版聊天机器人的局限性,往往体现在答复的准确性和时间延迟上。而恶意行为者已...
-
数据分析和机器学习的11个高级可视化图表介绍
可视化是一种强大的工具,用于以直观和可理解的方式传达复杂的数据模式和关系。它们在数据分析中发挥着至关重要的作用,提供了通常难以从原始数据或传统数字表示中辨别出来的见解。 可视化对于理解复杂的数据模式和关系至关重要,我们将介绍11个最重要和必须知道的图表,...