-
网络安全领域的12个大语言模型用例
网络安全是人工智能最大的细分市场,过去几年网络安全厂商纷纷宣称整合了人工智能技术(当然也有很多仅仅是炒作),其中大部分是基于基线和统计异常的机器学习。 随着ChatGPT和类似生成式人工智能技术的飞速发展,基于大语言模型的生成式人工智能安全用例已经成为...
-
AI视野:OpenAI官宣奥特曼回归;元象推出3D拍摄与混合编辑插件工具;百度灵医大模型将接入孚宝机器人;together.ai融资7.3亿元
???AI新鲜事 OpenAI官宣Sam Altman回归担任CEO OpenAI正式宣布Sam Altman回归担任CEO,Mira Murati将回到CTO职位,新的董事会由Bret Taylor、Larry Summers和Adam D'Angelo...
-
肯睿Cloudera:2024年生成式AI及云领域的五大趋势预测
就在十二个月前,“生成式设计人工智能”还处于Gartner新兴技术成熟度曲线的边缘;而如今,Gartner认为“生成式人工智能”(生成式AI)已接近期望膨胀期的顶峰。 生成式AI的优势令人趋之若鹜且影响深远。分析师认为它将影响各个主要行业和工作岗位。麦肯...
-
联手英伟达、ChatGPT 最强竞品 Claude,亚马逊云科技开启生成式 AI 大决战
2000年,亚马逊带着“网络就是计算机”疑惑,懵懂地叩开了云计算的大门,在其电子商务网站初尝试后,成功推出 S3(Simple Storage Service)和 EC2(Elastic Cloud Computer 产品,自此高歌猛进,将云计算正式带入大...
-
22LLMSecEval数据集及其在评估大模型代码安全中的应用:GPT3和Codex根据LLMSecEval的提示生成代码和代码补全,CodeQL进行安全评估【网安AIGC专题11.22】
LLMSecEval: A Dataset of Natural Language Prompts for Security Evaluations 写在最前面 主要工作 课堂讨论 大模型和密码方向(没做,只是一个idea) 相关研究 提示集目...
-
深度求索开源DeepSeek LLM 67B大模型 无需申请免费商用
深度求索发布了一个67B 的大模型,名为 DeepSeek LLM67B。这个模型完全开源,可以通过访问 chat.deepseek.com 来使用。 DeepSeek LLM67B 在公开评测榜单上表现良好,特别是在推理、数学和编程能力方面。DeepS...
-
使用 RLHF 训练 LLaMA 的实践指南:StackLLaMA
由于LLaMA没有使用RLHF,后来有一个初创公司 Nebuly AI使用LangChain agent生成的数据集对LLaMA模型使用了RLHF进行学习,得到了ChatLLaMA模型,详情请参考:Meta开源的LLaMA性能真如论文所述吗?如果增加RLH...
-
谷歌已利用 DeepMind AI 对数千种新材料进行了分析预测
IT之家 11 月 30 日消息,谷歌旗下的 DeepMind 利用人工智能(AI)预测了超过 200 万种新材料的结构,该公司表示这一突破性成果将推动现实世界的技术改进。 其相关研究成果已经在当地时间周三以题《An autonomous labora...
-
使用LLM插件从命令行访问Llama 2
大家好,最近的一个大新闻是Meta AI推出了新的开源授权的大型语言模型Llama 2,这是一项非常重要的进展。Facebook最初的LLaMA模型于今年2月发布,掀起了开源LLM领域的创新浪潮——从微调变体到从零开始的再创造。 如果在Llama 2版本...
-
Llama 2 来袭 - 在 Hugging Face 上玩转它
? 宝子们可以戳 阅读原文 查看文中所有的外部链接哟! 引言 今天,Meta 发布了 Llama 2,其包含了一系列最先进的开放大语言模型,我们很高兴能够将其全面集成入 Hugging Face,并全力支持其发布。Llama 2...
-
AI 生成图片著作权侵权第一案一审宣判:涉案 AI 图被认定为作品
IT之家 11 月 29 日消息,今年 8 月 24 日,一起与“AI 文生图”相关的著作权案在北京互联网法院公开审理,近日该案的一审判决出炉,法院判决原告享有涉案图片的著作权,被告行为构成侵权,应当承担相应的法律责任。截至目前,该案为 AI 生成图片...
-
xAI Grok什么时候开始内测 内测资格申请入口
xAI Grok是一款由xAI公司开发的基于大型语言模型(LLM)的对话生成人工智能聊天机器人。它是埃隆·马斯克为了应对他曾经共同创立的OpenAI的ChatGPT而发起的一个项目。这款聊天机器人宣称“具有幽默感”,并且可以直接访问X的实时信息。那么xAI...
-
GenAI安全:如何防止Microsoft Copilot发生数据泄露
微软的Copilot被称为世界上最强大的生产力工具之一。 Copilot是一个AI助手,它位于你的每个Microsoft 365应用程序中-Word、Excel、PowerPoint、Teams、Outlook等。微软的梦想是从日常工作中解脱出来,让...
-
亚马逊AWS欲在GenAI领域和微软展开竞争
在周一接受VentureBeat采访时,亚马逊AWS负责数据和AI的副总裁斯瓦米·西瓦苏布拉曼尼亚负责监管所有AWS数据库、分析、ML和GenAI服务,他概述了周三上午的主旨演讲和周二上午AWS首席执行官亚当·塞利普斯基的主旨演讲。 他说,围绕GenA...
-
微软推出跨平台框架 ML.NET 3.0 版本:强化深度学习功能、加强 AI 计算效率
IT之家 11 月 29 日消息,微软日前宣布推出跨平台机器学习框架 ML.NET 3.0,主要强化了深度学习功能,改进 ML.NET 数据处理能力,并添加了英特尔 oneDAL 加速训练技术,以及自动机器学习等功能。 ▲ 图源微软 IT之家注意到,M...
-
GAIA基准测试揭示人类胜过GPT-4的惊人差距
近日,来自FAIR Meta、HuggingFace、AutoGPT和GenAI Meta的研究人员共同致力于解决通用人工智能助手在处理需要基本技能,如推理和多模态处理的现实问题上所面临的挑战。他们推出了GAIA,这是一个旨在通过定位人类级别的鲁棒性来实现...
-
亚马逊推出 AI 编程工具 CodeWhisperer 正式版,可检测代码中存在的漏洞
IT之家 11 月 29 日消息,亚马逊在去年 6 月推出了 AI 编程工具 CodeWhisperer 的预览版,而在今日的“AWS re:Invent 2023”活动中,亚马逊公布了 CodeWhisperer 的正式版本。 亚马逊声称,开发人员经...
-
大模型部署实战(一)——Ziya-LLaMA-13B
❤️觉得内容不错的话,欢迎点赞收藏加关注???,后续会继续输入更多优质内容❤️ ?有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)? 博主原文链接:https://www.yo...
-
北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务
训完130亿参数通用视觉语言大模型,只需3天! 北大和中山大学团队又出招了——在最新研究中,研究团队提出了一种构建统一的图片和视频表征的框架。 利用这种框架,可以大大减少VLM(视觉语言大模型)在训练和推理过程中的开销。 具体而言,团队按照提出的新框架...
-
训练130亿大模型仅3天,北大提出Chat-UniVi统一图片和视频理解
论文地址:https://arxiv.org/pdf/2311.08046.pdf GitHub 地址:https://github.com/PKU-YuanGroup/Chat-UniVi Huggingface 地址:https://huggi...
-
研究人员发布Starling-7B:基于AI反馈的大语言模型 媲美GPT-3.5
UC伯克利的研究人员最近发布了Starling-7B,这是一款基于AI反馈强化学习(RLAIF)的开放式大语言模型(LLM 。该模型基于精调的Openchat3.5,并继承了Mistral-7B的特性。 在RLAIF中,研究人员借助其他AI模型的反馈来训练...
-
伯克利分校推开放大模型Starling-7B 接受人工智能反馈训练
加州大学伯克利分校的研究人员推出了一款名为Starling-7B的开放式大型语言模型(LLM),采用了一种称为Reinforcement Learning from AI Feedback(RLAIF 的创新训练方法。 RLAIF的独特之处在于利用其他人...
-
Code Llama系列教程之 微调 CodeLlama 34B 以进行聊天(打造自己的代码AI)
虽然 Meta 的 Llama2 在 AI 领域引起了广泛关注,但 34b 模型却缺席了相当长一段时间。对于许多人来说,这个 34b 模型是运行本地 LLM 的理想选择,因为它与使用 4 位量化的单个 4090 GPU 兼容。我一直在热切地等待 Meta...
-
【网安AIGC专题】46篇前沿代码大模型论文、24篇论文阅读笔记汇总
网安AIGC专题 写在最前面 一些碎碎念 课程简介 0、课程导论 1、应用 - 代码生成 2、应用 - 漏洞检测 3、应用 - 程序修复 4、应用 - 生成测试 5、应用 - 其他 6、模型介绍 7、模型增强 8、数据集 9、模型安全...
-
Visual chatgpt多模态大模型的前菜
刚开始感觉这就是一篇工程类文章,把各种的模型做了整合,把最近很热的两个方向chatgpt和文本生成图、图文提问整合在一起。看完文章发现自己太自傲了,绝对轻视了微软亚研院大佬们的实力。 表面看起来这是一个用chatgpt做意图理解、对话管理,然后用...
-
大模型之Bloom&LLAMA----RHLF(强化学习)
0. 简介 随着chatgpt的爆火,最近也有很多大模型在不断地出现,比如说Bloom系列以及以LLAMA为基础的ziya和baichuan。这些模型相较于chatglm来说,更加具有发展前景,因为其是完全可商用,并可以不断迭代更新的。最近作者在跟着h...
-
Meta提出全新注意力机制S2A 大模型准确率提升至80.3%
在2023科技领域,大语言模型(LLM)的应用日益广泛,但其在回答问题时存在的问题引起了关注。Meta团队提出的新注意力机制S2A通过解决LLM容易受到上下文虚假相关性的问题,显著提升了模型的准确性和客观性。这一机制的提出得到了深度学习领域的重要人物LeC...
-
一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉
2023的科技界,可以说是被大模型抢尽了风头(虚假的室温超导除外)。 我们经历了和LLM对话,见证了它们逐渐进入各个领域,甚至开始感受到威胁。 这一切,仅仅发生在一年之内。 当然了,基于大语言模型的原理,它诞生之时就有的一些毛病到现在也没有完全改正。 比...
-
通过 Amazon SageMaker JumpStart 部署 Llama 2 快速构建专属 LLM 应用
来自 Meta 的 Llama 2 基础模型现已在 Amazon SageMaker JumpStart 中提供。我们可以通过使用 Amazon SageMaker JumpStart 快速部署 Llama 2 模型,并且结合开源 UI 工具...
-
基于元算法的通用框架,用于无监督学习问题
11 月 13 日,微软研究院(Microsoft Research)和普林斯顿大学研究人员,提出了一个通用框架,用于设计无监督学习问题的有效算法,如高斯分布和子空间聚类的混合。 研究人员所提的框架在解决噪声问题上,使用了一种下界学习计算公式的元算法。...
-
TS版LangChain实战:基于文档的增强检索(RAG) | 京东云技术团队
LangChain LangChain是一个以 LLM (大语言模型)模型为核心的开发框架,LangChain的主要特性: 可以连接多种数据源,比如网页链接、本地PDF文件、向量数据库等 允许语言模型与其环境交互 封装了Model I/O(输...
-
自带 AI 生图,微软现已为 Windows 11 画图 App 引入 DALL-E 3 集成
IT之家 11 月 28 日消息,微软现已开始向所有 Windows 11 用户推送集成 DALL-E 3 的“画图”应用。 IT之家注:DALL-E 模型是 OpenAI 开发的图片生成模型,此前已在微软 Bing 的图像生成功能中使用。 得益于 D...
-
IDEA提出ToG思维图谱 大模型性能提升214%!
近期,由IDEA研究院、微软亚洲研究院、香港科技大学等多方研究团队合作推出的Think-on-Graph技术,在深度推理领域掀起了一场革新。这一技术通过紧耦合大模型(LLM)与知识图谱(KG ,成功弥补了大模型在金融、法律、医疗等领域幻觉问题上的能力短板。...
-
谷歌向印度BharatGPT投资400万美元 支持130多种语言
印度初创公司CoRover.ai近日成为Google重点投资对象,计划获得400万美元的资金支持。CoRover.ai是印度的人工智能工作室,推出了基于大型语言模型(LLM)的人工智能解决方案BharatGPT。这一举措被认为是印度在人工智能领域挑战Ope...
-
谷歌:LLM找不到推理错误,但能纠正它
今年,大型语言模型(LLM)成为 AI 领域关注的焦点。LLM 在各种自然语言处理(NLP)任务上取得了显著的进展,在推理方面的突破尤其令人惊艳。但在复杂的推理任务上,LLM 的表现仍然欠佳。 那么,LLM 能否判断出自己的推理存在错误?最近,剑桥大学和...
-
中文版LLaMA:Chinese-LLaMA-Alpaca
GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs 以ChatGPT、GP...
-
解锁大语言模型“黑匣子”
自从大约10年前深度学习模型开始获得关注以来,人工智能的黑匣子问题就一直存在。但现在我们处于后ChatGPT时代,旧金山初创公司Watchful希望提高大型语言模型的透明度。 Watchful联合创始人兼首席执行官Shayan Mohanty说:“当人...
-
PubMedBERT:生物医学自然语言处理领域的特定预训练模型
今年大语言模型的快速发展导致像BERT这样的模型都可以称作“小”模型了。Kaggle LLM比赛LLM Science Exam 的第四名就只用了deberta,这可以说是一个非常好的成绩了。所以说在特定的领域或者需求中,大语言模型并不一定就是最优的解决...
-
LLMLingua:集成LlamaIndex,对提示进行压缩,提供大语言模型的高效推理
大型语言模型(llm 的出现刺激了多个领域的创新。但是在思维链(CoT 提示和情境学习(ICL 等策略的驱动下,提示的复杂性不断增加,这给计算带来了挑战。这些冗长的提示需要大量的资源来进行推理,因此需要高效的解决方案,本文将介绍LLMLingua与专有的...
-
超级AI不会主宰人类,但人工智能必须开源!LeCun最新采访引全网300万人围观
LeCun一段近5分的视频,引起了全网300+万人的关注。 视频中,他再次重提对开源人工智能的几点看法: - 未来将出现超越人类智能的人工智能 - 这些人工智能将受到我们的控制 - 它们不会成为我们的主宰,也不会对我们构成威胁 - 它们将成为我们与数字...
-
Inflection推Inflection-2:号称全球计算级别最佳AI模型及全球第二最强大LLM
Inflection AI最近推出的语言模型Inflection-2,被宣称为全球计算级别最佳的AI模型,位列全球第二最强大的大型语言模型(LLM),仅次于OpenAI的最新模型。这一创新的AI模型的开发是为了满足对能够在各种任务中理解和生成类似人类文本的...
-
疑似威胁人类?OpenAI神秘Q*项目更多信息曝光,马斯克、Lecun下场争论…
夕小瑶科技说 原创 作者 | 王二狗大家好我是二狗 随着前天 OpenAI 官宣 Sam Altman 将回归,并继续担 CEO,OpenAI“宫斗事件”已经告一段落了。 然而,对于专业吃瓜的二狗来说,有一个核心问题还是没有搞明白: Sam Altman...
-
OpenAI内乱之害远未止
继OpenAI最近的争议后,AI工程师和公司开始减少乃至完全摆脱对其API的依赖。 译自Pivot! AI Devs Move to Switch LLMs, Reduce OpenAI Dependency,作者 Richard MacManus 是...
-
炸裂!本地部署,轻松切换多个 AI 模型
周末一直在耍 AI 本地部署个人知识库,基本都是基于 OpenAI 的开放接口进行封装,亦或者你本地部署自己部署一个小模型。 感觉这两个要求对小白玩家都太高了,一个要求有科学上网能力,一个要求你电脑带高端显卡能够本地部署。 今天给大家带来一个炸裂产品gp...
-
如何使用GPTQ量化使LLM更轻
译者 | 李睿 审校 | 重楼 大型语言模型(LLM 应用的一大挑战是其耗费巨大的内存和计算需求,通常需要数十GB的GPU内存。这使得它们不仅昂贵而且难以运行。 为了缓解这些问题,研究人员开发了几种LLM压缩技术,其中包括“量化”。量化通过改变参数的存...
-
Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4
【新智元导读】大模型能否理解自己所说,Hinton和LeCun再次吵起来了。LeCun新论文证明,GPT-4回答问题准确率仅为15%,自回归模型不及人类。 AI大佬的激战再次掀起。 Hinton在线直接点名LeCun,说他对AI接管风险的看法对人类的影响微...
-
Open Vocabulary Detection 开放世界目标检测竞赛 2023获胜团队方案分享
OVD技术简介 目标检测是计算机视觉领域中的一项核心任务,其主要目标是让计算机能够自动识别图片中目标的类别,并准确标示每个目标的位置。目前,主流的目标检测方法主要针对闭集目标的开发,即在任务开始之前需要对待检测目标进行类别定义,并进行人工数据标注,通...
-
LLMs之Code:大语言模型纵向赋能场景—垂直行业场景应用之大模型代码场景的简介、主流LLMs(SQLCoder/Code Llama/Ziya-Coding/CodeShell等)及其评估
LLMs之Code:大语言模型纵向赋能场景—垂直行业场景应用之大模型代码场景的简介、主流LLMs(SQLCoder/Code Llama/Ziya-Coding/CodeShell等 及其评估基准(包括数据集 、案例应用之详细攻略 目录 大模...
-
使用 LoRA 技术对 LLaMA 65B 大模型进行微调及推理
前几天,Meta 发布了 LIMA 大模型,在LLaMA-65B的基础上,无需使用 RLHF,只用了 1000 个精心准备的样本数据进行微调,就达到了和 GPT-4 相媲美的程度。这激发了我探索 LLaMA 65B 大模型的兴趣。 之前的一系列大模型相...
-
Llama 2 论文《Llama 2: Open Foundation and Fine-Tuned Chat Models》阅读笔记
文章目录 Llama 2: Open Foundation and Fine-Tuned Chat Models 1.简介 2.预训练 2.1 预训练数据 2.2 训练详情 2.3 LLAMA 2 预训练模型评估 3. 微调 3.1 s...