-
人工智能时代如何保护人权和民主
近年来,人工智能(AI 系统的受欢迎程度显著提高,尤其是在2023年,随着一种被称为“大型语言模型”(LLM 的特定类型系统的引入,人工智能(AI 系统将成为人们关注的焦点。这类系统的例子包括ChatGPT和Bard。 尽管人工智能技仍在发展中,但很明...
-
研究:人类参与提升了公众对AI的接受度
一项新研究表明,增加人类参与对公共服务中使用的人工智能(AI)可以提高对该技术的接受度。 这项研究发现,市民不仅关心AI的公平性,还担忧潜在的人类偏见。当市民认为行政裁量权过大时,他们支持在公共服务中使用AI。此外,研究人员还发现,市民对AI的知识水平并不...
-
AI玩推理桌游一眼识破骗局!清华通院联合推出心智理论新框架,六个指标评估表现均明显优于思维链
清华自动化系团队联合北京通用人工智能研究院,让几个AI智能体玩起了桌游! 游戏名叫阿瓦隆,是一个策略性的社交推理游戏,玩家被隐秘地分为“正义”与“邪恶”两派,通过任务投票、互相猜测与欺骗来完成或阻止任务,最终确定胜负。 为了能让AI智能体成功识别并应...
-
英国出版协会敦促政府保护版权作品免受AI侵害
英国的四个主要出版协会,包括出版商协会、作者协会、作者授权与收款协会以及作者代理协会,联合发布了一份声明,敦促英国政府采取措施,制止人工智能工具对版权作品的滥用。这份声明是这些出版协会首次就人工智能问题联合发表的声明。 声明发布于周二,正值政府计划于周三...
-
MLCommons宣布成立人工智能安全工作组
人工智能基准组织MLCommons宣布成立人工智能安全(AIS:AI Safety)工作组。AIS将开发一个平台和来自许多贡献者的测试库,以支持不同用例的人工智能安全基准。 人工智能系统为社会提供了巨大利益的潜力,但它们并非没有风险,如有害性、错误信息...
-
Cranium筹集2500万美元 为企业AI提供安全和合规性解决方案
Cranium是一家总部位于新泽西的初创公司,专注于提供企业AI监控、安全和合规性解决方案。最近,该公司宣布成功筹集2500万美元的资金,这一轮融资由Telstra Ventures领投,KPMG LLP和SYN Ventures参与,使Cranium的总...
-
MIT等机构推出数据溯源平台 解决AI领域的数据透明危机
研究人员来自麻省理工学院(MIT)、Cohere for AI以及其他11个机构,他们共同发布了Data Provenance Platform,旨在应对AI领域的数据透明危机。这一平台的推出旨在解决AI模型训练数据集的来源和使用透明度不足的问题,这是当前...
-
斯坦福大学发布 AI 基础模型“透明度指标”,Llama 2 以 54% 居首但“不及格”
10 月 20 日消息,斯坦福大学日前发布了 AI 基础模型“透明度指标”,其中显示指标最高的是 Meta 的 Lama 2,但相关“透明度”也只有 54%,因此研究人员认为,市面上几乎所有 AI 模型,都“缺乏透明度”。 据悉,这一研究是由 HAI...
-
斯坦福公开十大主流模型透明度!Llama 2位列第一,GPT-4透明差,LeCun炮轰:盈利完全理解
GPT-4、Llama等基础模型(FM)相继诞生,已成为当前生成式AI的引擎。 尽管这些FM的社会影响力不断增大,但透明度反而下降。 GPT-4官宣后,OpenAI公布的技术报告中,并未提及关键信息。包括谷歌PaLM,以及其他闭源模型也是如此。 每个人...