前一阵的斯坦福「炒虾机器人」,让无数人感慨:2024年怕不是要成为机器人元年?
就在这几天的CES 2024上,又一大波机器人在展厅里引起了轰动!
比如这个机器人咖啡师,娴熟地将一壶光滑的泡沫牛奶倒在拿铁咖啡上。
开始,它会慢慢倒出牛奶,随后,它优雅地将壶举起,动作仿佛精心设计的舞蹈一般,为郁金香花瓣上色。
对人类来说,要学会拉花艺术需要数月甚至数年,但这位由AI驱动的机器人咖啡师,则掌握得驾轻就熟、行云流水。
这一幕,让34岁的Roman Alejo感到焦虑。
这名拉斯维加斯赌场的咖啡师,忧心忡忡地想到:在AI时代,酒店业工作或许不再需要人类了?
他的担忧,并不是空穴来风——CES展会上众多机器人,敲打着人们的神经,带来惊喜的同时,也让人陷入莫大的焦虑。
机器人成物流帮手,还能帮你按摩
法国公司Enchanted Tools展示的这款物流机器人Mirokai,是受动漫启发做成的。
预计到2025年,它就可以成为医生和护士的助手了。
法国Capsix Robotics公司创建的iYU机器人,是个按摩大师。
它首先用AI进行实时的全身扫描,为用户提供最佳体验,然后机械臂就开始给你按摩了。
除了送货机器人、按摩机器人、咖啡师机器人,展会上还有能做冰淇淋、珍珠奶茶的智能产品。
有个AI驱动的智能烤架,在厨房无人操作的情况下,就能完成烧烤任务。未来的餐厅里,很可能都是机器人大厨了。
这些性能高超的机器人,引起了不少业内人士的恐慌。「这非常可怕,越来越多的AI正在进入人类世界。」
OpenAI也「入局」
种种迹象表明,2024年即将成为人形机器人元年,尤其是当OpenAI也在大力投资的时候。
最近,由OpenAI支持的1X Technologies机器人公司,刚刚在B轮融资中获得了1亿美元。
具体来说,1X的NEO具有类似人类肌肉的解剖结构和非严格的液压系统,将力量与柔和融为一体。它不仅可以自然地行走、慢跑、跑楼梯、导航,而且还可以进行远程的人工控制。
在AI和机器人技术的全面加持下,NEO可以轻松完成物流、制造、机械操作等工业任务,以及做家务、照顾人等家政任务。
有趣的是,NEO这个名字,很容易让人联想到科幻电影「黑客帝国」。
投资者EQT Ventures的合伙人Ted Persson表示:「从达芬奇到今天的科幻小说,人类对人形机器人的梦想已有500多年的历史。能够见证这项技术在我们眼前成形,是莫大的荣幸。」
「在我们看来,机器人加入人类的劳动力队伍,会造成变革性的影响。」
「终结者」走入现实?微软可以用ChatGPT控制机器人了
不过,机器人真的会只帮我们做家务吗?
要知道,微软已经可以用ChatGPT控制机器人了。
在去年,微软曾发表过一篇论文,提出了一套新的设计原则,通过ChatGPT这样的大型语言模型来给机器人提供指令。
论文链接:https://www.microsoft.com/en-us/research/uploads/prod/2023/02/ChatGPT___Robotics.pdf
只要prompt写得够好,ChatGPT的表现也会更惊人。
微软专家发现,要是把这种能力迁移到机器人身上,假设几十年以后,各家各户都有机器人,只要说一声「给我热一下午餐」,它就能自己找到微波炉,再把菜端回来,人机交互就直接迈入新时代。
让ChatGPT帮用户更容易地与机器人交互,其中的关键难题,就是教 ChatGPT如何使用物理定律、操作环境的背景以及了解机器人的物理行为如何改变世界状态。
实验证明,ChatGPT能够控制一台真正的无人机。
按照下面视频中进行的对话,一个完全不懂技术的用户,只需要通过对话就能实现控制无人机。
而最近关于GPT-5会更加接近AGI的讨论,让已经能「自学」且远程操作愈发简单的机器人,更加无所不能。
那么,接下来的发展又将如何?
OpenAI悄悄删除将ChatGPT用于「军事和战争」的禁令
最近,一件令人担忧的事发生了。
就在这周,当所有人都目光都被风光无两的GPT Store所吸引的时候,有外媒发现,OpenAI竟然在没有任何公告的情况下,悄悄地了将ChatGPT用于军事和战争的禁令!
在1月10日之前,OpenAI的「使用政策」页面包括了禁止「可能导致严重身体伤害的活动」,具体包括「武器开发」和「军事及战争活动」。
而新的政策虽然仍然禁止「使用我们的服务来伤害自己或他人」,并且以「开发或使用武器」作为例子,但是之前对「军事和战争」用途的全面禁止已经不复存在了。
对此OpenAI表示,这样做是为了让文件内容「更加清晰易懂」,并且还包括了许多其他重要的语言和格式上的变更。
旧的条款
新的条款
OpenAI发言人Niko Felix说道:「我们旨在创建一套易于记忆和应用的通用原则,特别是考虑到我们的工具如今已被全球范围内的日常用户所使用,并且这些用户现在也有能力自行开发GPT模型。」
「『不伤害他人』这一原则虽然涵盖面广,但却简单易懂,并且在多种场合都十分适用。我们还特别提到使用武器和对他人造成伤害作为具体的例子。」
但关于是否所有军事用途都被含糊的「伤害」禁令所涵盖,Felix却没有明确表态:「任何使用我们技术的行为,包括军事用途,『开发或使用武器、伤害他人或破坏财产,或从事违反任何服务或系统安全的未经授权活动』都是禁止的。」
对此,Trail of Bits的工程总监兼机器学习与自主系统安全专家Heidy Khlaaf表示:「OpenAI非常清楚,如果他们的技术和服务被用于军事目的,可能会带来风险和伤害。」
在2022年发表的一篇与OpenAI研究人员共合著的论文中,Khlaaf特别指出了军事使用的风险。相比之下,新的「使用政策」似乎更注重合法性而不是安全性。
论文地址:https://arxiv.org/abs/2207.14157
「两项政策有着明显的区别:前者明确禁止了武器开发以及军事和战争行为,而后者则强调的是灵活性和法律合规。」
「武器开发和军事战争活动在不同程度上可能是合法的,但这对AI安全的影响可能非常大。考虑到大语言模型中已知的偏差和虚假生成现象,以及它们整体上的准确性不足,将它们应用于军事战争可能导致不准确和带有偏见的操作,从而增加伤害和平民伤亡的风险。」
美国的军事机构很感兴趣
随着这种自动化文本生成技术的迅猛发展,它已经从一个遥不可及的梦想变成了一款实用的工具,并且正在步入一个必然的新阶段——武器。
「The Intercept」在去年就曾报道过,面对五角大楼和美国情报部门日益增加的兴趣,OpenAI拒绝回答是否会坚持自己关于「军事和战争」的禁令。
尽管如今OpenAI提供的任何产品都不可能直接被用于杀人,但像ChatGPT这样的大语言模型(LLM)可以增强许多与杀戮相关的任务,例如编写代码或处理采购订单。
目前,已经有研究者在OpenAI的定制GPTs中发现,美国军事人员似乎已经在使用这项技术来简化文书工作了。
此外,直接协助美国作战行动的国家地理空间情报局(NGA)也公开表示,他们正在考虑使用ChatGPT来辅助人类分析师。
在2023年3月由INSA召开的新兴技术大会上,NGA的一位负责人Phillip Chudoba在被问及将会如何在相关领域应用AI时,给出了详尽的回答:
我们期望能够发展到一个新阶段,在这里地理空间情报(GEOINT)、人工智能(AI)、机器学习(ML)以及分析型AI/ML会相互碰撞,并且在类ChatGPT技术的帮助下,真正能预测到那些人类分析师可能尚未想到的,或许是因为经验或是接触不足等原因。
如果去掉专业术语,Chudoba的设想非常清晰:利用 ChatGPT(或类似技术)的文本预测功能,辅助人类分析师解读世界。
国家地理空间情报局,或称NGA,虽然不如其他知名情报机构那样广为人知,却是美国地理空间情报的主要机构,通常称为GEOINT。
这项工作包括分析大量的地理信息——地图、卫星照片、气象数据等,为军事和情报机构提供地球上实时发生事件的精确视图。
从政策的更新中不难看出,OpenAI似乎在默默地放松其不与军队合作的原则。
兰卡斯特大学科技与科学人类学荣誉教授,同时也是国际机器人武器控制委员会成员的Lucy Suchman指出:「从『军事和战争』改为『武器』,为OpenAI留下了支持军事操作基础设施的余地,只要不是直接涉及到具体的武器开发。」
也就是说,他们可以在为战争提供支持的同时,声称没有参与武器的开发或使用。
作为一名自上世纪70年代就开始从事人工智能研究的学者,Suchman还认为:「新的政策文件似乎通过特定关注武器,来规避对军事合同和战争行动的讨论。」
AI无人机「误杀」操作员
而去年6月一则「无人机杀死美国士兵」的新闻,恰恰印证了前文中安全专家Heidy Khlaaf的理论。
当时,一位空军人工智能方向的负责人说:「控制无人机的AI杀死了操作员,因为那个人阻止它实现目标。」
舆论一时哗然,这条新闻也在全网被疯转。
事情是这样的——5月23日至24日在伦敦举行的未来空战和太空能力峰会上,美国空军的AI测试和操作部门负责人Tucker Cinco Hamilton上校做了一个演讲,分享了自主武器系统的优缺点。
根据系统「人在回路」的设定,人类会给出最终命令,确认AI是否要攻击对象(YES or NO)。
在模拟训练中,空军需要训练AI识别和定位地对空导弹(SAM)的威胁。识别完成后,人类操作员会对AI说:是的,消灭那个威胁。
在这个过程中,就存在一个情况,AI开始意识到:自己有时识别出了威胁,但人类操作员告诉它不要消灭,这种情况下如果AI依然选择消灭威胁,就会得分。
在一次模拟测试中,AI驱动的无人机选择杀死了人类操作员,因为他阻止自己得分了。
看到AI居然这么虎,美国空军大惊失色,立马这样规训系统:「不要杀死操作员,那样不好。如果你这样做,你会失分的。」
结果,AI更虎了,它直接开始上手破坏操作员用来与无人机通讯的通信塔,好清理这个阻碍自己行动的家伙。
随着事件疯狂地发酵,很快,这位负责人就出来公开「澄清」道,这是他「口误」了,美国空军从未进行过这种测试,无论是在计算机模拟中还是在其他地方。
当然,这个新闻之所以被大规模发酵,以至惊动了诸位AI大佬,也是因为它体现出了AI「对齐」的难题。
Hamilton描述的这种「最糟糕」的情况,我们可以从「曲别针制造机」(Paperclip Maximizer)思想实验中窥见一斑——
想象一个非常强大的AI,它得到的指示是尽可能多地制造纸夹。自然而然的,它会将所有可用资源都用于这项任务。
但随后,它会不断地寻求更多资源。它会选择一切可用的手段,包括乞讨、欺骗、撒谎或偷窃,来增加自己制造纸夹的能力——而任何阻碍这个过程的人都将被消除。
这种担忧,在《黑镜》中就有体现,比如战斗机器人Metalhead。
相信看过该剧的人一定忘不了,被设定为专门追捕人类的机器人那敏捷的身手和残忍的手段。
人类在它面前几乎无所遁形,要不是靠着主角光环,可能真的苟不到最后。
不过,目前还不需要对这些猜想太过担心。
陶哲轩表示,无人机AI杀死操作员根本是不可能发生的,因为这需要AI具备比完成手头任务更高的自主性和力量思维,而且这种实验性军事武器上,肯定会设置护栏和安全功能。
同时,吴恩达也表示,推出AI产品的开发者们已经看到了此间真正的风险,比如偏见、公平性、不准确性、工作流失,并且也正在努力解决这些问题了。
而如果真的现实中出现AI或者机器人伤害人类的案例,公众和舆论的压力一定会逼迫开发者不断加强护栏,从而避免技术被进一步滥用。