当前位置:AIGC资讯 > AIGC > 正文

Google Bard的Gemini Pro最新升级;Nomic Embed: 开源文本嵌入模型

? AI新闻

? Google Bard的Gemini Pro最新升级

摘要:Bard现在可以在超过40种语言和230多个国家和地区使用Gemini Pro,提供更强大的理解、推理、总结和编码能力。
Bard的双重检查功能将扩展到40多种语言,用户可以点击“G”图标来验证Bard的回复,并查看网络上支持或反驳信息。
用户现在可以在Bard中免费生成图片,只需输入描述,如“创建一张狗骑着冲浪板的图片”,Bard将生成视觉效果丰富的图片,同时使用SynthID技术嵌入数字水印以确保图像的来源可追溯。

https://bard.google.com/

? OpenAI推出“对话中调用自定义聊天机器人”的新功能

摘要:OpenAI最近在其GPT聊天机器人中推出了“对话中调用自定义聊天机器人”的新功能,使用户能够在对话中切换不同领域的机器人。这一功能解决了之前机器人无法在同一对话中协作的问题,提高了对话的效率和灵活性。用户只需输入“@”符号,就能召唤出所需的专业领域机器人,无需切换到单独的对话窗口。该功能对于用户获取全面信息和服务非常有用。尽管没有大张旗鼓地宣传这一更新,但这一功能的推出被认为可能与之前的泄露对话事件有关。

? 英特尔邀请OpenAI CEO阿尔特曼参加IFS Direct Connect活动

摘要:英特尔CEO帕特·基辛格宣布,OpenAICEO阿尔特曼将出席首届IFS Direct Connect活动,并发布演讲。阿尔特曼一直布局AI芯片领域,减少对英伟达AI GPU的依赖,投资了NPU研发公司Rain AI,并传出OpenAI正准备自研芯片。英国《金融时报》表示,阿尔特曼已与中东投资者和台积电等芯片制造商谈判成立AI芯片合资企业。如果OpenAI下单英特尔,预计能带来示范效应。英特尔的IFS部门一直未获得足够规模的外部代工订单,这次邀请OpenAICEO参加活动或将有助于改变这一局面。

? OpenAI最新研究显示GPT-4对制造生化武器的辅助作用几乎没有

摘要:OpenAI最新研究表明,GPT-4对制造生化武器的辅助作用非常有限。通过对100名参与者进行实验,OpenAI评估了GPT-4在生物威胁制造过程中的准确性、完整性、创新性、所需时间和自我评估难度等指标。结果显示,虽然GPT-4在准确性和完整性方面有所提升(尤其是在放大和配方任务上),但并没有达到统计学上的显著差异。该研究为今后评估大模型在生物威胁领域的风险提供了参考,并呼吁进一步开展相关研究。

? AI知识

? Nomic Embed: 开源文本嵌入模型

Nomic Embed是第一个开源、开放数据、开放训练代码的文本嵌入模型,具有8192的上下文长度,不仅在短文本任务上表现优异,而且在长文本任务上也胜过OpenAI Ada-002和text-embedding-3-small。Nomic Embed采用Apache-2许可证发布模型权重和训练代码,以及用于训练模型的筛选数据,并发布了详细的技术报告。此外,Nomic Embed通过Nomic Atlas Embedding API可用于生产工作负载,并通过Nomic Atlas Enterprise提供安全合规的企业级服务。 Text embeddings是现代NLP应用程序的重要组成部分,用于支持检索增强生成(RAG)和语义搜索。Nomic Embed通过对文本的语义信息进行编码,将句子或文档转化为低维向量,用于聚类数据可视化、分类和信息检索等下游应用。Nomic Embed的训练采用多阶段对比学习方法,首先使用Transformer架构进行自监督MLM目标(BERT)的预训练,然后进行对比无监督数据的训练,最后使用更小的筛选语料库进行对比微调。对Nomic Embed的对比训练使用了约235M个文本对的对比数据集,并在 Massive Text Embedding Benchmark (MTEB) 上表现优异。Nomic Embed还在 LoCo Benchmark 和 Jina Long Context Benchmark 上取得了竞争力。Nomic Embed提供了模型权重和完整训练数据,以实现完整的模型可审查性,并通过Nomic Embedding API和Atlas Enterprise进行生产应用。

? AI2发布开放语言模型框架及OLMo Model

OLMo是由AI2推出的开放语言模型框架,旨在通过开放研究来推动人工智能的发展,使学者和研究人员能够共同研究语言模型的科学。该框架包括了大规模语言模型的数据、训练代码、模型以及评估代码,以便AI社区能够探索更广泛的研究问题。此外,AI2还发布了多个不同规模的OLMo模型,包括7B规模和1B规模的模型,以及相关的训练数据、模型权重、训练代码和评估代码。这些模型还附带了500多个检查点、微调代码和适应模型,所有的代码、权重和中间检查点都在Apache 2.0许可下发布。

此外,OLMo还包括了技术报告,并与其他开放和部分开放模型进行了对比,如EleutherAI的Pythia Suite、MosaicML的MPT模型等。OLMo还提供了评估数据,证明了7B模型在某些生成任务或阅读理解方面领先于其他模型,但在一些问题回答任务上略逊一筹。

OLMo还在不断发展,计划推出各种不同规模、模态、数据集和安全措施的模型,并提供更多的评估。OLMo模型可以通过HuggingFace获取,并且附带标准推理代码,以及GitHub上的存储库。



更多AI工具,参考国内AiBard123,Github-AiBard123

更新时间 2024-05-29