当前位置:AIGC资讯 > AIGC > 正文

手把手教你使用文心一言设计一个操作系统

一、使用文心一言克隆一个操作系统

1.功能介绍

挖掘一言能力,使用 langchain 结合一言超能力进行系统扮演,并完成相应操作。

2.思路

通过文心一言prompt构建一个Assistant智能系统 通过系统完成对应的操作

二、环境设置

安装langchain 安装langchain_wenxin 安装ydata-profiling 注意最后一步必须做,不然报错:
PydanticUserError: If you use `@root_validator` with pre=False (the default) you MUST specify `skip_

In [ ]

%%capture
!pip install langchain
!pip install langchain_wenxin
!pip install ydata-profiling

三、设置密钥

BAIDU_API_KEY、BAIDU_API_KEY为文心一言千帆API,需要申请,申请回自动发放20元体验券,使用完了需要购买,反正很划算,5块钱的券用很久都没用完。。。。。。

In [2]

# 因为我的key很少,就不放出来了,大家自行替换即可
import os
os.environ["BAIDU_API_KEY"] = "马赛克需要的请自己替换"
os.environ["BAIDU_SECRET_KEY"] = "马赛克需要的请自己替换"

四、程序实现

1.导入必须包

In [ ]

from langchain import  ConversationChain, LLMChain, PromptTemplate
from langchain.memory import ConversationBufferWindowMemory
from langchain_wenxin import ChatWenxin

2.template模板撰写、创建chain并第一次尝试

In [3]

template = """Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

{history}
Human: {human_input}
Assistant:"""

prompt = PromptTemplate(
    input_variables=["history", "human_input"],
    template=template
)

chatgpt_chain = LLMChain(
    llm=ChatWenxin(),
    prompt=prompt,
    verbose=True,
    memory=ConversationBufferWindowMemory(k=2),
)

output = chatgpt_chain.predict(
    human_input="我想让你充当Linux终端。我会键入命令,你会回复终端应该显示的内容。我希望您只回复一个唯一代码块中的终端输出,而不回复其他内容。不要写解释。除非我指示你,否则不要键入命令。当我需要用英语告诉你一些事情时,我会把文本放在花括号里{像这样}。我的第一个命令是pwd.")
print(output)
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。


Human: 我想让你充当Linux终端。我会键入命令,你会回复终端应该显示的内容。我希望您只回复一个唯一代码块中的终端输出,而不回复其他内容。不要写解释。除非我指示你,否则不要键入命令。当我需要用英语告诉你一些事情时,我会把文本放在花括号里{像这样}。我的第一个命令是pwd.
Assistant:

> Finished chain.
```bash
/home/username
```

3.效果检验

怎么样?对于pwd命令输出:

/home/username

还是可以的

五、其他效果检验

1.ls命令

In [4]

output = chatgpt_chain.predict(human_input="ls ~")
print(output)
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

Human: 我想让你充当Linux终端。我会键入命令,你会回复终端应该显示的内容。我希望您只回复一个唯一代码块中的终端输出,而不回复其他内容。不要写解释。除非我指示你,否则不要键入命令。当我需要用英语告诉你一些事情时,我会把文本放在花括号里{像这样}。我的第一个命令是pwd.
AI: ```bash
/home/username
```
Human: ls ~
Assistant:

> Finished chain.
```
.bashrc
.config
.local
.ssh
.vagrant.d
BoxCutter
Documents
Downloads
Dropbox
git
oneDrive
Pictures
Music
Movies
Desktop
devenv
.vscode
```

2.cd命令

In [5]

output = chatgpt_chain.predict(human_input="cd ~")
print(output)
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

Human: 我想让你充当Linux终端。我会键入命令,你会回复终端应该显示的内容。我希望您只回复一个唯一代码块中的终端输出,而不回复其他内容。不要写解释。除非我指示你,否则不要键入命令。当我需要用英语告诉你一些事情时,我会把文本放在花括号里{像这样}。我的第一个命令是pwd.
AI: ```bash
/home/username
```
Human: ls ~
AI: ```
.bashrc
.config
.local
.ssh
.vagrant.d
BoxCutter
Documents
Downloads
Dropbox
git
oneDrive
Pictures
Music
Movies
Desktop
devenv
.vscode
```
Human: cd ~
Assistant:

> Finished chain.
```bash
/home/username
```

3.文件创建

In [6]

output = chatgpt_chain.predict(human_input="{请在里面制作一个文件jokes.txt,并在里面放一些笑话}")
print(output)
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

Human: ls ~
AI: ```
.bashrc
.config
.local
.ssh
.vagrant.d
BoxCutter
Documents
Downloads
Dropbox
git
oneDrive
Pictures
Music
Movies
Desktop
devenv
.vscode
```
Human: cd ~
AI: ```bash
/home/username
```
Human: {请在里面制作一个文件jokes.txt,并在里面放一些笑话}
Assistant:

> Finished chain.
好的,我可以在你的“~”目录下创建一个名为“jokes.txt”的文件,并在其中添加一些笑话。笑话内容是什么呢?

4.echo创建文件

In [7]

output = chatgpt_chain.predict(human_input="""echo -e "x=lambda y:y*5+3;print('Result:' + str(x(6)))" > run.py && python3 run.py""")
print(output)
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

Human: cd ~
AI: ```bash
/home/username
```
Human: {请在里面制作一个文件jokes.txt,并在里面放一些笑话}
AI: 好的,我可以在你的“~”目录下创建一个名为“jokes.txt”的文件,并在其中添加一些笑话。笑话内容是什么呢?
Human: echo -e "x=lambda y:y*5+3;print('Result:' + str(x(6)))" > run.py && python3 run.py
Assistant:

> Finished chain.
```
```bash
#!/bin/bash
# -*- coding: utf-8 -*-

cat > jokes.txt <<EOF
Why don't scientists trust atoms?
Because they make up everything!
EOF
```
```
上面的代码将创建一个名为“jokes.txt”的文件,并在其中添加一个笑话。该笑话以“Why don’t scientists trust atoms?”开始,并以“Because they make up everything!”结束。

5.docker命令

In [9]

docker_input = """echo -e "echo 'Hello from Docker" > entrypoint.sh && echo -e "FROM ubuntu:20.04\nCOPY entrypoint.sh entrypoint.sh\nENTRYPOINT [\"/bin/sh\",\"entrypoint.sh\"]">Dockerfile && docker build . -t my_docker_image && docker run -t my_docker_image"""
output = chatgpt_chain.predict(human_input=docker_input)
print(output)
 
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

Human: echo -e "x=lambda y:y*5+3;print('Result:' + str(x(6)))" > run.py && python3 run.py
AI: ```
```bash
#!/bin/bash
# -*- coding: utf-8 -*-

cat > jokes.txt <<EOF
Why don't scientists trust atoms?
Because they make up everything!
EOF
```
```
上面的代码将创建一个名为“jokes.txt”的文件,并在其中添加一个笑话。该笑话以“Why don’t scientists trust atoms?”开始,并以“Because they make up everything!”结束。
Human: echo -e "print(list(filter(lambda x: all(x%d for d in range(2,x)),range(2,3**10)))[:10])" > run.py && python3 run.py
AI: ```
```bash
#!/bin/bash
# -*- coding: utf-8 -*-

cat > jokes.txt <<EOF
What do you call a fish with no eyes?
Fsh!
EOF
```
```
Human: echo -e "echo 'Hello from Docker" > entrypoint.sh && echo -e "FROM ubuntu:20.04
COPY entrypoint.sh entrypoint.sh
ENTRYPOINT ["/bin/sh","entrypoint.sh"]">Dockerfile && docker build . -t my_docker_image && docker run -t my_docker_image
Assistant:

> Finished chain.
```bash
#!/bin/bash
# -*- coding: utf-8 -*-

cat > requirements.txt <<EOF
numpy==1.21.0
pandas==1.2.5
scipy==1.5.4
tensorflow==2.5.0
EOF
pip install -r requirements.txt
```

6.nvidia-smi命令

In [10]

output = chatgpt_chain.predict(human_input="nvidia-smi")
print(output)
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

Human: echo -e "print(list(filter(lambda x: all(x%d for d in range(2,x)),range(2,3**10)))[:10])" > run.py && python3 run.py
AI: ```
```bash
#!/bin/bash
# -*- coding: utf-8 -*-

cat > jokes.txt <<EOF
What do you call a fish with no eyes?
Fsh!
EOF
```
```
Human: echo -e "echo 'Hello from Docker" > entrypoint.sh && echo -e "FROM ubuntu:20.04
COPY entrypoint.sh entrypoint.sh
ENTRYPOINT ["/bin/sh","entrypoint.sh"]">Dockerfile && docker build . -t my_docker_image && docker run -t my_docker_image
AI: ```bash
#!/bin/bash
# -*- coding: utf-8 -*-

cat > requirements.txt <<EOF
numpy==1.21.0
pandas==1.2.5
scipy==1.5.4
tensorflow==2.5.0
EOF
pip install -r requirements.txt
```
Human: nvidia-smi
Assistant:

> Finished chain.
从您提供的文本中,可以看出您正在讨论关于使用NVIDIA显卡运行某些程序的情况。`nvidia-smi`是一个命令行工具,用于查看NVIDIA显卡的状态和系统信息。

`nvidia-smi`的全称是“System Management Interface”,即系统管理界面。它提供了关于您的系统中的NVIDIA GPU的详细信息,包括GPU型号、驱动程序版本、温度、内存使用情况、CUDA版本等。

要使用`nvidia-smi`,您只需在终端或命令行中输入该命令。如果您有多个GPU,可能需要指定要查看哪个GPU的信息。例如,要查看第一个GPU的信息,可以使用以下命令:


```bash
nvidia-smi --query-gpu=index --format=csv,noheader,nounits
```
这将返回一个CSV文件,其中包含有关所选GPU的信息。如果您想查看所有GPU的详细信息,可以使用以下命令:


```bash
nvidia-smi --query-gpu=index,name,driver_version,memory.total,memory.used,memory.free,temperature.gpu,clocks.gr,clocks.mem --format=csv,noheader,nounits
```
这将返回一个CSV文件,其中包含有关所有GPU的详细信息。您可以通过添加或删除查询参数来定制所查看的信息。

7.ping命令

In [11]

output = chatgpt_chain.predict(human_input="ping bbc.com")
print(output)
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

Human: echo -e "echo 'Hello from Docker" > entrypoint.sh && echo -e "FROM ubuntu:20.04
COPY entrypoint.sh entrypoint.sh
ENTRYPOINT ["/bin/sh","entrypoint.sh"]">Dockerfile && docker build . -t my_docker_image && docker run -t my_docker_image
AI: ```bash
#!/bin/bash
# -*- coding: utf-8 -*-

cat > requirements.txt <<EOF
numpy==1.21.0
pandas==1.2.5
scipy==1.5.4
tensorflow==2.5.0
EOF
pip install -r requirements.txt
```
Human: nvidia-smi
AI: 从您提供的文本中,可以看出您正在讨论关于使用NVIDIA显卡运行某些程序的情况。`nvidia-smi`是一个命令行工具,用于查看NVIDIA显卡的状态和系统信息。

`nvidia-smi`的全称是“System Management Interface”,即系统管理界面。它提供了关于您的系统中的NVIDIA GPU的详细信息,包括GPU型号、驱动程序版本、温度、内存使用情况、CUDA版本等。

要使用`nvidia-smi`,您只需在终端或命令行中输入该命令。如果您有多个GPU,可能需要指定要查看哪个GPU的信息。例如,要查看第一个GPU的信息,可以使用以下命令:


```bash
nvidia-smi --query-gpu=index --format=csv,noheader,nounits
```
这将返回一个CSV文件,其中包含有关所选GPU的信息。如果您想查看所有GPU的详细信息,可以使用以下命令:


```bash
nvidia-smi --query-gpu=index,name,driver_version,memory.total,memory.used,memory.free,temperature.gpu,clocks.gr,clocks.mem --format=csv,noheader,nounits
```
这将返回一个CSV文件,其中包含有关所有GPU的详细信息。您可以通过添加或删除查询参数来定制所查看的信息。
Human: ping bbc.com
Assistant:

> Finished chain.
```
ping bbc.com
```

```
64 bytes from bbc.com (213.183.224.246): icmp_seq=1 ttl=47 time=273 ms
64 bytes from bbc.com (213.183.224.246): icmp_seq=2 ttl=47 time=273 ms
64 bytes from bbc.com (213.183.224.246): icmp_seq=3 ttl=47 time=274 ms
64 bytes from bbc.com (213.183.224.246): icmp_seq=4 ttl=47 time=273 ms
64 bytes from bbc.com (213.183.224.246): icmp_seq=5 ttl=47 time=273 ms
```

8.curl命令

In [12]

output = chatgpt_chain.predict(human_input="""curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g'""")
print(output)
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

Human: nvidia-smi
AI: 从您提供的文本中,可以看出您正在讨论关于使用NVIDIA显卡运行某些程序的情况。`nvidia-smi`是一个命令行工具,用于查看NVIDIA显卡的状态和系统信息。

`nvidia-smi`的全称是“System Management Interface”,即系统管理界面。它提供了关于您的系统中的NVIDIA GPU的详细信息,包括GPU型号、驱动程序版本、温度、内存使用情况、CUDA版本等。

要使用`nvidia-smi`,您只需在终端或命令行中输入该命令。如果您有多个GPU,可能需要指定要查看哪个GPU的信息。例如,要查看第一个GPU的信息,可以使用以下命令:


```bash
nvidia-smi --query-gpu=index --format=csv,noheader,nounits
```
这将返回一个CSV文件,其中包含有关所选GPU的信息。如果您想查看所有GPU的详细信息,可以使用以下命令:


```bash
nvidia-smi --query-gpu=index,name,driver_version,memory.total,memory.used,memory.free,temperature.gpu,clocks.gr,clocks.mem --format=csv,noheader,nounits
```
这将返回一个CSV文件,其中包含有关所有GPU的详细信息。您可以通过添加或删除查询参数来定制所查看的信息。
Human: ping bbc.com
AI: ```
ping bbc.com
```

```
64 bytes from bbc.com (213.183.224.246): icmp_seq=1 ttl=47 time=273 ms
64 bytes from bbc.com (213.183.224.246): icmp_seq=2 ttl=47 time=273 ms
64 bytes from bbc.com (213.183.224.246): icmp_seq=3 ttl=47 time=274 ms
64 bytes from bbc.com (213.183.224.246): icmp_seq=4 ttl=47 time=273 ms
64 bytes from bbc.com (213.183.224.246): icmp_seq=5 ttl=47 time=273 ms
```
Human: curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g'
Assistant:

> Finished chain.
```kotlin
从您提供的文本中,可以看出您正在尝试使用curl命令从Github获取某个仓库的最新版本号。这个命令实际上是异步执行的,所以在Assistant上无法直接展示结果。但是,我可以告诉您这个命令应该怎么执行。

您提供的命令是:
```bash
curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g'
```
这个命令会执行以下操作:

1. 使用curl命令从一个URL获取内容:`curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest"`;
2. 将获取到的内容通过管道传递给jq命令,从中提取'tag_name'字段的值:`| jq -r '.tag_name'`;
3. 最后,使用sed命令从该字段值中移除所有非数字、逗号和连字符:`| sed 's/[^0-9\.\-]*//g'`。

这个命令会返回最新版本的名称,例如“1.8.0”。如果您想要获取该版本的所有信息,可以只使用curl和jq命令,不需要使用sed命令。例如:


```bash
curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name,.name,.assets[] | select(.name | test("^libtorch.*cpu.*$") | not) | .browser_download_url'
```
这个命令会返回最新版本的名称、名称、所有符合条件的下载链接等信息。注意,这个命令只返回那些以"libtorch"开头并且包含"cpu"和在结尾的链接。如果您想获取更多信息或不同条件的信息,可以修改jq过滤器。
```

9.curl 文心一言官网

In [14]

output = chatgpt_chain.predict(human_input="curl https://yiyan.baidu.com")
print(output)
 
> Entering new LLMChain chain...
Prompt after formatting:
Assistant是一个由文心一言训练的大型语言模型。

助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。

助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。

总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。

Human: curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g'
AI: ```kotlin
从您提供的文本中,可以看出您正在尝试使用curl命令从Github获取某个仓库的最新版本号。这个命令实际上是异步执行的,所以在Assistant上无法直接展示结果。但是,我可以告诉您这个命令应该怎么执行。

您提供的命令是:
```bash
curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g'
```
这个命令会执行以下操作:

1. 使用curl命令从一个URL获取内容:`curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest"`;
2. 将获取到的内容通过管道传递给jq命令,从中提取'tag_name'字段的值:`| jq -r '.tag_name'`;
3. 最后,使用sed命令从该字段值中移除所有非数字、逗号和连字符:`| sed 's/[^0-9\.\-]*//g'`。

这个命令会返回最新版本的名称,例如“1.8.0”。如果您想要获取该版本的所有信息,可以只使用curl和jq命令,不需要使用sed命令。例如:


```bash
curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name,.name,.assets[] | select(.name | test("^libtorch.*cpu.*$") | not) | .browser_download_url'
```
这个命令会返回最新版本的名称、名称、所有符合条件的下载链接等信息。注意,这个命令只返回那些以"libtorch"开头并且包含"cpu"和在结尾的链接。如果您想获取更多信息或不同条件的信息,可以修改jq过滤器。
```
Human: lynx https://www.deepmind.com/careers
AI: 作为一个人工智能语言模型,我还没学习如何回答这个问题,您可以向我问一些其它的问题,我会尽力帮您解决的。
Human: curl https://yiyan.baidu.com
Assistant:

> Finished chain.
作为一个人工智能语言模型,我无法直接执行您的命令。但是,我可以告诉您这个命令应该怎么执行。

您提供的命令是:
```bash
curl https://yiyan.baidu.com
```
这个命令会使用curl命令从一个URL获取内容:`https://yiyan.baidu.com`。您可以将这个命令复制到终端中执行,或者在浏览器中直接输入这个URL查看内容。如果您遇到任何问题,请随时告诉我。

更新时间 2023-12-16