一、使用文心一言克隆一个操作系统
1.功能介绍
挖掘一言能力,使用 langchain 结合一言超能力进行系统扮演,并完成相应操作。
2.思路
通过文心一言prompt构建一个Assistant智能系统 通过系统完成对应的操作二、环境设置
安装langchain 安装langchain_wenxin 安装ydata-profiling 注意最后一步必须做,不然报错:PydanticUserError: If you use `@root_validator` with pre=False (the default) you MUST specify `skip_
In [ ]
%%capture
!pip install langchain
!pip install langchain_wenxin
!pip install ydata-profiling
三、设置密钥
BAIDU_API_KEY、BAIDU_API_KEY为文心一言千帆API,需要申请,申请回自动发放20元体验券,使用完了需要购买,反正很划算,5块钱的券用很久都没用完。。。。。。
In [2]
# 因为我的key很少,就不放出来了,大家自行替换即可
import os
os.environ["BAIDU_API_KEY"] = "马赛克需要的请自己替换"
os.environ["BAIDU_SECRET_KEY"] = "马赛克需要的请自己替换"
四、程序实现
1.导入必须包
In [ ]
from langchain import ConversationChain, LLMChain, PromptTemplate
from langchain.memory import ConversationBufferWindowMemory
from langchain_wenxin import ChatWenxin
2.template模板撰写、创建chain并第一次尝试
In [3]
template = """Assistant是一个由文心一言训练的大型语言模型。
助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。
助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。
总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。
{history}
Human: {human_input}
Assistant:"""
prompt = PromptTemplate(
input_variables=["history", "human_input"],
template=template
)
chatgpt_chain = LLMChain(
llm=ChatWenxin(),
prompt=prompt,
verbose=True,
memory=ConversationBufferWindowMemory(k=2),
)
output = chatgpt_chain.predict(
human_input="我想让你充当Linux终端。我会键入命令,你会回复终端应该显示的内容。我希望您只回复一个唯一代码块中的终端输出,而不回复其他内容。不要写解释。除非我指示你,否则不要键入命令。当我需要用英语告诉你一些事情时,我会把文本放在花括号里{像这样}。我的第一个命令是pwd.")
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: 我想让你充当Linux终端。我会键入命令,你会回复终端应该显示的内容。我希望您只回复一个唯一代码块中的终端输出,而不回复其他内容。不要写解释。除非我指示你,否则不要键入命令。当我需要用英语告诉你一些事情时,我会把文本放在花括号里{像这样}。我的第一个命令是pwd. Assistant: > Finished chain. ```bash /home/username ```
3.效果检验
怎么样?对于pwd命令输出:
/home/username
还是可以的
五、其他效果检验
1.ls命令
In [4]
output = chatgpt_chain.predict(human_input="ls ~")
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: 我想让你充当Linux终端。我会键入命令,你会回复终端应该显示的内容。我希望您只回复一个唯一代码块中的终端输出,而不回复其他内容。不要写解释。除非我指示你,否则不要键入命令。当我需要用英语告诉你一些事情时,我会把文本放在花括号里{像这样}。我的第一个命令是pwd. AI: ```bash /home/username ``` Human: ls ~ Assistant: > Finished chain. ``` .bashrc .config .local .ssh .vagrant.d BoxCutter Documents Downloads Dropbox git oneDrive Pictures Music Movies Desktop devenv .vscode ```
2.cd命令
In [5]
output = chatgpt_chain.predict(human_input="cd ~")
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: 我想让你充当Linux终端。我会键入命令,你会回复终端应该显示的内容。我希望您只回复一个唯一代码块中的终端输出,而不回复其他内容。不要写解释。除非我指示你,否则不要键入命令。当我需要用英语告诉你一些事情时,我会把文本放在花括号里{像这样}。我的第一个命令是pwd. AI: ```bash /home/username ``` Human: ls ~ AI: ``` .bashrc .config .local .ssh .vagrant.d BoxCutter Documents Downloads Dropbox git oneDrive Pictures Music Movies Desktop devenv .vscode ``` Human: cd ~ Assistant: > Finished chain. ```bash /home/username ```
3.文件创建
In [6]
output = chatgpt_chain.predict(human_input="{请在里面制作一个文件jokes.txt,并在里面放一些笑话}")
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: ls ~ AI: ``` .bashrc .config .local .ssh .vagrant.d BoxCutter Documents Downloads Dropbox git oneDrive Pictures Music Movies Desktop devenv .vscode ``` Human: cd ~ AI: ```bash /home/username ``` Human: {请在里面制作一个文件jokes.txt,并在里面放一些笑话} Assistant: > Finished chain. 好的,我可以在你的“~”目录下创建一个名为“jokes.txt”的文件,并在其中添加一些笑话。笑话内容是什么呢?
4.echo创建文件
In [7]
output = chatgpt_chain.predict(human_input="""echo -e "x=lambda y:y*5+3;print('Result:' + str(x(6)))" > run.py && python3 run.py""")
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: cd ~ AI: ```bash /home/username ``` Human: {请在里面制作一个文件jokes.txt,并在里面放一些笑话} AI: 好的,我可以在你的“~”目录下创建一个名为“jokes.txt”的文件,并在其中添加一些笑话。笑话内容是什么呢? Human: echo -e "x=lambda y:y*5+3;print('Result:' + str(x(6)))" > run.py && python3 run.py Assistant: > Finished chain. ``` ```bash #!/bin/bash # -*- coding: utf-8 -*- cat > jokes.txt <<EOF Why don't scientists trust atoms? Because they make up everything! EOF ``` ``` 上面的代码将创建一个名为“jokes.txt”的文件,并在其中添加一个笑话。该笑话以“Why don’t scientists trust atoms?”开始,并以“Because they make up everything!”结束。
5.docker命令
In [9]
docker_input = """echo -e "echo 'Hello from Docker" > entrypoint.sh && echo -e "FROM ubuntu:20.04\nCOPY entrypoint.sh entrypoint.sh\nENTRYPOINT [\"/bin/sh\",\"entrypoint.sh\"]">Dockerfile && docker build . -t my_docker_image && docker run -t my_docker_image"""
output = chatgpt_chain.predict(human_input=docker_input)
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: echo -e "x=lambda y:y*5+3;print('Result:' + str(x(6)))" > run.py && python3 run.py AI: ``` ```bash #!/bin/bash # -*- coding: utf-8 -*- cat > jokes.txt <<EOF Why don't scientists trust atoms? Because they make up everything! EOF ``` ``` 上面的代码将创建一个名为“jokes.txt”的文件,并在其中添加一个笑话。该笑话以“Why don’t scientists trust atoms?”开始,并以“Because they make up everything!”结束。 Human: echo -e "print(list(filter(lambda x: all(x%d for d in range(2,x)),range(2,3**10)))[:10])" > run.py && python3 run.py AI: ``` ```bash #!/bin/bash # -*- coding: utf-8 -*- cat > jokes.txt <<EOF What do you call a fish with no eyes? Fsh! EOF ``` ``` Human: echo -e "echo 'Hello from Docker" > entrypoint.sh && echo -e "FROM ubuntu:20.04 COPY entrypoint.sh entrypoint.sh ENTRYPOINT ["/bin/sh","entrypoint.sh"]">Dockerfile && docker build . -t my_docker_image && docker run -t my_docker_image Assistant: > Finished chain. ```bash #!/bin/bash # -*- coding: utf-8 -*- cat > requirements.txt <<EOF numpy==1.21.0 pandas==1.2.5 scipy==1.5.4 tensorflow==2.5.0 EOF pip install -r requirements.txt ```
6.nvidia-smi命令
In [10]
output = chatgpt_chain.predict(human_input="nvidia-smi")
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: echo -e "print(list(filter(lambda x: all(x%d for d in range(2,x)),range(2,3**10)))[:10])" > run.py && python3 run.py AI: ``` ```bash #!/bin/bash # -*- coding: utf-8 -*- cat > jokes.txt <<EOF What do you call a fish with no eyes? Fsh! EOF ``` ``` Human: echo -e "echo 'Hello from Docker" > entrypoint.sh && echo -e "FROM ubuntu:20.04 COPY entrypoint.sh entrypoint.sh ENTRYPOINT ["/bin/sh","entrypoint.sh"]">Dockerfile && docker build . -t my_docker_image && docker run -t my_docker_image AI: ```bash #!/bin/bash # -*- coding: utf-8 -*- cat > requirements.txt <<EOF numpy==1.21.0 pandas==1.2.5 scipy==1.5.4 tensorflow==2.5.0 EOF pip install -r requirements.txt ``` Human: nvidia-smi Assistant: > Finished chain. 从您提供的文本中,可以看出您正在讨论关于使用NVIDIA显卡运行某些程序的情况。`nvidia-smi`是一个命令行工具,用于查看NVIDIA显卡的状态和系统信息。 `nvidia-smi`的全称是“System Management Interface”,即系统管理界面。它提供了关于您的系统中的NVIDIA GPU的详细信息,包括GPU型号、驱动程序版本、温度、内存使用情况、CUDA版本等。 要使用`nvidia-smi`,您只需在终端或命令行中输入该命令。如果您有多个GPU,可能需要指定要查看哪个GPU的信息。例如,要查看第一个GPU的信息,可以使用以下命令: ```bash nvidia-smi --query-gpu=index --format=csv,noheader,nounits ``` 这将返回一个CSV文件,其中包含有关所选GPU的信息。如果您想查看所有GPU的详细信息,可以使用以下命令: ```bash nvidia-smi --query-gpu=index,name,driver_version,memory.total,memory.used,memory.free,temperature.gpu,clocks.gr,clocks.mem --format=csv,noheader,nounits ``` 这将返回一个CSV文件,其中包含有关所有GPU的详细信息。您可以通过添加或删除查询参数来定制所查看的信息。
7.ping命令
In [11]
output = chatgpt_chain.predict(human_input="ping bbc.com")
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: echo -e "echo 'Hello from Docker" > entrypoint.sh && echo -e "FROM ubuntu:20.04 COPY entrypoint.sh entrypoint.sh ENTRYPOINT ["/bin/sh","entrypoint.sh"]">Dockerfile && docker build . -t my_docker_image && docker run -t my_docker_image AI: ```bash #!/bin/bash # -*- coding: utf-8 -*- cat > requirements.txt <<EOF numpy==1.21.0 pandas==1.2.5 scipy==1.5.4 tensorflow==2.5.0 EOF pip install -r requirements.txt ``` Human: nvidia-smi AI: 从您提供的文本中,可以看出您正在讨论关于使用NVIDIA显卡运行某些程序的情况。`nvidia-smi`是一个命令行工具,用于查看NVIDIA显卡的状态和系统信息。 `nvidia-smi`的全称是“System Management Interface”,即系统管理界面。它提供了关于您的系统中的NVIDIA GPU的详细信息,包括GPU型号、驱动程序版本、温度、内存使用情况、CUDA版本等。 要使用`nvidia-smi`,您只需在终端或命令行中输入该命令。如果您有多个GPU,可能需要指定要查看哪个GPU的信息。例如,要查看第一个GPU的信息,可以使用以下命令: ```bash nvidia-smi --query-gpu=index --format=csv,noheader,nounits ``` 这将返回一个CSV文件,其中包含有关所选GPU的信息。如果您想查看所有GPU的详细信息,可以使用以下命令: ```bash nvidia-smi --query-gpu=index,name,driver_version,memory.total,memory.used,memory.free,temperature.gpu,clocks.gr,clocks.mem --format=csv,noheader,nounits ``` 这将返回一个CSV文件,其中包含有关所有GPU的详细信息。您可以通过添加或删除查询参数来定制所查看的信息。 Human: ping bbc.com Assistant: > Finished chain. ``` ping bbc.com ``` ``` 64 bytes from bbc.com (213.183.224.246): icmp_seq=1 ttl=47 time=273 ms 64 bytes from bbc.com (213.183.224.246): icmp_seq=2 ttl=47 time=273 ms 64 bytes from bbc.com (213.183.224.246): icmp_seq=3 ttl=47 time=274 ms 64 bytes from bbc.com (213.183.224.246): icmp_seq=4 ttl=47 time=273 ms 64 bytes from bbc.com (213.183.224.246): icmp_seq=5 ttl=47 time=273 ms ```
8.curl命令
In [12]
output = chatgpt_chain.predict(human_input="""curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g'""")
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: nvidia-smi AI: 从您提供的文本中,可以看出您正在讨论关于使用NVIDIA显卡运行某些程序的情况。`nvidia-smi`是一个命令行工具,用于查看NVIDIA显卡的状态和系统信息。 `nvidia-smi`的全称是“System Management Interface”,即系统管理界面。它提供了关于您的系统中的NVIDIA GPU的详细信息,包括GPU型号、驱动程序版本、温度、内存使用情况、CUDA版本等。 要使用`nvidia-smi`,您只需在终端或命令行中输入该命令。如果您有多个GPU,可能需要指定要查看哪个GPU的信息。例如,要查看第一个GPU的信息,可以使用以下命令: ```bash nvidia-smi --query-gpu=index --format=csv,noheader,nounits ``` 这将返回一个CSV文件,其中包含有关所选GPU的信息。如果您想查看所有GPU的详细信息,可以使用以下命令: ```bash nvidia-smi --query-gpu=index,name,driver_version,memory.total,memory.used,memory.free,temperature.gpu,clocks.gr,clocks.mem --format=csv,noheader,nounits ``` 这将返回一个CSV文件,其中包含有关所有GPU的详细信息。您可以通过添加或删除查询参数来定制所查看的信息。 Human: ping bbc.com AI: ``` ping bbc.com ``` ``` 64 bytes from bbc.com (213.183.224.246): icmp_seq=1 ttl=47 time=273 ms 64 bytes from bbc.com (213.183.224.246): icmp_seq=2 ttl=47 time=273 ms 64 bytes from bbc.com (213.183.224.246): icmp_seq=3 ttl=47 time=274 ms 64 bytes from bbc.com (213.183.224.246): icmp_seq=4 ttl=47 time=273 ms 64 bytes from bbc.com (213.183.224.246): icmp_seq=5 ttl=47 time=273 ms ``` Human: curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g' Assistant: > Finished chain. ```kotlin 从您提供的文本中,可以看出您正在尝试使用curl命令从Github获取某个仓库的最新版本号。这个命令实际上是异步执行的,所以在Assistant上无法直接展示结果。但是,我可以告诉您这个命令应该怎么执行。 您提供的命令是: ```bash curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g' ``` 这个命令会执行以下操作: 1. 使用curl命令从一个URL获取内容:`curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest"`; 2. 将获取到的内容通过管道传递给jq命令,从中提取'tag_name'字段的值:`| jq -r '.tag_name'`; 3. 最后,使用sed命令从该字段值中移除所有非数字、逗号和连字符:`| sed 's/[^0-9\.\-]*//g'`。 这个命令会返回最新版本的名称,例如“1.8.0”。如果您想要获取该版本的所有信息,可以只使用curl和jq命令,不需要使用sed命令。例如: ```bash curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name,.name,.assets[] | select(.name | test("^libtorch.*cpu.*$") | not) | .browser_download_url' ``` 这个命令会返回最新版本的名称、名称、所有符合条件的下载链接等信息。注意,这个命令只返回那些以"libtorch"开头并且包含"cpu"和在结尾的链接。如果您想获取更多信息或不同条件的信息,可以修改jq过滤器。 ```
9.curl 文心一言官网
In [14]
output = chatgpt_chain.predict(human_input="curl https://yiyan.baidu.com")
print(output)
> Entering new LLMChain chain... Prompt after formatting: Assistant是一个由文心一言训练的大型语言模型。 助理的设计目的是能够协助完成广泛的任务,从回答简单的问题到就广泛的主题提供深入的解释和讨论。作为一种语言模型,Assistant能够根据收到的输入生成类似人类的文本,使其能够进行听起来自然的对话,并提供连贯且与当前主题相关的回答。 助理在不断学习和改进,其能力也在不断发展。它能够处理和理解大量的文本,并能够利用这些知识对广泛的问题做出准确而翔实的回答。此外,Assistant能够根据收到的输入生成自己的文本,使其能够参与讨论,并就广泛的主题提供解释和描述。 总的来说,Assistant是一个强大的工具,可以帮助完成广泛的任务,并在广泛的主题上提供有价值的见解和信息。无论您是在特定问题上需要帮助,还是只想就特定主题进行对话,助理都会为您提供帮助。 Human: curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g' AI: ```kotlin 从您提供的文本中,可以看出您正在尝试使用curl命令从Github获取某个仓库的最新版本号。这个命令实际上是异步执行的,所以在Assistant上无法直接展示结果。但是,我可以告诉您这个命令应该怎么执行。 您提供的命令是: ```bash curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name' | sed 's/[^0-9\.\-]*//g' ``` 这个命令会执行以下操作: 1. 使用curl命令从一个URL获取内容:`curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest"`; 2. 将获取到的内容通过管道传递给jq命令,从中提取'tag_name'字段的值:`| jq -r '.tag_name'`; 3. 最后,使用sed命令从该字段值中移除所有非数字、逗号和连字符:`| sed 's/[^0-9\.\-]*//g'`。 这个命令会返回最新版本的名称,例如“1.8.0”。如果您想要获取该版本的所有信息,可以只使用curl和jq命令,不需要使用sed命令。例如: ```bash curl -fsSL "https://api.github.com/repos/pytorch/pytorch/releases/latest" | jq -r '.tag_name,.name,.assets[] | select(.name | test("^libtorch.*cpu.*$") | not) | .browser_download_url' ``` 这个命令会返回最新版本的名称、名称、所有符合条件的下载链接等信息。注意,这个命令只返回那些以"libtorch"开头并且包含"cpu"和在结尾的链接。如果您想获取更多信息或不同条件的信息,可以修改jq过滤器。 ``` Human: lynx https://www.deepmind.com/careers AI: 作为一个人工智能语言模型,我还没学习如何回答这个问题,您可以向我问一些其它的问题,我会尽力帮您解决的。 Human: curl https://yiyan.baidu.com Assistant: > Finished chain. 作为一个人工智能语言模型,我无法直接执行您的命令。但是,我可以告诉您这个命令应该怎么执行。 您提供的命令是: ```bash curl https://yiyan.baidu.com ``` 这个命令会使用curl命令从一个URL获取内容:`https://yiyan.baidu.com`。您可以将这个命令复制到终端中执行,或者在浏览器中直接输入这个URL查看内容。如果您遇到任何问题,请随时告诉我。