自然语言与大语言模型交互神器—Open Interpreter

最近在逛 Github 的时候发现了一款神器,叫做 Open Interpreter,主要是用来实现在本地和大语言模型进行交互的,通过大语言模型将自然语言转换为脚本代码,然后在本地执行从而实现目标。

简单来说比如你想在桌面上创建一个名为 joke.txt 文件,你不在需要手动创建,而是通过自然语言告诉 Open Interpreter,让它帮我们生成创建文件的脚本,然后在本地执行,从而生成一个 joke.txt 文件。

我们要做的就是告诉它我们的需求是什么,以及允许它在本地执行代码即可。

如下所示

0-27

上面的 case 整个过程分三步:

  1. 我们通过自然语言描述一个需求:帮我在桌面上的 open-test 文件中创建一个名为 joke.txt 的文件
  2. Open Interpreter 会将我们的需求进行拆解,并且列出它的执行计划和要执行的命令。
  计划:

   1 检查桌面上的 open-test 文件夹是否存在,如果不存在则创建它。
   2 在 open-test 文件夹中创建一个名为 joke.txt 的文件。

  我将使用以下代码来完成这个任务。


  mkdir -p ~/Desktop/open-test && touch ~/Desktop/open-test/joke.txt
  1. 在经过我们的人工确认后进行执行,最终成功的创建出的文件。

这个项目刚刚起步,这个 case 也很简单,但是我们要知道这仿佛打开了另一扇大门,以后只要是通过代码能实现的功能,我们都可以通过自然语言来实现了,想想都很激动(可怕)。

官方的介绍这个工具都可以用来编辑视频以及发送邮件,只能说很有前景。

安装和配置

安装 conda

这个项目的安装也非常简单,正常我们只要在命令行中执行 pip install open-interpreter 即可,但是为了保证环境的稳定,我们这边准备用 conda 进行环境隔离,所以我们首先安装 conda,依次执行下面的命令

# 获取脚本
wget https://repo.anaconda.com/archive/Anaconda3-2023.07-2-Linux-x86_64.sh
# 增加可执行权限
chmod +x Anaconda3-2023.07-2-Linux-x86_64.sh
# 运行安装脚本
./Anaconda3-2023.07-2-Linux-x86_64.sh
# 查询版本
conda -V

如何能正常输出版本号,则表明安装成功,如果提示命令不存在,那我们就需要配置一下环境变量,在

vim .bash_profile
# 加入下面一行
PATH=$PATH:$HOME/bin:$NODE_PATH/bin:/root/anaconda3/bin
# 再次执行
conda -V
0-30

创建隔离环境

安装完成 conda 过后,我们就创建指定 Python 版本的隔离环境了,通过如下命令

conda create -n python311 python=3.11

这行代码的含义是通过 conda create 创建一个名字叫 python311 的隔离环境,隔离环境的 python 版本指定为 3.11,创建完成过后我们可以通过下面的命令查询隔离环境的列表。

conda env list
0-29

安装 open interpreter

然后我们进入到隔离环境中,在隔离环境中安装 open interpreter,命令如下

conda activate python311
pip install open-interpreter

等待一会即可安装成功,安装成功过后输入下面命令,即可开启本地大语言模型交互。

interpreter
0-31

直接输入 interpreter 命令会要求我们输入自己的 OpenAI API key,此时默认使用的 GPT-4 模型,我们可以通过增加 --fast 参数来使用 GPT-3.5

interpreter --fast

这里我们每次执行都需要手动填入 OpenAI API key 比较麻烦,可以配置一下环境变量

export OPENAI_API_KEY=skxxxx

这样我们后续执行就不用在手动填 OpenAIAPI key 了,如果想用微软的 Azure OpenAI 的话,也是支持的,只要配置下面的环境变量,然后在启动的时候增加 --use-azure 参数就可以了

export AZURE_API_KEY=
export AZURE_API_BASE=
export AZURE_API_VERSION=
export AZURE_DEPLOYMENT_NAME=
interpreter --use-azure
0-28

本地启动

上面的操作都需要我们有对应 OpenAIAPI Key 或者 AzureOpenAIendpoint,其实 open interpreter 还支持本地运行,只要在启动的时候增加 --local 参数,然后就让我们选择对应的模型。不过对于本地运行需要我们的电脑配置支持才行,感兴趣的小伙伴可以参考官方文档实践一下,我这边的配置不允许~~

0-32

总结

今天给大家介绍了一下 Open interpreter 的安装方法和简单玩法,这个项目还在高速的迭代中,相信不久的将来将会带来一场变革,不得不说 AI 的时代是真正的到来了,未来几年将会是 AI 产品的井喷时代,作为程序员我们要紧跟时代的步伐不掉队。

标签


沙漏洒洒

关注公众号,获取程序化广告相关资料

回复关键字:计算广告

发表评论