好吧,你这个精通技术的人,准备好进入人工智能领域进行一场激动人心的冒险吧!我们不只是试探一下;我们只是尝试一下。我们正在通过 Qwen 聊天模型一头扎进深渊。议程上有什么?设置一个比狐狸更聪明的聊天机器人,并像顶级特工一样尊重隐私。感兴趣吗?你应该!让我们从了解生成式 AI 和 LLM(大型语言模型)开始我们的旅程。

生成式人工智能

生成式人工智能是指专注于创造新内容的人工智能分支,无论是文本、图像、音乐还是其他形式的媒体。这种类型的人工智能利用机器学习模型,特别是生成模型,来理解大型数据集中的模式、特征和关系,并生成新的且通常与人类创建的内容难以区分的输出。

生成模型的类型

  • 生成对抗网络 (GAN):一种神经网络架构,其中两个模型(生成器和判别器)同时训练。生成器创建新的数据实例,而鉴别器评估它们。这个过程会产生越来越有说服力的输出。
  • 变分自动编码器 (VAE):这些模型生成与输入数据类似的新实例。它们经常用于图像生成。
  • Transformers:最初是为 NLP 任务设计的,GPT(生成式预训练 Transformer)等 Transformer 模型可以生成连贯且上下文相关的文本。它们还适用于其他类型数据的生成任务。

应用程序

  • 内容创作:生成式 AI 可以制作原创艺术作品、撰写故事或文章、创作音乐以及为游戏和模拟创建虚拟环境。
  • 数据增强:它可以为机器学习模型生成额外的训练数据,有助于提高其准确性和稳健性。
  • 个性化:算法可以根据个人喜好定制内容,从而提高用户参与度。
  • 药物发现:生成模型可以为可有效对抗特定疾病的药物提出新的分子结构。

挑战

  • 质量控制:确保生成的内容符合质量标准并且不存在训练数据中的偏差。
  • 计算要求:训练生成模型通常需要强大的计算能力和大型数据集。
  • 可解释性:了解这些模型如何做出决策并生成输出可能具有挑战性,这会影响信任和可靠性。

生成式人工智能持续快速发展,其能力正在扩展机器创造的边界,提供令人兴奋的机遇和需要负责任地管理的挑战。

法学硕士

什么是大型语言模型 (LLM)?它们是一种基于深度学习技术的人工智能,旨在理解、生成和使用人类语言。它们被称为“大型”,因为它们由数百万甚至数十亿个参数组成,这使它们能够捕获各种语言的细微差别和上下文。

法学硕士接受大量文本数据的训练,并使用 Transformer 神经网络等架构,这些架构能够处理数据序列(如句子),并在进行预测时关注序列的不同部分。这使得它们对于一系列自然语言处理 (NLP) 任务特别有效,例如:

  • 文本生成:法学硕士可以根据给出的提示撰写论文、创作诗歌或生成代码。
  • 翻译:它们能够在多种语言之间高精度翻译文本。
  • 问答:法学硕士可以通过理解上下文和提取信息来提供问题的答案。
  • 摘要:他们可以将长文档压缩为简洁的摘要。
  • 情绪分析:法学硕士可以确定文本背后的情绪,例如确定评论是正面还是负面。

为什么是Qwen?快速概述

您是否正在寻找一种能够聊天、创建内容、总结、编码等功能,同时尊重您的隐私权的人工智能?别再犹豫了; Qwen 聊天模型可将您的数据中心转变为安全的人工智能交互堡垒。

Qwen 不是普通的聊天机器人。它建立在庞大的语言模型之上,并接受了惊人的 3 万亿个多语言数据的训练。这个人工智能奇迹可以复杂地理解英语和中文,并针对类人交互进行了微调。

为什么要选择 Qwen 本地化?

在服务器本地部署 Qwen 就是为了控制。这是为了确保您进行的对话、处理的数据以及承诺的隐私仍在您的权限范围内。无论您是希望集成智能聊天系统的企业、热衷于人工智能研究的开发者,还是只是渴望探索对话式人工智能边界的爱好者,Qwen 都是您的首选。

现在,您为什么要在本地托管该 LLM?三个词:控制、速度和隐私。您将数据牢记在心,响应速度快如闪电,而且您可以高枕无忧,因为您知道您的聊天机器人不会在公共服务中泄露您的秘密。

开源和社区驱动

开源社区放大了人工智能的创新精神。为了与这一传统保持一致,Qwen 聊天模型 可以在 GitHub 上轻松获取,任何有兴趣深入研究该模型的机制、为其开发做出贡献或只是将其用作学习资源的人都可以使用。无论您是研究人员、开发人员还是 AI 爱好者,都可以访问源代码 Qwen

开始之前:要点

在我们踏上这段科技之旅之前,让我们确保您已经万事具备:

  • 带有 GPU 卡的 Linux 服务器 – 因为,让我们面对现实吧,速度至关重要。
  • Python 3.6 或更高版本 – 编程的魔杖。
  • pip 或 Anaconda – 您方便的花花公子包管理器。
  • Git(可选)——适合那些喜欢从存储库中新鲜获取代码的人。
  • NVIDIA 驱动程序、CUDA 工具包和 cuDNN 是 GPU 加速的三位一体。

明白了吗?极好!让我们亲自动手(当然是象征性的)。

精心设计对话:在哪里运行 Python 代码

无论您是 Visual Studio Code 的铁杆粉丝、PyCharm 爱好者,还是喜欢 Jupyter Notebooks 交互功能的人,与 Qwen 聊天的 Python 代码都是灵活且与 IDE 无关的。您所需要的只是一个支持 Python 的环境,然后您就可以让您的 AI 聊天伙伴栩栩如生了。

这里有一个专业提示:如果您使用 VSCode,请利用内置终端无缝运行 Python 脚本。只需打开命令选项板 (Ctrl+Shift+P),输入 Python:在终端中运行 Python 文件,然后让 VSCode 完成繁重的工作。您将在集成终端中看到 Qwen 的回复。

对于那些喜欢 PyCharm 的人来说,运行代码同样顺利。右键单击您的脚本并选择运行“script_name.py”,然后观察 IDE 执行与 Qwen 的对话。 PyCharm 强大的工具和调试功能使其成为开发更复杂交互的绝佳选择。

事情并没有就此结束——还有大量的 IDE 和代码编辑器张开双臂欢迎 Python。选择最适合您工作流程的一个,然后开始聊天!

开设商店:环境

首先要做的事情是:让我们准备您的 Linux 服务器。确保您的包列表像晨风一样新鲜,并且 Python 和 pip 已准备好发挥其魔力:

 

sudo apt update
sudo apt install python3 python3-pip

现在我们来谈谈秘密成分:虚拟环境。这就像拥有一个个人工作空间,您可以在其中弄乱,而无需有人对您大喊大叫来清理:

 

pip install --user virtualenv
虚拟环境 qwen_env
源 qwen_env/bin/activate

工具箱:安装依赖项

在我们将 Qwen 变为现实之前,您需要一些工具。将此视为收集米其林星级餐的原料:

 

pip 安装 torch torchvision torchaudio
pip 安装变压器

记住将 PyTorch 与您的 CUDA 版本相匹配 – 就像将优质葡萄酒与合适的奶酪搭配一样。

觉醒Qwen:模型初始化

说同一种语言:分词器

文字只是文字,直到 Qwen 赋予它们意义。这就是分词器发挥作用的地方,将你的想法变成 Qwen 可以咀嚼的东西:

Python

 

从转换器导入 AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B-Chat", trust_remote_code=True)

操作的大脑:模型

Qwen 的思维非常广阔,随时可以容纳您的对话。以下是唤醒沉睡巨人的方法:

Python

 

从变压器导入 AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B-Chat", device_map="auto", trust_remote_code=True).eval()

根据您的硬件,您可能会选择不同的精度模式,例如 BF16 或 FP16。这就像将吉他调至完美的音高一样。

与 Qwen 进行持续对话

现在到了令人心潮澎湃的部分——是时候和 Qwen 聊天了!但在你沉浸在来回的争论中之前,让我们先谈谈一些重要的事情:对话连续性的艺术。

以下是您可以期待的妙语连珠的一瞥:

Python

 

响应,history = model.chat(tokenizer, "你好,Qwen!数字领域的生活怎么样?", History=None)
print("Qwen:", 响应)

在我们的开场白中,我们向 Qwen 打招呼,没有任何附加条件——也就是说,没有对话历史。通过设置history=None,我们告诉Qwen,“这是我们聊天的开始。” Qwen 除了当前的继续提示之外什么都没有,将以新交互的新鲜感做出回应。

现在,观看上下文的魔力展开:

Python

 

response, History = model.chat(tokenizer, "对生命、宇宙和一切的意义有什么想法吗?", History=history)
print("Qwen:", 响应)

在这一轮中,我们将传递从上一次交流中收到的历史记录。这就像递给 Qwen 一本日记,其中记录了我们迄今为止讨论过的所有内容。有了这样的历史背景,Qwen 可以做出不仅诙谐或深刻而且与我们正在进行的对话相关的回应。这就像与认识你的明智朋友聊天和向陌生人提问之间的区别。

  • 为什么“历史”很重要:将历史视为将我们对话的珍珠串在一起的线索。没有它,Qwen 的每一个回应都将是一颗孤立的珍珠,美丽但孤独。伴随着历史,每一颗珍珠都牢固地打结到最后,创造出一串美丽而有凝聚力的对话。对话中语境为王,历史是语境的承载者。
  • 保持对话流畅:就像在人际互动中一样,提及过去的评论、笑话或故事会引发有趣的玩笑。 Qwen 掌握了对话历史,可以回忆和参考过去的交流,从而使聊天既连续又迷人。

准备,开始,交谈!

既然您已经熟悉了上下文的重要性,那么可以启动演示脚本并准备与 Qwen 进行有趣的聊天。无论您是在讨论宇宙还是数字饼干的最佳配方,Qwen 都准备好以经验丰富的对话者的优雅方式跟随您的对话。

此外,您可以启动该脚本并开始对话。这就像打开潘多拉魔盒,但你得到的不是混乱,而是令人愉快的玩笑:

Python

 

python qwen_chat.py

好了,我的朋友 – 你已经有了自己的人工智能聊天伙伴,准备好征服对话世界。

参与 Qwen:GitHub 上的演示代码

对于那些渴望深入了解并开始与 Qwen 聊天的人来说,可以方便地获得展示如何与模型交互的演示。演示代码可以在 GitHub 上找到,它提供了如何利用 Qwen 聊天模型进行对话的实践示例。代码设计清晰、人性化,让您亲身体验Qwen的功能。

要试用该演示,请访问 GitHub 存储库:Awesome-Qwen 并浏览示例目录。以下是克隆存储库并运行演示的方法:

 

# 克隆存储库
git 克隆 https://github.com/k-farruh/Awesome-Qwen.git

# 导航到存储库
cd Awesome-Qwen

# 安装必要的依赖项(如果还没有的话)
pip install -r 要求.txt

# 运行演示脚本
python qwen_chat.py

总结:大结局

恭喜!您已经像经验丰富的船长一样在人工智能部署的危险水域中航行。 Qwen 现在已紧密地安放在您的服务器上,您的数据就像房子一样安全。

探索 Qwen 的功能,为其发展做出贡献,并加入由志同道合、热衷于推动 AI 对话发展的个人组成的社区。查看 Awesome-Qwen GitHub 存储库了解更多信息并开始使用。

所以,继续与你闪亮的新人工智能伙伴进行史诗般的对话吧。谁知道呢?也许 Qwen 会以其数字智慧或让您惊叹不已的笑话让您大吃一惊。

Comments are closed.