在漫长的技术创新历史中,只有少数几种技术的发展像大型语言模型那样产生了如此深远的影响。大型语言模型是一种先进的人工智能系统,它们通过训练海量数据集来理解、生成和处理人类语言,从而用于写作、翻译、摘要生成以及驱动聊天机器人等各种任务。

拥有这样一个强大的离线工具,确实会带来翻天覆地的变化。这些本地化大型语言模型让你即使在离线状态下也能随时使用它们。读完本指南后,你将会了解什么是本地化大型语言模型、为什么它们如此重要,以及如何自己动手运行它们——无论是通过简单的方法,还是更技术性的途径。

本指南适合以下人群阅读,但并不限于这些人群:
– 开发者、技术文档编写人员或对新技术充满兴趣的工程师;
– 熟悉终端操作的人士;
– 曾接触过AI工具(如ChatGPT、Claude等)的人;
– 那些几乎没有本地运行大型语言模型经验的人。

目录

什么是本地化大型语言模型?

本地化大型语言模型将人工智能技术从云端带到了你的个人设备上。虽然标准的大型语言模型体积庞大,不适合在消费级设备上运行,但通过一种称为量化的技术,可以降低它们的数值精度——这就好比将一个高分辨率的视频文件压缩后,使其能够在手机上流畅播放一样。这样一来,强大的人工智能功能就可以在你的笔记本电脑上本地运行了,而无需依赖庞大的服务器集群。

在本地运行像Meta的Llama 3.3、Google的Gemma 3或阿里巴巴的Qwen系列这样的模型,不仅能确保数据隐私得到充分保护,还能避免支付订阅费用。因为这些人工智能系统运行在你的机器上,所以你能获得一个快速且具备离线功能的开发环境,你的代码也会处于你的直接控制之下。

“在本地运行”意味着什么

要了解本地运行的大型语言模型是如何在您的机器上运行的,就必须了解计算机的物理构成。当您在本地运行Llama 3或Mistral这样的模型时,您的硬件会从一台通用计算机转变为专门的AI处理设备。

这一过程依赖于四个关键硬件的紧密协作:存储设备、RAM、GPU和CPU。

存储设备(模型的永久存储空间)

在开始使用这些模型之前,首先需要下载它们。与普通应用程序不同,大型语言模型实际上是一份庞大的“权重文件”,其中包含代表AI所有知识的数值数据。

  • 文件格式:您会看到.gguf或.safetensors这类文件格式。这些文件的体积非常大:一个参数量为70亿的模型通常会占用5GB到10GB的磁盘空间。

  • SSD与HDD的区别:使用SSD是必不可少的。因为每次运行模型时,计算机都需要将数吉字节的数据加载到内存中,而传统的硬盘会导致系统等待很长时间才能完成数据读取。

VRAM与RAM(模型的工作区)

这是影响模型运行速度的最关键因素。为了让AI能够快速响应用户的指令,它的所有计算数据都必须存储在高速内存中。

  • VRAM(显存):这种内存是直接连接到显卡上的,其处理速度远高于普通系统RAM。如果模型的全部数据都能容纳在VRAM中,AI的反应速度甚至会超过人类的打字速度。

  • 系统RAM:如果模型的规模超过了GPU的处理能力,软件就会将部分数据存储到系统的普通RAM中。虽然这样可以让配置普通的计算机也能运行大型模型,但性能会大幅下降——处理速度可能会从每秒50个词降低到只有1到2个词。

GPU(数学计算引擎)

虽然CPU是计算机的“管理者”,但GPU(图形处理单元)才是真正的“数学专家”。

  • 并行计算能力:大型语言模型是通过同时执行数十亿次简单的数学运算来工作的。CPU虽然拥有几个高性能核心,但GPU却配备了数千个专为并行计算设计的小型核心。

  • 统一内存架构(苹果M1芯片):在现代的Mac电脑上(如M1/M2/M3系列),CPU和GPU会共享同一块内存。这种“统一内存”设计极大地提升了本地运行AI模型的性能,使得即使是配置较低的笔记本电脑也能处理那些通常需要高端台式机GPU才能运行的模型。

为了获得最佳的性能,请务必将您的计算机规格与所需模型对齐,确认自己是否能够顺利运行这些模型。

为什么要在本地运行大型语言模型?

在本地运行大型语言模型并不仅仅是为了满足技术爱好者的需求,对于任何希望完全掌控自己的AI系统的人来说,这都是一个明智的选择。在当地运行这类模型的主要优势包括:

  1. 离线使用:你并不受云环境的限制,无论身处何地都可以使用自己的数据。无论是在飞机上还是在偏远地区,你的AI模型都能在无需互联网连接的情况下正常运行。

  2. 隐私与数据所有权:由于没有连接到云端,因此不存在数据或提示被第三方远程利用或被用于训练其他模型的风险。

  3. 成本控制:无需每月支付订阅费或API令牌费用。只要拥有相应的硬件设备,根据你的配置,运行这些模型基本上是免费的。

  4. 定制化与实验:如果你下载了多个模型,可以随时进行切换尝试。不同的模型可以用来完成特定的任务,你还可以调整那些大型供应商通常会限制用户修改的设置。

  5. 加速开发流程:对于开发者来说,本地运行模型消除了网络延迟的问题,从而能够实现近乎即时的响应和更快速的测试循环。

需要考虑的权衡因素

本地大型语言模型也存在一些需要考虑的权衡因素:

  • 硬件要求:为了获得流畅的性能,你需要配备性能良好的硬件——具体来说,需要一块拥有足够VRAM的GPU(通常建议8GB以上),或者一台搭载Apple Silicon处理器的Mac电脑(M1/M2/M3系列)。

  • 性能限制:虽然本地模型的性能正在不断提升,但它们可能仍然无法与像GPT-4这样规模庞大、耗资数十亿美元的云集群相比,在“推理能力”上达到同样的水平。

  • 初始设置难度

    >并非所有情况都适合“即插即用”。如果你想使用某些特定功能,就需要花费一些时间来配置软件、下载模型文件,并解决可能出现的环境问题。

尽管存在这些权衡因素,但能够拥有这样一种工具并能够自主控制它,仍然在日常生活中带来了巨大的便利。

如何搭建本地大型语言模型

有很多方法可以获取和搭建本地大型语言模型,但在本指南中,我们将使用Ollama这一用户友好的工具。通过它,你可以将私密且安全的AI技术直接应用到自己的电脑上。你将学习如何通过一个命令来下载并部署高性能模型,根据自己的CPU/GPU配置对它们进行优化,并利用强大的Modelfile系统来“定制”符合自己需求的AI模型。

我们将会涵盖以下内容:

  • 基础知识:了解Ollama是如何将你的电脑变成一个强大的AI计算平台的。

  • 安装与设置:在不到五分钟的时间内完成整个搭建过程。

  • 模型管理:学习如何查找、下载并运行像Llama 3或Mistral这样的模型。

  • 定制化操作:编写你的第一个Modelfile文件,为你的AI模型指定具体的功能或“个性”。

完成这些步骤后,你将会拥有一套完全独立的人工智能工作站,它能够进行复杂的推理运算,而无需向云端传输任何数据。

什么是Ollama?

Ollama是一款免费的开源工具,它使得在自家硬件上运行大型语言模型变得像打开网页浏览器一样简单。它消除了人工智能研究通常伴随的技术复杂性,为你提供了一种简洁明了的方式来与人工智能模型进行交互、管理甚至自定义这些模型。

在Ollama出现之前,在本地运行人工智能相关程序是一件非常麻烦的事情。你需要在网上寻找合适的“权重”文件,搭建复杂的编码环境,还要担心硬件是否会出故障。但现在,再也不需要花费数小时来配置软件了——Ollama会自动完成这一切。它会自动检测你的显卡,并为你调整相应的设置。

Ollama的工作原理

Ollama遵循一种简单的“思维模型”,这种模型模仿了你使用手机应用程序或流媒体服务播放音乐的方式。

模型库

Ollama维护着一个庞大的“模型库”,其中包含了诸如Llama 3、Mistral和Gemma等预先打包好的人工智能模型。你无需担心文件格式的问题,只需从列表中选择一个模型名称,Ollama就会将其下载到你的设备上。

本地运行引擎

一旦获取到了所需的模型,Ollama就会充当运行引擎的角色。它会启动该模型,将其加载到计算机的内存中,然后开始进行数学运算。Ollama会智能地利用你的显卡来提升运行速度,但如果你只有普通的CPU,它也同样可以正常工作。

命令行界面

Ollama采用了命令行界面来进行操作。虽然这个说法听起来有些技术性,但实际上就是意味着你可以在终端窗口中输入简单的指令来控制Ollama。想要与某个模型进行对话?只需告诉它开始运行即可;想查看自己下载了哪些模型?只需要请求它列出这些模型的列表。

如何安装Ollama

请访问Ollama的下载页面。对于Windows和Mac系统,只需点击下载按钮即可。

Ollama下载页面的截图,显示了macOS、Linux和Windows系统的下载选项,其中Windows选项选择了PowerShell安装命令(irm https://ollama.com/install.ps1 | iex),并且还有一个“下载适用于Windows”的按钮(需要Windows 10或更高版本系统)。

对于Linux系统,请运行以下命令:

curl -fsSL https://ollama.com/install.sh | sh

下载完成后,请打开该文件,按照安装说明进行操作即可完成安装。

在Windows和Mac系统中,安装完成后,Ollama的原生桌面应用程序应该会自动打开。

Ollama桌面应用程序界面的截图,显示了侧边栏中的“新建聊天”和“设置”选项,一个带有Llama图标的空白聊天区域,消息输入框,以及当前选定的模型“llama2:7b”。

对于那些觉得命令行界面令人望而却步的人来说,这种图形用户界面无疑非常有用;使用Ollama并不需要具备编程技能。你无需输入命令,只需通过一个外观与普通聊天应用毫无区别的界面来管理模型并开始对话即可。

如何下载大型语言模型

如前所述,Ollama拥有一个包含多种规格和用途的大型语言模型的丰富资源库。要将某个模型下载到你的电脑上,只需使用“pull”命令后跟上该模型的名称即可。例如:

ollama pull gemma3:1b

要查看你已下载或拥有的模型,可以使用“list”命令,如下所示:

ollama list

如何运行你下载的大型语言模型

现在你的电脑上已经安装好了该大型语言模型。要使用它,只需使用“run”命令后跟上模型的名称即可。例如:

ollama run gemma3:1b

模型将会被加载出来,之后你就可以向它发送指令了。

Windows命令提示符中显示“ollama run gemma3:1b”已成功执行的截图,提示信息为“输入内容(/?可获取帮助),说明模型已准备好接收输入。” height=

要退出该模型,可以按Ctrl + d键,或者输入/bye命令。
你还可以执行其他操作,比如删除模型、复制模型、查看模型的详细信息等等。输入“ollama help”即可查看所有这些命令。

在深色背景下的命令行界面中显示“ollama”的帮助信息,标题为“大型语言模型运行工具”。其中包含了“使用方法”和“可用命令”两大板块,列出了“serve”、“create”、“show”、“run”、“stop”、“pull”和“list”等命令,并对每个命令进行了简要说明。屏幕底部还展示了“标志选项”,包括“-h, --help”、“--verbose”和“--version”等选项。’ height="400" loading="lazy" src="https://cdn.hashnode.com/uploads/covers/6349de767b9ff550634412bf/a30f393e-0b88-40db-b5ef-e0e1e30acc43.png" style="display:block;margin:0 auto" width="600"/></p>
<h2>如何使用Modelfile自定义Ollama中的本地模型</h2>
<p>Ollama最强大的功能之一就是允许用户通过<strong>Modelfile</strong>来自定义本地模型的行为。与将模型视为固定的黑箱不同,Modelfile使你能够定义模型应该以何种方式响应指令、扮演什么角色以及如何生成文本,而无需重新训练或微调模型。</p>
<p>正因为如此,Modelfile非常适合用于创建可重复使用、针对特定任务设计的本地模型,例如技术文档编写工具、代码审核系统、研究辅助工具,甚至是基于角色的智能助手等。</p>
<h2>什么是Modelfile?</h2>
<p>Modelfile是一种纯文本配置文件,Ollama会利用它根据现有的模型创建新的模型。该文件描述了基础模型在运行时应该如何被封装、接收指令以及进行配置。</p>
<p>本质上,模型文件的作用就是:</p>
<ul>
<li>
<p>以一个基础模型为起点</p>
</li>
<li>
<p>应用一系列指令</p>
</li>
<li>
<p>生成一个新的、具有特定名称的模型,这个模型可以像其他普通模型一样被使用</p>
</li>
</ul>
<p>模型文件并不会修改底层模型的权重。相反,它们定义了模型的行为规则:模型应该如何被引导、如何生成文本,以及如何响应用户的输入。</p>
<h3>模型文件的语法与结构</h3>
<p>模型文件是以行为基础的、采用声明式格式编写的。每一条指令都定义了模型行为的某个具体方面。</p>
<p>一个最简单的模型文件如下所示:</p>
<pre><code class="language-markdown">FROM llama3

SYSTEM """
你是一名高级技术作家。</param>

PARAMETER temperature 0.2
</code></pre>
<ul>
<li>
<p><strong>FROM</strong>:这是模型文件的基础部分。它指定了系统应该从哪个基础模型(例如lama3)中继承智能和分词功能。</p>
</li>
<li>
<p><strong>SYSTEM</strong>:这部分用于设置模型的“永久性”行为规则。通过指定“高级技术作家”这一角色,我们可以确保模型生成的每条回复都保持专业且结构清晰的语气,而无需在每次提示中都明确说明这一点。</p>
</li>
<li>
<p><strong>PARAMETER</strong>:这些参数用于调整模型的生成设置,例如随机性或上下文相关性的程度。在这个例子中,我们使用“temperature 0.2”这个参数来降低模型的“创造性”,使其生成的内容更加确定性和精确性,这样就能确保输出内容的一致性与准确性。</p>
</li>
</ul>
<p>高级用户还可以使用《模板》来自定义提示格式,并通过添加《消息》指令来包含特定的对话历史记录,不过对于这种基本设置来说,这些功能并不是必需的。</p>
<p><strong>快速参考表:</strong></p>
<table style="min-width:75px">
<colgroup>
<col style="min-width:25px/>
<col style="min-width:25px/>
<col style="min-width:25px"/></colgroup>
<tbody>
<tr>
<td>
<p><strong>指令</strong></p>
</td>
<td>
<p><strong>作用</strong></p>
</td>
<td>
<p><strong>示例</strong></p>
</td>
</tr>
<tr>
<td>
<p><strong>FROM</strong></p>
</td>
<td>
<p><strong>必需项。</strong>用于指定基础模型。</p>
</td>
<td>
<p>FROM llama3</p>
</td>
</tr>
<tr>
<td>
<p><strong>SYSTEM</strong></p>
</td>
<p>用于设定模型的角色和行为规则。</p>
</td>
<td>
<p>SYSTEM “你是一个乐于助人的助手。”</p>
</td>
</tr>
<tr>
<td>
<p><strong>PARAMETER</strong></p>
</td>
<td>
<p>用于调整模型的生成参数,如随机性或上下文相关性。</p>
</td>
<td>
<p>PARAMETER temperature 0.2</p>
</td>
</tr>
<tr>
<p><strong>TEMPLATE</strong></p>
</td>
<p>用于规定用户/系统的提示信息应该如何格式化。</p>
</td>
<p>TEMPLATE “{{ .System }}\nUser: {{ .Prompt }}”</p>
</td>
</tr>
<tr>
<p><strong>STOP</strong></p>
</td>
<td>
<p>用于指定结束模型响应的标记字符。</p>
</td>
<td>
<p>STOP “</s>”</p>
</td>
</tr>
<tr>
<p><strong>MESSAGE</strong></p>
</td>
<p>用于向模型中添加特定的对话历史记录。</p>
</td>
<p>MESSAGE user “Hello!”</p>
</td>
</tr>
</tbody>
</table>
<h2>如何自定义模型</h2>
<p>使用模型文件来创建模型时,Ollama会按照以下步骤进行操作:</p>
<ul>
<li>
<p>加载指定的基础模型</p>
</li>
<li>
<p>应用系统级别的指令</p>
</li>
<li>
<p>配置生成参数</p>
</li>
<li>
<p>将结果注册为新的本地模型</p>
</li>
</ul>
<p>在本文中,您将使用自己选择的任何本地大语言模型来创建一个技术写作助手。您可以使用之前下载的模型,或者下载另一个您认为更适合这个用途的模型。</p>
<ol>
<li>
<p>准备开发环境:创建一个名为<code>my-writing-assistant</code>的文件夹,然后在其所在的IDE或文本编辑器中打开它。</p>
</li>
<li>
<p>创建模型文件:在该文件夹中创建一个名为Modelfile的文件,并在其中填写以下内容:</p>
</li>
</ol>
<pre><code class="language-markdown">FROM llama3 

SYSTEM """
你是一名高级技术写作专家。
请撰写清晰简洁的解释性文本。
适当使用标题和项目符号。
避免使用营销语言。</code>

PARAMETER temperature 0.2
PARAMETER top_p 0.9
PARAMETER repeat Penalty 1.1
PARAMETER num_ctx 4096
</code></pre>
<ol>
<li>
<p>创建模型:在IDE中打开终端;如果使用的文本编辑器没有内置终端,那就打开命令提示符,进入my-writing-assistant目录,然后运行以下命令:</p>
<pre><code class="language-plaintext">ollama create tech-writer -f Modelfile
</code></pre>
<p>您应该会看到如下类似的反馈信息:</p>
<p><img alt=

  • 运行模型:您可以像使用其他Ollama模型一样,通过run命令来运行这个模型:

    ollama run tech-writer
    

    命令行界面的截图,显示“ollama run tech-writer”命令正在执行。命令下方会出现一个交互式提示框,上面写着“>>>>> 发送消息(/?可获取帮助)”,这说明自定义模型已经可以正常使用了。’ height=”400″ loading=”lazy” src=”https://cdn.hashnode.com/uploads/covers/6349de767b9ff550634412bf/ea8bb6a7-b64d-422c-9f52-6526ed1c8496.png” style=”display:block;margin:0 auto” width=”600″/></p>
<p>尝试输入一些基于文档的提示内容,看看模型的表现是否与Modelfile中设定的内容完全一致。</p>
</li>
</ol>
<p>您还可以使用<strong>桌面应用程序</strong>来与自己下载并修改后的模型进行交互。只需打开该应用程序,从聊天框的下拉菜单中选择所需的模型,然后开始发送提示信息即可。</p>
<p><img alt="白色主题的聊天界面截图,其中聊天框的下拉菜单处于展开状态。” height="400" loading="lazy" src="https://cdn.hashnode.com/uploads/covers/6349de767b9ff550634412bf/896cd707-0695-494c-b8a8-b70ded37ce10.png" style="display:block;margin:0 auto" width="600"/></p>
<h2>模型文件能做什么与不能做什么</h2>
<p>模型文件功能强大,但了解其适用范围非常重要。</p>
<p>它们能够:</p>
<ul>
<li>
<p>自定义模型的行为</p>
</li>
<li>
<p>确保提示语的一致性</p>
</li>
<li>
<p>调整模型的生成特性</p>
</li>
<li>
<p>创建可重复使用的本地模型</p>
</li>
</ul>
<p>而它们不能:</p>
<ul>
<li>
<p>重新训练或微调模型权重</p>
</li>
<li>
<p>为模型添加新知识</p>
</li>
<li>
<p>改变模型的架构结构</p>
</li>
</ul>
<p>模型文件决定了模型的响应方式,但并不能改变模型所掌握的知识内容。</p>
<h2>结论</h2>
<p>如今,在本地运行大型语言模型已不再只是研究人员或高端设备的专属权限。借助Ollama与模型文件,你可以下载功能强大的模型,在自己的设备上运行它们,并根据实际需求调整它们的行为模式。</p>
<p>在本指南中,我们介绍了什么是本地大型语言模型、它们为何重要、Ollama如何简化设置流程,以及模型文件如何帮助你控制提示语的语气、结构及生成参数。这样一来,你就无需使用通用的聊天机器人,而是可以构建出更具针对性、专为特定任务设计的辅助工具。</p>
<p>更重要的是,在本地运行模型会彻底改变你与人工智能交互的方式。你不再只是被动地使用API,而是能够真正理解并操控这个系统本身。随着人工智能不断影响软件、商业及日常工具的发展,通过实际操作本地模型,你能更清晰地预见这项技术的发展方向。要了解这种变化,最好的办法就是亲自进行实验,下载模型文件并进行相应的调整。</p>
<div class="crp_related "><h3>Related Posts:</h3><ul><li><a href="http://www.cheeli.com.cn/articles/implementing-rag-with-spring-ai-and-ollama-using-local-ai-llm-models/"    ><img  width="150" height="150"  src="http://www.cheeli.com.cn/wp-content/uploads/2024/02/17452233 -aidocumentlibrarychat-architecture-ollama.png" class="crp_thumb crp_correctfirst" alt="使用本地 AI/LLM 模型通过 Spring AI 和 Ollama 实现 RAG" title="使用本地 AI/LLM 模型通过 Spring AI 和 Ollama 实现 RAG" /><span class="crp_title">使用本地 AI/LLM 模型通过 Spring AI 和 Ollama 实现 RAG</span></a></li><li><a href="http://www.cheeli.com.cn/articles/how-to-build-a-low-latency-video-streaming-app-with-scylladb-nosql-and-nextjs/"    ><img  width="150" height="150"  src="http://www.cheeli.com.cn/wp-content/uploads/2024/01/17452197-1705500216504-4.png" class="crp_thumb crp_correctfirst" alt="如何使用 ScyllaDB NoSQL 和 NextJS 构建低延迟视频流应用程序" title="如何使用 ScyllaDB NoSQL 和 NextJS 构建低延迟视频流应用程序" /><span class="crp_title">如何使用 ScyllaDB NoSQL 和 NextJS 构建低延迟视频流应用程序</span></a></li><li><a href="http://www.cheeli.com.cn/articles/simplifying-data-management-how-storagex-uses-ai-to-help-developers/"    ><img  width="150" height="150"  src="http://www.cheeli.com.cn/wp-content/plugins/contextual-related-posts/default.png" class="crp_thumb crp_default" alt="简化数据管理:StorageX 如何使用 AI 帮助开发人员" title="简化数据管理:StorageX 如何使用 AI 帮助开发人员" /><span class="crp_title">简化数据管理:StorageX 如何使用 AI 帮助开发人员</span></a></li><li><a href="http://www.cheeli.com.cn/articles/how-to-install-live-chat-and-chatbot-using-phonegap-sdk/"    ><img  width="150" height="150"  src="http://www.cheeli.com.cn/wp-content/uploads/2024/02/17513612-phonegap.jpg" class="crp_thumb crp_correctfirst" alt="如何使用 PhoneGap SDK 安装实时聊天和聊天机器人" title="如何使用 PhoneGap SDK 安装实时聊天和聊天机器人" /><span class="crp_title">如何使用 PhoneGap SDK 安装实时聊天和聊天机器人</span></a></li><li><a href="http://www.cheeli.com.cn/articles/how-to-deploy-machine-learning-models-using-amazon-sagemaker/"    ><img  width="150" height="150"  src="http://www.cheeli.com.cn/wp-content/uploads/2024/02/17515512-1708065399566.png" class="crp_thumb crp_correctfirst" alt="如何使用 Amazon SageMaker 部署机器学习模型" title="如何使用 Amazon SageMaker 部署机器学习模型" /><span class="crp_title">如何使用 Amazon SageMaker 部署机器学习模型</span></a></li><li><a href="http://www.cheeli.com.cn/articles/how-to-build-an-ai-powered-rag-search-application-with-next-js-supabase-and-openai/"    ><img  width="150" height="150"  src="http://www.cheeli.com.cn/wp-content/plugins/contextual-related-posts/default.png" class="crp_thumb crp_default" alt="如何使用 Next.js、Supabase 和 OpenAI 来构建基于 AI 的 RAG 搜索应用程序" title="如何使用 Next.js、Supabase 和 OpenAI 来构建基于 AI 的 RAG 搜索应用程序" /><span class="crp_title">如何使用 Next.js、Supabase 和 OpenAI 来构建基于 AI 的 RAG 搜索应用程序</span></a></li></ul><div class="crp_clear"></div></div>                </div>
				<div class="entry-meta meta-tags">Tags: <span class="tag-links"><a href="http://www.cheeli.com.cn/articles/tag/%e8%af%a5%e6%a8%a1%e5%9e%8b%e9%9d%9e%e5%b8%b8%e5%bc%ba%e5%a4%a7%e3%80%82/" rel="tag">该模型非常强大。</a></span></div>
</div>
			</div>
            
  <section id="comments">
	  <div class="comments-closed">
		  Comments are closed.	  </div>
  </section><!-- /#comments -->

        		
     </div><!-- /.col-md-12 -->                  	
    </div><!-- /.row -->

			</section>

	</div><!-- /.main -->    
         <aside class="sidebar side-right col-sm-4  th-widget-area" role="complementary">
	<section class="widget search-2 widget_search"><div class="widget-inner"><h3 class="widget-title">搜索</h3><form role="search" method="get" class="search-form form-inline" action="http://www.cheeli.com.cn/">
  <div class="input-group">
    <input type="search" value="" name="s" class="search-field form-control" placeholder="Search 上海软件外包公司-知力科技">
    <label class="hide">Search for:</label>
    <span class="input-group-btn">
      <button type="submit" class="search-submit btn btn-default">Search</button>
    </span>
  </div>
</form></div></section><section class="widget categories-2 widget_categories"><div class="widget-inner"><h3 class="widget-title">分类</h3>		<ul>
	<li class="cat-item cat-item-425"><a href="http://www.cheeli.com.cn/articles/category/iot/" >IoT</a>
</li>
	<li class="cat-item cat-item-64"><a href="http://www.cheeli.com.cn/articles/category/expertpoint/" >专家观点</a>
</li>
	<li class="cat-item cat-item-441"><a href="http://www.cheeli.com.cn/articles/category/%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd/" >人工智能</a>
</li>
	<li class="cat-item cat-item-117"><a href="http://www.cheeli.com.cn/articles/category/%e5%a4%a7%e6%95%b0%e6%8d%ae/" >大数据</a>
</li>
	<li class="cat-item cat-item-476"><a href="http://www.cheeli.com.cn/articles/category/%e5%ae%89%e5%85%a8/" >安全</a>
</li>
	<li class="cat-item cat-item-495"><a href="http://www.cheeli.com.cn/articles/category/%e6%93%8d%e4%bd%9c%e7%b3%bb%e7%bb%9f/" >操作系统</a>
</li>
	<li class="cat-item cat-item-426"><a href="http://www.cheeli.com.cn/articles/category/%e6%95%85%e9%9a%9c%e9%a2%84%e8%ad%a6/" >故障预警</a>
</li>
	<li class="cat-item cat-item-469"><a href="http://www.cheeli.com.cn/articles/category/%e6%95%b0%e6%8d%ae%e5%ba%93/" >数据库</a>
</li>
	<li class="cat-item cat-item-477"><a href="http://www.cheeli.com.cn/articles/category/%e6%9e%b6%e6%9e%84/" >架构</a>
</li>
	<li class="cat-item cat-item-48"><a href="http://www.cheeli.com.cn/articles/category/hotnews/" >热点关注</a>
</li>
	<li class="cat-item cat-item-143"><a href="http://www.cheeli.com.cn/articles/category/%e7%a7%bb%e5%8a%a8/" >移动</a>
</li>
	<li class="cat-item cat-item-82"><a href="http://www.cheeli.com.cn/articles/category/%e8%bd%af%e4%bb%b6%e5%bc%80%e5%8f%91/" >软件开发</a>
</li>
	<li class="cat-item cat-item-1"><a href="http://www.cheeli.com.cn/articles/category/uncategorized/" >默认</a>
</li>
		</ul>
</div></section><section class="widget tag_cloud-4 widget_tag_cloud"><div class="widget-inner"><h3 class="widget-title">标签</h3><div class="tagcloud"><a href="http://www.cheeli.com.cn/articles/tag/ai/" class="tag-cloud-link tag-link-65 tag-link-position-1" style="font-size: 14.810810810811pt;" aria-label="AI (79个项目)">AI</a>
<a href="http://www.cheeli.com.cn/articles/tag/blank/" class="tag-cloud-link tag-link-193 tag-link-position-2" style="font-size: 9.7027027027027pt;" aria-label="blank (22个项目)">blank</a>
<a href="http://www.cheeli.com.cn/articles/tag/code/" class="tag-cloud-link tag-link-119 tag-link-position-3" style="font-size: 17.837837837838pt;" aria-label="code (166个项目)">code</a>
<a href="http://www.cheeli.com.cn/articles/tag/data/" class="tag-cloud-link tag-link-130 tag-link-position-4" style="font-size: 18.216216216216pt;" aria-label="data (183个项目)">data</a>
<a href="http://www.cheeli.com.cn/articles/tag/em/" class="tag-cloud-link tag-link-149 tag-link-position-5" style="font-size: 11.594594594595pt;" aria-label="em (35个项目)">em</a>
<a href="http://www.cheeli.com.cn/articles/tag/href/" class="tag-cloud-link tag-link-137 tag-link-position-6" style="font-size: 10.175675675676pt;" aria-label="href (25个项目)">href</a>
<a href="http://www.cheeli.com.cn/articles/tag/iot/" class="tag-cloud-link tag-link-513 tag-link-position-7" style="font-size: 10.554054054054pt;" aria-label="iot (27个项目)">iot</a>
<a href="http://www.cheeli.com.cn/articles/tag/java/" class="tag-cloud-link tag-link-100 tag-link-position-8" style="font-size: 8.9459459459459pt;" aria-label="JAVA (18个项目)">JAVA</a>
<a href="http://www.cheeli.com.cn/articles/tag/kafka/" class="tag-cloud-link tag-link-237 tag-link-position-9" style="font-size: 10.364864864865pt;" aria-label="kafka (26个项目)">kafka</a>
<a href="http://www.cheeli.com.cn/articles/tag/li/" class="tag-cloud-link tag-link-225 tag-link-position-10" style="font-size: 14.905405405405pt;" aria-label="li (81个项目)">li</a>
<a href="http://www.cheeli.com.cn/articles/tag/line/" class="tag-cloud-link tag-link-180 tag-link-position-11" style="font-size: 8.472972972973pt;" aria-label="line (16个项目)">line</a>
<a href="http://www.cheeli.com.cn/articles/tag/ltr/" class="tag-cloud-link tag-link-956 tag-link-position-12" style="font-size: 10.837837837838pt;" aria-label="ltr (29个项目)">ltr</a>
<a href="http://www.cheeli.com.cn/articles/tag/nbsp/" class="tag-cloud-link tag-link-439 tag-link-position-13" style="font-size: 11.405405405405pt;" aria-label="nbsp (34个项目)">nbsp</a>
<a href="http://www.cheeli.com.cn/articles/tag/python/" class="tag-cloud-link tag-link-133 tag-link-position-14" style="font-size: 9.8918918918919pt;" aria-label="python (23个项目)">python</a>
<a href="http://www.cheeli.com.cn/articles/tag/span/" class="tag-cloud-link tag-link-197 tag-link-position-15" style="font-size: 16.040540540541pt;" aria-label="span (107个项目)">span</a>
<a href="http://www.cheeli.com.cn/articles/tag/strong/" class="tag-cloud-link tag-link-116 tag-link-position-16" style="font-size: 20.77027027027pt;" aria-label="strong (339个项目)">strong</a>
<a href="http://www.cheeli.com.cn/articles/tag/variable/" class="tag-cloud-link tag-link-922 tag-link-position-17" style="font-size: 10.648648648649pt;" aria-label="variable (28个项目)">variable</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e4%b8%9a%e5%8a%a1/" class="tag-cloud-link tag-link-287 tag-link-position-18" style="font-size: 9.7027027027027pt;" aria-label="业务 (22个项目)">业务</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e4%b8%ad/" class="tag-cloud-link tag-link-178 tag-link-position-19" style="font-size: 12.351351351351pt;" aria-label="中 (43个项目)">中</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e4%ba%91/" class="tag-cloud-link tag-link-472 tag-link-position-20" style="font-size: 9.8918918918919pt;" aria-label="云 (23个项目)">云</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd/" class="tag-cloud-link tag-link-72 tag-link-position-21" style="font-size: 12.162162162162pt;" aria-label="人工智能 (41个项目)">人工智能</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e4%bb%a3%e7%a0%81/" class="tag-cloud-link tag-link-103 tag-link-position-22" style="font-size: 10.364864864865pt;" aria-label="代码 (26个项目)">代码</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e4%bc%81%e4%b8%9a/" class="tag-cloud-link tag-link-342 tag-link-position-23" style="font-size: 9.8918918918919pt;" aria-label="企业 (23个项目)">企业</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e4%bc%9a/" class="tag-cloud-link tag-link-227 tag-link-position-24" style="font-size: 11.783783783784pt;" aria-label="会 (37个项目)">会</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e4%bd%bf%e7%94%a8/" class="tag-cloud-link tag-link-156 tag-link-position-25" style="font-size: 12.918918918919pt;" aria-label="使用 (49个项目)">使用</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e5%85%ac%e5%8f%b8/" class="tag-cloud-link tag-link-210 tag-link-position-26" style="font-size: 9.3243243243243pt;" aria-label="公司 (20个项目)">公司</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e5%88%86%e6%9e%90/" class="tag-cloud-link tag-link-399 tag-link-position-27" style="font-size: 8.472972972973pt;" aria-label="分析 (16个项目)">分析</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e5%9b%a2%e9%98%9f/" class="tag-cloud-link tag-link-164 tag-link-position-28" style="font-size: 8.7567567567568pt;" aria-label="团队 (17个项目)">团队</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e5%ad%a6%e4%b9%a0/" class="tag-cloud-link tag-link-566 tag-link-position-29" style="font-size: 8.472972972973pt;" aria-label="学习 (16个项目)">学习</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e5%ae%89%e5%85%a8/" class="tag-cloud-link tag-link-462 tag-link-position-30" style="font-size: 11.878378378378pt;" aria-label="安全 (38个项目)">安全</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e5%b7%a5%e5%85%b7/" class="tag-cloud-link tag-link-422 tag-link-position-31" style="font-size: 8.1891891891892pt;" aria-label="工具 (15个项目)">工具</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e6%8a%80%e6%9c%af/" class="tag-cloud-link tag-link-78 tag-link-position-32" style="font-size: 12.067567567568pt;" aria-label="技术 (40个项目)">技术</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e6%95%b0%e6%8d%ae/" class="tag-cloud-link tag-link-87 tag-link-position-33" style="font-size: 22pt;" aria-label="数据 (457个项目)">数据</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e6%95%b0%e6%8d%ae%e5%ba%93/" class="tag-cloud-link tag-link-298 tag-link-position-34" style="font-size: 14.432432432432pt;" aria-label="数据库 (71个项目)">数据库</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e6%9c%8d%e5%8a%a1/" class="tag-cloud-link tag-link-194 tag-link-position-35" style="font-size: 12.256756756757pt;" aria-label="服务 (42个项目)">服务</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e6%9f%a5%e8%af%a2/" class="tag-cloud-link tag-link-115 tag-link-position-36" style="font-size: 8pt;" aria-label="查询 (14个项目)">查询</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e6%a8%a1%e5%9e%8b/" class="tag-cloud-link tag-link-123 tag-link-position-37" style="font-size: 13.675675675676pt;" aria-label="模型 (59个项目)">模型</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e6%b5%8b%e8%af%95/" class="tag-cloud-link tag-link-226 tag-link-position-38" style="font-size: 9.5135135135135pt;" aria-label="测试 (21个项目)">测试</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e7%94%a8%e6%88%b7/" class="tag-cloud-link tag-link-126 tag-link-position-39" style="font-size: 11.689189189189pt;" aria-label="用户 (36个项目)">用户</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e7%b3%bb%e7%bb%9f/" class="tag-cloud-link tag-link-202 tag-link-position-40" style="font-size: 11.783783783784pt;" aria-label="系统 (37个项目)">系统</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e7%bc%93%e5%ad%98/" class="tag-cloud-link tag-link-335 tag-link-position-41" style="font-size: 8.472972972973pt;" aria-label="缓存 (16个项目)">缓存</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e7%bd%91%e7%bb%9c/" class="tag-cloud-link tag-link-311 tag-link-position-42" style="font-size: 8.9459459459459pt;" aria-label="网络 (18个项目)">网络</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e8%ae%be%e5%a4%87/" class="tag-cloud-link tag-link-451 tag-link-position-43" style="font-size: 10.554054054054pt;" aria-label="设备 (27个项目)">设备</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e9%97%ae%e9%a2%98/" class="tag-cloud-link tag-link-247 tag-link-position-44" style="font-size: 9.3243243243243pt;" aria-label="问题 (20个项目)">问题</a>
<a href="http://www.cheeli.com.cn/articles/tag/%e9%a1%b9%e7%9b%ae/" class="tag-cloud-link tag-link-161 tag-link-position-45" style="font-size: 8.1891891891892pt;" aria-label="项目 (15个项目)">项目</a></div>
</div></section>		<section class="widget recent-posts-2 widget_recent_entries"><div class="widget-inner">		<h3 class="widget-title">最新发布</h3>		<ul>
											<li>
					<a href="http://www.cheeli.com.cn/articles/build-a-loom-clone-with-next-js-15-and-mux/">使用 Next.js 15 和 Mux 构建一个可克隆的织布机模型</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/how-to-run-and-customize-llms-locally-with-ollama/">如何使用 Ollama 在本地运行并自定义大语言模型</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/oss-pull-request-therapy-learning-to-enjoy-code-reviews-with-npmx/">OSS-Pull-Request-Therapy:-学习如何借助npmx享受代码评审的过程</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/how-open-source-can-grow-your-tech-career-a-handbook-for-beginners/">开源如何帮助你发展技术职业生涯:一本面向初学者的指南</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/githubs-points-to-a-more-global-ai-challenged-open-source-ecosystem-in-2026/">GitHub——在2026年推动更多开源项目的发展,助力人工智能领域的创新与发展</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/google-enhances-node-pool-auto-creation-speed-for-gke-clusters/">谷歌提升了GKE集群中节点池的自动创建速度</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/aws-launches-agent-plugins-to-automate-cloud-deployment/">AWS推出了用于自动化云部署的代理插件</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/google-cloud-brings-full-opentelemetry-support-to-cloud-monitoring-metrics/">谷歌云为云监控指标提供了对OpenTelemetry技术的全面支持</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/google-publishes-scaling-principles-for-agentic-architectures/">谷歌发布的关于代理架构的扩展原则</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/from-central-control-to-team-autonomy-rethinking-infrastructure-delivery/">从中央控制向团队自主性的转变:重新审视基础设施的交付方式</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/google-launches-automated-review-feature-in-gemini-cli-conductor/">谷歌在Gemini CLI Conductor中推出了自动化审核功能</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/what-is-disaster-recovery-testing-explained-with-practical-examples/">什么是灾难恢复测试?并通过实际例子进行说明</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/java-news-roundup-lazy-constants-tornadovm-3-0-netbeans-29-quarkus-jreleaser-open-liberty/">Java新闻汇总:惰性常量、TornadoVM 3.0、NetBeans 29、Quarkus、JReleaser以及Open Liberty</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/video-podcast-frictionless-devex-with-nicole-forsgren/">[视频播客]——无摩擦环境下的开发体验:Nicole Forsgren与您一起探讨</a>
									</li>
											<li>
					<a href="http://www.cheeli.com.cn/articles/openai-codex-spark-achieves-ultra-fast-coding-speeds-on-cerebras-hardware/">OpenAI-Codex-Spark在Cerebras硬件上实现了超快的编码速度</a>
									</li>
					</ul>
		</div></section>
        		<section class="widget widget-social">
    		<div class="widget-inner">
        		                <h3 class="widget-title">分享至</h3>
                        			<div class="soc-widget">
        			<a target=_blank  href=