发布时间:2025-09-17
浏览次数:0
苍何在Mac系统上顺利安装了阿里开源的Qwen3模型,并探索出三种令人激动的应用方式。本文将介绍Qwen3的卓越能力,以及它如何通过本地部署完成知识库维护、写作辅助和数据库处理等实际任务,揭示其在人工智能领域的重要价值。
五一回老家那会,和发小吃了个饭,聊到了现在的 AI。
有人看到我使用人工智能技术感觉很兴奋,他也想在工作中提高效率,但是公司的电脑不允许连接互联网。
这让我瞬间穿越回几年之前,在讯飞某个机密计划里,没有网络的情况下埋头编写程序的场景。
这真是太痛苦了。
为了使好友在工作中运用人工智能,我努力指导他如何在本地安装当下备受关注的 Qwen3。
并且找到了三种颇具趣味且颇具用处的操作方式,不得不说,Qwen3 真的让人着迷。
经历一番周折,证实了官方所言非虚,“Qwen3-4B 这种小型模型确实能够媲美 Qwen2.5-72B- 的表现。”,所言极是。
我的 Mac 安装了最新版本的 Qwen3-8b,倘若硬件配置能进一步提升,例如升级到 14b,那么整体表现将会有显著的提升。
在阐述本地部署以及我的一些实际操作之前,我认为先和各位谈谈 Qwen3 是很有必要的。
后面会介绍如何本地部署 Qwen3 以及 3 大玩法。
Qwen3 是阿里巴巴近期推出的新一代开源大语言模型,归属于通义千问(Qwen)家族,是该系列的最新成员。
仅仅过去不足两月,该项目便在 上收获了惊人的 21.1 k 个关注者。
令人惊叹,我的开源项目 PmHub 已经持续一年有余,却仅有三百个赞。
最近还有一则令我颇感惊讶的消息,日本经济新闻这家国际知名媒体在四月公布了一份AI模型评估排名,其中阿里巴巴的通义千问在全部113个模型里位列第六,并且是所有开源模型中表现最为出色的一个。
据了解,日本企业中表现最为出色的模型ABEJA-Qwen2.5-32B,其研发过程借鉴了千问的技术,日经媒体官方也公开指出:千问已经成为日本人工智能研发的重要基石。
此刻,我内心泛起一丝感动,眼眶湿润,脑海中浮现钱学森当年返回祖国时的一番话语:掌握本领与徒手空拳,情况截然不同。
Qwen3现在可以运用119门世界语言,并且能够运用部分地域性语言。
这项工作其实相当重要,尽管人工智能非常热门,不过仍有不少国家缺乏开发本民族语言大模型的技术实力。
Qwen3 的开源,直接让他们有了可以依赖的开源模型。
能够明确的是,不仅限于日本,通义千问也变成了许多国家AI研发的根基,
例如,那位海外人士利用Qwen/Qwen2-72B构建了一个能用法语应答的自动化系统。
还有那位日本同胞,是男性还是女性呢,正运用 Qwen3-8 B 对日语进行优化调整。
我注意到,在 X 平台上,对于 Qwen3 大家都抱有很高的评价,国外的博主们纷纷进行介绍。难怪它的发展速度如此迅猛。
突然感觉,这一幕似成相识,这不咱们这边蹲的既视感吗?
在墙外人的眼中,它好像真是香饽饽。
许多人想知道原因,从资料分析,设备的应用开销较为昂贵,Qwen3 的开销非常小,顶级型号235B参数的应用费用几乎只相当于R1的三倍。
此外 Qwen3 属于一种公开的融合推理架构,能够于分析状态与常规状态之间灵活转换,有助于在资源消耗与思考成效方面达成更佳的协调。
Qwen3 在执行代理任务时展现出卓越的性能,其模型架构本身就具备对MCP协议的兼容性。
这就很舒服了呀,也难怪那么人选择作为 AI 开发基础。
好的,如果想要深入认识,朋友们可以借助这个网址去探索和试用 Qwen3:
Qwen Chat:https://chat..ai
通义 APP:
https://www..com/:
https://.com//Qwen3
当然你也能够像苍何那样,在本地安装一个小型模型Qwen3,尝试使用,并且还可以进行参数调整。
下面我们沉浸式体验下。本地部署Qwen3
这里我依旧使用 来部署。
具体详细可参考本地部署大模型教程。
在 选择 ,找到 qwen3:
选择对应尺寸参数,我的 Mac 最多支撑 8 b 了。
计算方法请参照这个公式:所需GPU内存量约等于模型体积乘以1.2倍。我的Mac有16GB内存,按照这个算法,最多可以支持8倍体积的模型运行。
复制这个命令,本地终端执行。
总共五点二吉字节,悄悄查看了个人电脑的可用容量dnastar mac,忍不住流下了羞愧的泪水。
复制命令后,慢慢等他下载模型,等就好了。
部署完后,你就可以直接和他对话。
但我想没人会直接这么完。通常会结合具体的使用场景来搞。
此处列举若干本地部署模型所能提供之实际效用例证。
本地安装数据能够确保隐私安全,同时还能根据需求进行细致调整,实施 RAG。
知识库
这里我用 做了 3 个知识库,把相应的数据导入。
接下来,在系统界面中选取最新上线的 Qwen3 模型,便能够运用知识库进行咨询了。举例来说,我的知识库收录了先前撰写的专栏文章,该模型能迅速检索到相关内容。
基于微信读书笔记进行特定语句提问以及总结。
整体感受是现在比过去强很多,但是知识库不能太庞大,小模型也难以承受,在写作方面
设想一下,假如当前你的电脑无法上网,想要借助人工智能进行写作,是否就束手无策了呢?
倘若此刻你的个人计算机上安装了 Qwen3,便能够借助它来提供帮助。
能够存储于 WPS,或者置于特定平台,无需网络连接亦可运用人工智能功能。
具体操作方法可以看苍何之前分享的文章:
1、WPS 接入本地大模型2、 中接入本地大模型
只需要把这里的模型替换为新部署的 Qwen3。
在 WPS 中也是一样,替换模型后,本地使用起来超级方便。
他弄好了之后,给我买了许多辣乎乎的零食,一边吃一边夸味道好极了,MCP 本地操作数据库
先前那篇文章:+MCP实现以口型控制数据库,众多人忧虑在里头处理资料会触及隐私层面,因而犹豫不前。
当前若采用本地安装的 Qwen3,便实现了全程的专属化,数据存储于本地,模型运算亦在本地,MCP 同样部署在本机。
你只需要用嘴操作数据库,他不香吗?
Qwen3 是一种融合推理的模型,无需它进行思考,直接采用使用/标签即可,例如查询数据表这类简单工作,完全可以无需思考,若需思考,则添加/think标签即可。
此处不再详述,数据库的增删改查均可执行,并且支持跨表进行联合查询,能够依据数据制作可视化图表。
借助本地部署的 Qwen3,通过口述方式管理数据库,让安全防护更加稳固可靠。
Qwen 3 真的dnastar mac,让我知道了,什么叫小模型,大能量。
通过更少的要素实现更优的成果,推理花费低才能让AI变得普及,这次必须对阿里巴巴表示赞赏。
如今,众多中小型企业,终于能够借助 Qwen3 对自身数据进行训练,开发特定领域的应用,从而打造出独具特色的产品。
而且,这个模型是完全开源的,任何公司个人都可以使用。
如有侵权请联系删除!
Copyright © 2023 江苏优软数字科技有限公司 All Rights Reserved.正版sublime text、Codejock、IntelliJ IDEA、sketch、Mestrenova、DNAstar服务提供商
13262879759
微信二维码