你好,欢迎进入江苏优软数字科技有限公司官网!

诚信、勤奋、创新、卓越

友好定价、专业客服支持、正版软件一站式服务提供

13262879759

工作日:9:00-22:00

dnastar mac 苍何成功在Mac部署Qwen3模型,挖掘三种有趣玩法

发布时间:2025-09-17

浏览次数:0

苍何在Mac系统上顺利安装了阿里开源的Qwen3模型,并探索出三种令人激动的应用方式。本文将介绍Qwen3的卓越能力,以及它如何通过本地部署完成知识库维护、写作辅助和数据库处理等实际任务,揭示其在人工智能领域的重要价值。

五一回老家那会,和发小吃了个饭,聊到了现在的 AI。

有人看到我使用人工智能技术感觉很兴奋,他也想在工作中提高效率,但是公司的电脑不允许连接互联网。

这让我瞬间穿越回几年之前,在讯飞某个机密计划里,没有网络的情况下埋头编写程序的场景。

这真是太痛苦了。

为了使好友在工作中运用人工智能,我努力指导他如何在本地安装当下备受关注的 Qwen3。

并且找到了三种颇具趣味且颇具用处的操作方式,不得不说,Qwen3 真的让人着迷。

经历一番周折,证实了官方所言非虚,“Qwen3-4B 这种小型模型确实能够媲美 Qwen2.5-72B- 的表现。”,所言极是。

我的 Mac 安装了最新版本的 Qwen3-8b,倘若硬件配置能进一步提升,例如升级到 14b,那么整体表现将会有显著的提升。

在阐述本地部署以及我的一些实际操作之前,我认为先和各位谈谈 Qwen3 是很有必要的。

后面会介绍如何本地部署 Qwen3 以及 3 大玩法。

Qwen3 是阿里巴巴近期推出的新一代开源大语言模型,归属于通义千问(Qwen)家族,是该系列的最新成员。

仅仅过去不足两月,该项目便在 上收获了惊人的 21.1 k 个关注者。

令人惊叹,我的开源项目 PmHub 已经持续一年有余,却仅有三百个赞。

最近还有一则令我颇感惊讶的消息,日本经济新闻这家国际知名媒体在四月公布了一份AI模型评估排名,其中阿里巴巴的通义千问在全部113个模型里位列第六,并且是所有开源模型中表现最为出色的一个。

据了解,日本企业中表现最为出色的模型ABEJA-Qwen2.5-32B,其研发过程借鉴了千问的技术,日经媒体官方也公开指出:千问已经成为日本人工智能研发的重要基石。

此刻,我内心泛起一丝感动,眼眶湿润,脑海中浮现钱学森当年返回祖国时的一番话语:掌握本领与徒手空拳,情况截然不同。

Qwen3现在可以运用119门世界语言,并且能够运用部分地域性语言。

这项工作其实相当重要,尽管人工智能非常热门,不过仍有不少国家缺乏开发本民族语言大模型的技术实力。

Qwen3 的开源,直接让他们有了可以依赖的开源模型。

能够明确的是,不仅限于日本,通义千问也变成了许多国家AI研发的根基,

例如,那位海外人士利用Qwen/Qwen2-72B构建了一个能用法语应答的自动化系统。

还有那位日本同胞,是男性还是女性呢,正运用 Qwen3-8 B 对日语进行优化调整。

我注意到,在 X 平台上,对于 Qwen3 大家都抱有很高的评价,国外的博主们纷纷进行介绍。难怪它的发展速度如此迅猛。

突然感觉,这一幕似成相识,这不咱们这边蹲的既视感吗?

在墙外人的眼中,它好像真是香饽饽。

许多人想知道原因,从资料分析,设备的应用开销较为昂贵,Qwen3 的开销非常小,顶级型号235B参数的应用费用几乎只相当于R1的三倍。

此外 Qwen3 属于一种公开的融合推理架构,能够于分析状态与常规状态之间灵活转换,有助于在资源消耗与思考成效方面达成更佳的协调。

Qwen3 在执行代理任务时展现出卓越的性能,其模型架构本身就具备对MCP协议的兼容性。

这就很舒服了呀,也难怪那么人选择作为 AI 开发基础。

好的,如果想要深入认识,朋友们可以借助这个网址去探索和试用 Qwen3:

Qwen Chat:https://chat..ai

通义 APP:

https://www..com/:

https://.com//Qwen3

当然你也能够像苍何那样,在本地安装一个小型模型Qwen3,尝试使用,并且还可以进行参数调整。

下面我们沉浸式体验下。本地部署Qwen3

这里我依旧使用 来部署。

Qwen3本地部署 Mac _dnastar mac_ Qwen3知识库管理 辅助写作 数据库操作

具体详细可参考本地部署大模型教程。

在 选择 ,找到 qwen3:

选择对应尺寸参数,我的 Mac 最多支撑 8 b 了。

计算方法请参照这个公式:所需GPU内存量约等于模型体积乘以1.2倍。我的Mac有16GB内存,按照这个算法,最多可以支持8倍体积的模型运行。

复制这个命令,本地终端执行。

总共五点二吉字节,悄悄查看了个人电脑的可用容量dnastar mac,忍不住流下了羞愧的泪水。

复制命令后,慢慢等他下载模型,等就好了。

部署完后,你就可以直接和他对话。

但我想没人会直接这么完。通常会结合具体的使用场景来搞。

此处列举若干本地部署模型所能提供之实际效用例证。

本地安装数据能够确保隐私安全,同时还能根据需求进行细致调整,实施 RAG。

知识库

这里我用 做了 3 个知识库,把相应的数据导入。

接下来,在系统界面中选取最新上线的 Qwen3 模型,便能够运用知识库进行咨询了。举例来说,我的知识库收录了先前撰写的专栏文章,该模型能迅速检索到相关内容。

基于微信读书笔记进行特定语句提问以及总结。

整体感受是现在比过去强很多,但是知识库不能太庞大,小模型也难以承受,在写作方面

设想一下,假如当前你的电脑无法上网,想要借助人工智能进行写作,是否就束手无策了呢?

倘若此刻你的个人计算机上安装了 Qwen3,便能够借助它来提供帮助。

能够存储于 WPS,或者置于特定平台,无需网络连接亦可运用人工智能功能。

具体操作方法可以看苍何之前分享的文章:

1、WPS 接入本地大模型2、 中接入本地大模型

只需要把这里的模型替换为新部署的 Qwen3。

在 WPS 中也是一样,替换模型后,本地使用起来超级方便。

他弄好了之后,给我买了许多辣乎乎的零食,一边吃一边夸味道好极了,MCP 本地操作数据库

先前那篇文章:+MCP实现以口型控制数据库,众多人忧虑在里头处理资料会触及隐私层面,因而犹豫不前。

当前若采用本地安装的 Qwen3,便实现了全程的专属化,数据存储于本地,模型运算亦在本地,MCP 同样部署在本机。

你只需要用嘴操作数据库,他不香吗?

Qwen3 是一种融合推理的模型,无需它进行思考,直接采用使用/标签即可,例如查询数据表这类简单工作,完全可以无需思考,若需思考,则添加/think标签即可。

此处不再详述,数据库的增删改查均可执行,并且支持跨表进行联合查询,能够依据数据制作可视化图表。

借助本地部署的 Qwen3,通过口述方式管理数据库,让安全防护更加稳固可靠。

Qwen 3 真的dnastar mac,让我知道了,什么叫小模型,大能量。

通过更少的要素实现更优的成果,推理花费低才能让AI变得普及,这次必须对阿里巴巴表示赞赏。

如今,众多中小型企业,终于能够借助 Qwen3 对自身数据进行训练,开发特定领域的应用,从而打造出独具特色的产品。

而且,这个模型是完全开源的,任何公司个人都可以使用。

如有侵权请联系删除!

13262879759

微信二维码