你好,欢迎进入江苏优软数字科技有限公司官网!

诚信、勤奋、创新、卓越

友好定价、专业客服支持、正版软件一站式服务提供

13262879759

工作日:9:00-22:00

codejock 17 AI赋能RPA:自动化任务中三大工具的选择与应用及最佳实践

发布时间:2026-03-08

浏览次数:0

这片文章会引领你深度认识AI怎样为RPA(机器人流程自动化)赋予能量,并且探究于自动化任务里,RPA这种工具,AI编程之类的工具,以及AI工作流这样一种类型的工具的选取与运用。

刚在前天发给我的探索有关AI生成N8N工作流的最佳实践,却在昨天听闻八爪鱼那边的朋友讲他们RPA要有上用AI来写流程的功能,我在听到这个消息后立刻来了兴致,赶忙去争取,到手了内测权限来尝试。

看看由AI生成RPA流程这个事儿,当下究竟处于哪一步了呢,是不是不需要去学习RPA了呀?

所以,这两天,我至少跑了十几个案例,花费了上百元,终于摸索出了一条让人工智能生成机器人流程自动化流程的最佳实践路径。

其中,最令人惊喜的是,八爪鱼RPA竟然帮我借助AIcodejock 17,在15分钟之内就生成了监控小红书博主的工作流codejock 17,要是换做以前,这可不得耗费好几天的时间呀?

可是听到这儿的时候,说不定好多朋友这一刻就开始产生疑惑了,而就做「自动化任务」这么件事情而言,当下可供选择的实在是太多之多,其中主流的存在有三种呢:

相较于传统的RPA,搭建「桌面」流程后,能够针对系统、网页、程序等实施自动化操作。

并且,是在后来才兴起的那种被称作「集成型」的自动化流程工具,就好比N8N这样的,它更多的是将焦点聚集于“云端API连接”这一方面,以及“数据流转”这一方面。

3. 存在一种编程方式,它属于AI编程范畴,特别是其中的Code这一类,它具备这样的能力,即能够借助MCP这种方式抵达文件系统,并且可以实现调用,进而达成页面自动化。

到底他们有什么区别?要学哪个才对?

行,可以,今儿个这篇所涵盖的内容,是以一次性的方式,将人工智能与自动化这件事情,清晰明白地讲述给大伙知晓。

一、三大自动化工具,到底该怎么选?

我的答案是:场景决定工具。

1、RPA —— 聚焦在「任务」本身,解决问题

我身为数据分析师,故而很早便运用八爪鱼RPA(过去是八爪鱼爬虫)去开展电商数据采集工作,以及对公司内容ERP系统进行自动化处理。

这两个场景我认为绝对是另外两个工具做不到的。

除了其他所说,在企业那个场景当中,特别是我们从事电商这一领域的情况下,该平台存在着许多大量的、像那反爬以及弹窗之类的问题。

要是硬说写脚本的话,其实也能解决,但需要极大的技术成本

RPA(以八爪鱼作为例子),其内部设置了好多现成的组件、拓展,就像风控的各种验证码、各个电商平台的那些奇特操作。

都是一键完成的。

又或者是桌面程序的自动化,像是采用RPA加上剪映达成批量剪辑,进而使得一个人在一天之中缔造一百个视频。这般有着降维打击效果的效率,于每一个商业场景里面皆是王炸。

简单概括一下,RPA重点汇聚于「任务」这个自身方面,它适宜于达成高重复性的、存在反爬状况的、并且需要对桌面软件进行操作的那些场景。

2、AI编程 —— 聚焦在代码逻辑

随后步入AI时代,我便着手使用Code这类工具,其最大的优势在于灵活性,对此。

像我先前的那个Case,两句话,致使Code+Kimi K2运行了3小时,爬完了17个竞品网站,并且做出了一份深度市场数据分析报告。

这十七个开展独立运营的站点,其结构所处位置,多多少少都是存在差别的,在这个时候,人工智能会于每一个步骤之上,进而做出相应的判断,所以是能够实现适配的。

但这场景,另外两种自动化形式是做不到的,后者都得要有高度结构化的规范网站,就好比在天猫平台下去抓取不同店铺的数据那情形,当时不同店铺的结构都是一样一样的。

采取的这种自动化办法,是通过借助MCP协议去调用各类工具,在这基础上,甚至能够做到自动发布小红书笔记呢。

https://.com//xhs-

优点是能一句就完成一个自动化任务的需求

可存在这样的情况,它看起来好像变得简单点儿了,然而,因为完全有赖于AI,它实现起来可是超级不稳定的,常常是这次运行完成之后,等到下次再去运行的时候,结果兴许就截然不同。

把AI编程作出归纳,它着重聚焦于「代码逻辑」,这种情况适合那种一次性的,且并非标准的,还需要AI做出动态判断的网页自动化任务。

3、AI工作流—— 关注「流程」本身

N8N这类工具的实质,是API的连接装置,它仅仅在意云端的数据以及指令会怎样进行流转。

它具备极其厉害之处在于,操控AI Agent显得极其便利的情形下,能够构建出极为繁杂的AI能力,例如促使多个AI Agent一道协同展开工作,针对数据予以解析剖析并进而做出相应决策,随后再来进行调用其他工具这一行为动作,有关于这点,前面两者根本就自愧不如,难以企及。

但短板也明显:没API接口的服务,它就没辙。

所以,在落地的场景当中,常常是需要跟 Code 进行搭配的,后者呢,其开发脚本是借由开放接口供 N8N 去调用的,就像这样:n8n 加上等于王炸!免费开源我年入 7 位数的小红书 AI 矩阵工作流。

聚焦于「流程 」自身的AI工作流,是发挥神经网络中枢作用,用以衔接云端服务与AI大脑方面工作不可或缺部分,然而其在相关工作所要求具备条件方面,相比之下呈现出标准程度相对处于最高水平的状况。

相对比而言,我们能够得出一项结论,对于绝大部分想要快速将问题予以解决,而并非最终成为开发者的普通人群来讲,RPA 的学习途径最为线性,落地所呈现的效果最为直观。

但它的学习门槛,依然劝退了很多人。

不过,大人,时代不同了。

如同那完全转变了人员与代码之间交互模式的情况,当下,自动化范畴亦是迎来了属于它的契机时候即为八爪鱼上新的人工智能编写机器人流程自动化流程,切实将准入难度给消除了。

不久之后,我们便无需再去在意那些繁杂琐碎的节点以及参数,而是将注意力集中于业务逻辑方面,仅靠嘴就能够解决相关问题。

但,真的有这么神?

二、用AI自动生成RPA流程

先小试牛刀,来个简单的。

案例一:采集咸鱼商品信息

我直接扔给它一段话:

将咸鱼网站https://www..com/打开,进行搜索,然后点击新发布这一选项,接着选择“一天内”,随后点击价格,再选择“价格从低到高”,之后进入详情页,采集商品内容,价格,以及浏览数,还有想要购买的人数,以及是否包邮等方面的信息,最终保存到excel文档。

八爪鱼RPA会根据你的需求,生成步骤清单

这时候,得仔细地去查看一下,到底有没有错误存在,要是有的话,那就促使它进行调整,要是没有的话,那就能够让它开启运转。

目前,对于网页自动化的场景,仅支持内置的八爪鱼浏览器

随后,AI会自动开启浏览器,着手执行上述步骤进行试运行,而且在运行的同时生成流程。

如下图:

完成试运行以后,流程便被生成出來了, RPA流程即在左边以 Green 框住的部分,那是由RPA所生成的。

要是存在像 Excel 这般的结果,就会发觉唯有一条,而这是经过试运行以后给予你进行预览的。

如果预览有问题,可以直接在AI写流程的位置让它继续改

如果没问题,可以点运行主流程,正式跑跑看:

很 lucky,我们运行成功了:

卧槽,这体验太好了!

真的,仅仅是一句话居然就顺利完成多至几十行的RPA步骤了呢 ,真的确实已将每个步骤都完整填好了参数啦 ,效率怎么不高得离谱?这可不假。 句号。

案例二:小红书博主监控实战

之前,我发了监控100个公众号的工作流,之后,就有很多朋友找我,问有没有小红书的?

目前还没很好的监控方案,所以我们要来试下八爪鱼RPA。

留意,小红书那是得提前进行登录操作的,在所运行的 prior 当中去点击上方那叫做「浏览器」的玩意儿,先行把网站给开启登录,之后才去运行主要这一系列关于流程的操作。

1、天崩开局

我准备了一个Excel,里面有博主昵称和主页链接

我的提示词:

打开 D:tmp小红书监听.xlsx

表格有两列:用户、小红书号,逐行进行遍历,到

通过「小红书号」去搜索用户,针对所搜索到的用户,读取其最近7天所发布的笔记标题,读取其最近7天所发布的笔记内容,读取其最近7天所发布的笔记数据,此搜索的具体链接为https://www..com。

结果它会跑去搜「小红书号」???

2、在AI的“射程”内反复横跳

好吧,怪我没说清楚。我开始“雕花”,把打磨得更精细。

依我所见流程为,它会直接去读取Excel,之后呢是从第一行起始展开认读,鉴于该情况,因此我着重强调,应当从第二行开启认读:

打开 D:tmp小红书监听.xlsx

表格存在两列,分别为用户、小红书号,表格的第一行是列名,需要从第二行开始,一行一行地去依次遍历,利用表格里的」小红书号」列所对应的值前往。

按https://www..com去搜索用户,接着读取其最近7天所发的笔记标题,再读取其最近7天所发的笔记内容,随后读取其最近7天所发的笔记数据。

Well done,能正常抓数据了

但是它对我想要的「最近7天」这个时间限制没实现好

问题不属于八爪鱼,而是小红书平台它自身于时间筛选这块十分模糊。

其次,它会把博主的所有笔记都进行爬取,尽管这个能力是很不错的,然而却并非是当下语境之中我所 需要的。

所以我再再再次优化了我的需求:

打开 D:tmp小红书监听.xlsx

表格有两列:用户、小红书号,其中表格第一行是列名,要从第二行开始逐行进行遍历,用表格中的」小红书号」列的值到

采用链接为https://www..com ,去搜索用户,然后读取当下博主最近的10条笔记标题以及、内容以及、网址以及、发布时间以及、点赞收藏等数据。

你用浏览器的时候要把浏览器最大化,才好看到发布时间

笔记正文下边、评论区上边是发布时间存放处,正文很长时,需在小红书笔记正文所在弹窗位置滑动,才能瞧见发布时间(注明此滑动并非针对笔记背后网页)。

这次,它终于能正确地循环、搜索、打开笔记了。

经过计算得出,有可能花费十五分钟来精心打磨指示词汇,随之便能够达成原本一两个小时的构建成效那样的结果。

但,我高兴太早了。

眼睛定住仔细去看,数据存在着丢失的情况,并且还有错位的状况,(小红书实在是困难重重。实际上不管使用何种工具,都会出现这样的误差)

如第一条笔记的内容,被抓取成评论的内容,发布之时很多是空白的,这对“监控”的需求而言是无法容忍的。

3、求助外援API

在我即将要放弃的那个时刻之际,忽然间回想起来我之前于上所发觉到的一个开源项目,项目名称为:XHS-。它是一个专门被用以去下载小红书笔记数据的工具,并且具备着非比寻常的稳定性 ,这个备注不要和别人说,你知道就行。

https://.com//XHS-

这是我在之前项目的时候部署的,很久没用了

测了一下,意外的还能用!!

好的,我们再度萌生出期望了,当下,逻辑已然演变成这般情况,先是从小红书上抓取博主的笔记,而后再将链接,同步到这个于本地进行部署的小红书爬虫接口,以此用来补充那些有所缺失的数据。

能不能行呢?新的逻辑变成了两步:

第一步:用AI生成RPA,批量获取笔记链接。

开启那个位于 D盘tmp文件夹下的名为小红书监听.xlsx的文件,该表格存在用来显示用户和小红书号信息的两处列,其中处于表格首行位置的是用来分类的名称性文案。需要从表格第二行起,依照顺序逐个进行遍历,需采用表格里名为小红书号那一列当中所呈现的具体数值去到。

通过「https://www..com」去搜寻用户,将其引导至用户主页,然后逐一逐个地把当前博主近来的 5 条笔记给点开,逐一读取并梳理获取标题、全部相应内容、专门的网址(把该网址列名保存设定为「笔记网址」)以及点赞收藏等众多纷繁复杂的数据,细致的过程最后保存录入到 Excel 结果表中。

这一步是前面的简化版本,就不演示了。

第二步:让RPA调用API,精准解析数据。

关键是下面这部分的补充,我直接在AI写流程的窗口继续输入

给了一个例子,此例子是我原先的代码,告知它怎样去调用已在我本地部署好的XHS - 接口。

开启D盘tmp文件夹里面那本小红书笔记数据.xlsx文件,于「笔记数据」sheet表内,一行一行地将「笔记网址」的链接凭借http的post请求发送至服务器接口,进而获取笔记数据。

具体的操作可以参考以下代码:

“`

此内容需替换为你所部署的用以替代“http://xxx/xhs”的那组接口地址,其中这里要改成你予以部署的接口。

def (url):

data = {

“url”: url,

“”: True

= .post(, json=data)

.

= .json

= (‘https://www..com//’)

“`

返回的数据示例,需要你把这些数据解析回Excel表:

“`

如有侵权请联系删除!

13262879759

微信二维码