对中小企业来说,获客永远是最重要的事情没有之一。toB企业还可以靠渠道和关系,toC就完全看营销能力了。
谁掌握了流量,谁就掌握了话语权。去年帮助某电销公司做过全套的流量框架和AI赋能全案设计:

一般中小企业,花在流量转化和获客方面的成本,能占到总成本的一半以上,其中营销素材的制作还需要搭建专门的团队。
很多企业还会采用矩阵式营销,批量孵化一大批账号,批量营销快速扩大影响力。
现在的AIGC能力日渐强大,完全可以请人开发一套自动化素材生产系统。想法挺不错的,但是小公司根本负担不起这种系统!
那有没有可能用智能体开发平台来实现?今天咱们就拿 GPTBots 来试一试!
这里要特别说明一下,这里因为直接在客户生产环境案例,完整的流程会很复杂,他包括从素材生成到流量运营再到客服管理的全流程:

这里我们简单将其素材部分的SOP抽取出来,让大家感受下生产环境的自动化是怎么样的,这里先看看最终的视频素材效果:
感兴趣的可以去看之前的文章:
四大AI Agent平台横评: GPTBots、dify、Coze、FastGPT谁更能打?
6 万用户,188 国服务,GPTBots因何成为出海首选?

unsetunset核心SOP梳理unsetunset
最终要实现的功能如下:
自动探测热点竞品数据 抓取热点数据并识别视频内容 根据热点内容生成品牌短视频脚本 自动生成视频片段

工作流程图如下:

咱们也是采用模块化开发的思路,最终再进行组装调试:
热点探测工作流 视频内容提取工作流 视频生成工作流
接下来咱们直接开干
unsetunset表结构设计unsetunset
咱们会使用GPTBots自带的数据库作为数据存储介质
表结构如下:
[
{
"name": "sku_code",
"description": "Unique identifier for the product SKU, typically a combination of letters and numbers.",
"type": "TEXT",
"required": true,
"unique": false
},
{
"name": "product_name",
"description": "Name of the product associated with the SKU.",
"type": "TEXT",
"required": false,
"unique": false
},
{
"name": "category",
"description": "Category to which the product belongs, helping in organization and searchability.",
"type": "TEXT",
"required": false,
"unique": false
},
{
"name": "price",
"description": "Retail price of the product, represented as a floating-point number.",
"type": "FLOAT",
"required": false,
"unique": false
},
{
"name": "stock_quantity",
"description": "Number of items available in stock for the SKU.",
"type": "INT",
"required": false,
"unique": false
},
{
"name": "is_active",
"description": "Indicates whether the SKU is currently active and available for sale.",
"type": "BOOLEAN",
"required": false,
"unique": false
}
]
首先新建工作流hot_search
,然后按照字段设计创建数据库,表名为hot_db
,主要作用是存储抓取到的热点视频内容。

unsetunset热点探测工作流unsetunset
这个工作流的主要任务是根据keyword
获取对应的抖音热点数据。这里采用 Tikhub API
完成数据的抓取。
Step1: 查询缓存数据
使用数据表模块,直接写SQL查表
SELECT keyword, date, title, aweme_id, play_url, comment_count, digg_count, share_count, play_count, collect_count, share_url, c_time FROM hot_db WHERE (keyword = "{{keyword}}") AND (date = "{{date}}");›
注意关键词
和日期
是核心查询条件

Step2:缓存判断
没有缓存的话需要调用API获取热点数据
直接参照TikHub的API文档,可以直接通过导入cURL
进行快速添加。
这里要注意下抓取参数:

有缓存的话直接返回缓存数据
Step3: 批量存储数据
这里咱们采用调用数据库API的方式进行

我们在文档里找到了添加表数据的方法
curl -X POST https://api.gptbots.cn/v1/database/import/records \
-H "Authorization: Bearer your_apikey" \
-H "Content-Type: application/json" \
-d "{
"table_id": "673af861ed69656ac0895b07",
"records": [
{
"values": {
"id": "7424489",
"name": "4455566777777"
}
},
{
"values": {
"id": "7852549",
"name": "446656677665"
}
}
]
}"
在这里获取数据库的ID

通过HTTP模块实现批量插入数据
通过以上步骤,我们已经可以获取到最新的热点数据了!
完整的工作流见下图:

运行结果:
已经可以抓取对应的数据了

unsetunset视频内容识别工作流unsetunset
这个工作流的主要作用是识别抓取到的视频内容,转化为文字稿。
这里需要用到阿里百炼的Paraformer-v2
TTS模型,使用之前需要先前往阿里百炼平台开通api_key。
Step1 发布TTS任务
首先新建一个工作流TTS
, 然后根据阿里百炼的文档调用API,采用http模块调用发布任务模块

Step2 查询任务结果
由于采用的是离线TTS,所以需要异步进行状态获取
首先通过代码模块增加一个延迟,也可以采用轮询的方式。
# 配置面板中已定义的入参变量及其类型,必须与代码中函数入参部分一致。
# 配置面板中已定义的出参变量及其类型,必须与代码中函数 "return" 部分一致。
# 在代码测试通过后,可以将代码中 "return" 部分的内容,同步至配置面板。
# 下方是一个示例,定义 "arg_1" 和 "arg_2" 为入参变量,并最终输出 "key1"、"key2" 及 "key3"。
import json
import time
def main(input: str) -> dict:
json_data = json.loads(input)
time.sleep(10)
return {
"output": json_data["output"]
}
根据上一步获得的task_id
查询TTS的状态

当task_status
的状态为SUCCESSED时代表已经完成TTS转换。
Step3:获取结果文件
根据Step2中查询任务结果接口中的transcription_url
直接下载对应的TTS文件。

根据上面的步骤,我们就已经能够得到视频解析后的文字了
整个工作流如下:

unsetunset视频生成unsetunset
通过上面的步骤,我们已经可以拿到热点数据的文字脚本了,接下来我们只需要让AI生成品牌自己的脚本即可。
这里的流程相对简单,但是想要达到比较好的效果,还是需要不断打磨。
文生视频、图生视频的主要难点是在于人物、场景、物体的一致性,真实场景还是非常复杂的。
咱们的工作流为了方便大家看懂,只实现最简单的版本。
Step1: 编写短视频文案
这里直接调用大模型即可

Step2: 制作分镜脚本
由于现在的文生视频、图生视频,多数只能生成5-10秒的视频片段,所以一个完整的场景,需要由多个分镜组成。这里注意的是分镜之间的人物要有连续性。品牌的物料也要保持不变。

Step3: 生成视频
这里也分了两个步骤,直接通过文案生成视频,很难保持故事的延续性,所以我们要先生成每一个分镜的关键帧图片,然后再用图生视频能力生成视频片段。
这里需要用到的是 豆包文生图模型doubao-seededit-3-0-i2i-250628
和 豆包图生视频模型doubao-seedance-1-0-pro-250528
,使用之前也需要前往火山平台开通API_KEY。
由于咱们视频脚本中有多个场景,需要批量进行图片生成和视频生成。
这里咱们使用一个自研的插件,可以批量进行生成。
文生图模型
curl -X POST https://ark.cn-beijing.volces.com/api/v3/images/generations \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $ARK_API_KEY" \
-d "{
"model": "doubao-seededit-3-0-i2i-250628",
"prompt": "改成爱心形状的泡泡",
"image": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seededit_i2i.jpeg",
"response_format": "url",
"size": "adaptive",
"seed": 21,
"guidance_scale": 5.5,
"watermark": true
}"
生成之后大概长这样:

图生视频
# 创建 图生视频 任务
curl -X POST https://ark.cn-beijing.volces.com/api/v3/contents/generations/tasks \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $ARK_API_KEY" \
-d "{
"model": "doubao-seedance-1-0-pro-250528",
"content": [
{
"type": "text",
"text": "无人机以极快速度穿越复杂障碍或自然奇观,带来沉浸式飞行体验 --resolution 1080p --duration 5 --camerafixed false --watermark true"
},
{
"type": "image_url",
"image_url": {
"url": "https://ark-project.tos-cn-beijing.volces.com/doc_image/seepro_i2v.png"
}
}
]
}"
生成之后的样子:

批量生成视频也只需要通过HTTP模块调用外部插件即可,整体工作流长这样子:

Step4:组装工作流
把前面每个步骤的工作流进行组装,就得到了完整的工作流

注意:这里也需要通过API的方式进行扩展和集成
集成文档地址:
GPTBots工作流集成文档
最终效果
经过对工作流生成的视频片段进行简单的剪切和整合,就得到了一个初步可用的视频效果,当然生产环境如果要求比较高的话,还需要进一步完善工作流,提高视频的质量。
unsetunset结语unsetunset
今天我们只把“热点→提取→脚本→关键帧→片段拼接”的最短链路做了介绍,方便大家看清用Agent平台实现自动化的路径。
而实际项目里会复杂很多:账号矩阵、线索路由、OCR 入库、AI 客服、人审兜底、失败重试与降级都在一个平台内编排与审计...
也希望通过今天的案例能够让大家知道电销公司的AI赋能全案设计应该长什么样。
但就是这个简单的案例,他揭示了企业的核心诉求:用确定性的技术手段,驾驭不确定性的流量红利。
海量内容的产出,其本质是“通过工业化内容生产对抗平台算法”,而AI的价值,正是将这种“大力出奇迹”的笨功夫,转化为可复用、可迭代、可管理的标准化工作流。
最后有几个实践经验与大家分享:
第一,Know-How 比算法更重要:80% 的企业无法梳理清晰业务 SOP,虽然 GPTBots 用可视化工作流引擎,将模糊的业务逻辑转化为可执行的数字管线,但梳理SOP这里依旧费劲,好在他们提供了不少模板;
除此之外,无论是身份证 OCR 自动录入,还是千人千面的销售线索智能分配,本质都是工作流的具象化,这些GPTBots很轻松就能搞定。
第二,稳定性是生命线:也就是这个案例事实上还有很多惊险的插曲:之前因为 3 小时宕机导致 200 万+的损失!
由此对我们的启示是:要对生产环境绝对敬畏,并且要选择稳定的环境。
这个方面 GPTBots通过模块化封装与沙箱隔离,让每个功能单元成为独立可容错的“乐高积木”,即使单点故障也不至全线崩塌,是一个很好的基础。
最后,AI 是杠杆而非替身:正如客服效能提升 100% 却仍需保留人力的案例,Agent 的定位始终是“增强人类”。
它的工作流调度能力不是取代决策者,而是将人从重复操作中释放:当系统自动生成 100 个视频初稿时,运营者只需专注优化爆款策略。