高级用法¶
本部分介绍 MiniMax-MCP 服务器的一些高级功能和使用技巧。
注意: 部分内容基于规划,具体实现可能需要查阅源代码或等待更详细的文档。
自定义工作流¶
利用 MCP 协议的灵活性,您可以组合调用多个 MiniMax-MCP 工具来构建复杂的多模态工作流。例如:
-
图文转视频与配音:
- 使用
text_to_image根据描述生成一张图片。 - 使用
text_to_audio根据另一段文字生成配音。 - 使用
generate_video(图像到视频模式),将生成的图片和配音(如果 API 支持)结合,生成最终视频。
- 使用
-
新闻播报生成:
- 提取新闻文本。
- 使用
text_to_audio将新闻文本转换为播报语音。 - (如果未来支持) 可能使用
generate_video结合一个虚拟主播形象和生成的语音来创建播报视频。
实现这些工作流通常需要在 MCP 客户端(如通过 Prompt Engineering)或外部脚本中协调对不同工具的调用。
批处理模式¶
目前 MiniMax-MCP 服务器本身似乎没有内置的批处理接口。如果您需要批量处理任务(例如,转换大量文本到语音),您可能需要:
- 在客户端(如果支持)编写脚本循环调用 MCP 工具。
- 编写一个独立的 Python 脚本,直接调用 MiniMax API(绕过 MCP 服务器)。
异步处理 (generate_video)¶
视频生成 (generate_video) 是一个典型的异步操作,因为它可能需要较长时间才能完成。
- 调用: 当您调用
generate_video时,服务器会立即返回一个唯一的task_id,表示任务已提交。 - 查询状态与结果: 您需要随后使用
query_video_generation工具,并传入之前获取的task_id,来轮询任务的执行状态。 - 获取结果: 当
query_video_generation返回的状态为completed时,其响应中将包含最终生成的视频文件的 URL 或本地路径(取决于MINIMAX_API_RESOURCE_MODE配置)。
客户端自动化: 某些 MCP 客户端(如 Cursor)允许配置“完成规则”。您可以设置规则,让客户端在调用 generate_video 后自动调用 query_video_generation,并在任务完成后显示或处理结果,从而简化异步流程。
来源:README.md (关于 generate_video 异步使用的部分)
资源管理¶
控制生成资源(音频、视频、图像)的处理方式是通过 MINIMAX_API_RESOURCE_MODE 环境变量:
-
url(默认模式):- 服务器完成生成任务后,会将资源上传到 MiniMax 的存储或其他公共可访问的位置。
- 工具的返回值将是该资源的 URL。
- 优点: 简单方便,无需管理本地文件。
- 缺点: URL 可能有访问时效性;需要网络连接才能访问资源。
-
local模式:- 服务器完成生成任务后,会将资源文件下载到
MINIMAX_MCP_BASE_PATH环境变量指定的本地目录中。 - 工具的返回值将是该资源在本地的文件路径。
- 前提: 必须设置
MINIMAX_MCP_BASE_PATH环境变量,并确保该目录存在且服务器进程有写入权限。 - 优点: 文件永久保存在本地;离线可用。
- 缺点: 需要管理本地存储空间;配置稍复杂。
- 服务器完成生成任务后,会将资源文件下载到
请根据您的具体需求和使用场景选择合适的资源模式。
来源:README.md
自定义模型参数¶
MiniMax-MCP 提供的每个工具都封装了对底层 MiniMax API 的调用。这些 API 通常支持一系列参数来控制生成过程和结果质量。
- 传递参数: 当您在 MCP 客户端中调用工具时,可以(通常通过 JSON格式)提供这些参数。
- 示例: 调用
text_to_audio时,除了必需的text和voice_id,您还可以指定speed,volume,pitch,emotion等。 - 获取参数列表: 要了解每个工具支持的确切参数及其取值范围,最可靠的方法是:
- 查阅 MiniMax 官方 API 文档(如果可用)。
- 查看 MiniMax-MCP 服务器的源代码 (
minimax_mcp/server.py) 中对应工具的实现,了解其如何将 MCP 参数映射到底层 API 调用。
来源:server.py