使用 LLM + MCP 在过早客论坛冲浪🏄‍♀️

SEO教程2025-08-28380
    正在检查是否收录...

使用 LLM + MCP 在过早客论坛冲浪🏄‍♀️

想法

作为一名开发者,我经常需要了解过早客论坛的讨论动态,但每次都要手动浏览很麻烦。能不能让AI助手直接帮我获取和分析论坛内容呢?

例如,问 AI:

今天过早客最热的话题是什么? 

AI 答:

今天讨论最热烈的话题是【武汉地铁票价调整】,共有128条回复。 主要观点分为三类: 1. 觉得涨价合理(运营成本压力) 2. 强烈反对(影响日常出行) 3. 建议差异化票价 

是不是比自己一页页刷省事多了?

于是我开发了 guozaoke-mcp-server —— 首个专门用于过早客论坛的MCP服务器。现在,你可以直接问LLM:"请帮我看看过早客论坛今天的热门话题",它就能实时获取并分析论坛内容。

实际效果

example1

example2

什么是MCP

Model Context Protocol (MCP)

是 Anthropic 提出的一个标准协议(基于 JSON RPC),作用是让LLM能标准化地访问外部数据。

本文场景下,传统方式 vs MCP方式:

传统:用户 → 浏览器 → 论坛网站 → 人工分析 MCP:用户 → LLM → MCP服务器 → 论坛网站 → 智能分析 

guozaoke-mcp-server核心功能:两个Tools

1. 话题列表获取

// 用户问:"过早客最新有什么话题?" // AI调用:fetch-guozaoke-topic-list // 返回:结构化的话题数据 

支持分页浏览,解析HTML转为JSON格式,方便AI理解和处理。

2. 话题详情获取

// 用户问:"帮我看看第3个话题的详细讨论" // AI调用:fetch-guozaoke-topic-details // 返回:完整的帖子内容和所有回复 

支持检测登录状态,支持Cookie认证访问需要权限的内容。

快速开始

{ "mcpServers": { "guozaoke-mcp-server": { "type": "stdio", "command": "npx", "args": [ "-y", "guozaoke-mcp-server" ], "env": { "GUOZAOKE_COOKIE": "..." } } } } 

项目地址:GitHub | NPM

评论

昵称
邮箱
主页