使用 LLM + MCP 在过早客论坛冲浪🏄‍♀️

使用 LLM + MCP 在过早客论坛冲浪🏄‍♀️

    正在检查是否收录...

使用 LLM + MCP 在过早客论坛冲浪🏄‍♀️

想法

作为一名开发者,我经常需要了解过早客论坛的讨论动态,但每次都要手动浏览很麻烦。能不能让AI助手直接帮我获取和分析论坛内容呢?

例如,问 AI:

今天过早客最热的话题是什么? 

AI 答:

今天讨论最热烈的话题是【武汉地铁票价调整】,共有128条回复。 主要观点分为三类: 1. 觉得涨价合理(运营成本压力) 2. 强烈反对(影响日常出行) 3. 建议差异化票价 

是不是比自己一页页刷省事多了?

于是我开发了 guozaoke-mcp-server —— 首个专门用于过早客论坛的MCP服务器。现在,你可以直接问LLM:"请帮我看看过早客论坛今天的热门话题",它就能实时获取并分析论坛内容。

实际效果

example1

example2

什么是MCP

Model Context Protocol (MCP)

是 Anthropic 提出的一个标准协议(基于 JSON RPC),作用是让LLM能标准化地访问外部数据。

本文场景下,传统方式 vs MCP方式:

传统:用户 → 浏览器 → 论坛网站 → 人工分析 MCP:用户 → LLM → MCP服务器 → 论坛网站 → 智能分析 

guozaoke-mcp-server核心功能:两个Tools

1. 话题列表获取

// 用户问:"过早客最新有什么话题?" // AI调用:fetch-guozaoke-topic-list // 返回:结构化的话题数据 

支持分页浏览,解析HTML转为JSON格式,方便AI理解和处理。

2. 话题详情获取

// 用户问:"帮我看看第3个话题的详细讨论" // AI调用:fetch-guozaoke-topic-details // 返回:完整的帖子内容和所有回复 

支持检测登录状态,支持Cookie认证访问需要权限的内容。

快速开始

{ "mcpServers": { "guozaoke-mcp-server": { "type": "stdio", "command": "npx", "args": [ "-y", "guozaoke-mcp-server" ], "env": { "GUOZAOKE_COOKIE": "..." } } } } 

项目地址:GitHub | NPM

  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-27550.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.8W+
9
1
2
WAP站长官方

【渲染流水线】[输出阶段]

上一篇

Java 循环中对象复用导致属性覆盖?从 JVM 内存模型讲解原因

下一篇
评论区
内容为空

这一切,似未曾拥有

  • 复制图片
按住ctrl可打开默认菜单