find-skills-pro
跨生态 Skill 元搜索引擎 + 自动安全审查。7 大来源并行查找(GitHub / ClawHub / SkillsMP / VoltAgent / Composio / npm),找到后走 clawvet 扫描再安装。
Agent Reach Pro 把 YouTube / B 站 / Twitter / 公众号 / 微博 / GitHub / arXiv / 任意网页
全部接进 Claude Code。
你只需要说 「调研一下 X」——它按话题路由自动选平台、并行拉取、聚合成 Markdown。
AI 编程帮你省掉了写代码的时间——但「找信息」的那一半损耗还在。看看它每周偷走的东西。
每次调研要开 YouTube、B 站、Twitter、公众号、微博、GitHub、arXiv 七八个标签页。 每一个都要手动搜、翻页、读标题、复制摘要、再去下一个。 调研还没开始,注意力已经耗掉一半。
不看 B 站漏掉所有中文深度;不看 Exa 漏掉学术前沿;不看微博漏掉舆情;不看公众号漏掉一线经验。每少一个来源,结论就偏一分。
Twitter 要 Cookie、微博要 Cookie、公众号反爬、YouTube 字幕要爬。每碰一次新平台都要从头写抓取脚本,两小时劝退,改用 WebFetch 凑合。
一句 prompt,6 个平台 Skill 并行跑,全网汇聚成一份 Markdown。
9 种常见话题已经预设好首选平台链路。这不是刚性规则——Agent 可以根据具体情况调整,但你每次都从「最可能有答案的地方」开始。
10 个 Skill 各自独立加载、独立职责、独立脚本。每一张卡片画出这个 Skill 真正的运作方式——不是图标,是数据怎么从源头流到 Markdown。
跨生态 Skill 元搜索引擎 + 自动安全审查。7 大来源并行查找(GitHub / ClawHub / SkillsMP / VoltAgent / Composio / npm),找到后走 clawvet 扫描再安装。
双模式推文读取。twikit 需 Cookie(推荐),Nitter 公共实例作 fallback。涵盖搜索、用户时间线、单条推文。
搜狗微信做搜索入口,fetch 走 curl_cffi → Playwright → Jina Reader 三级降级绕反爬。无需 Cookie 拿到公众号文章全文。
Exa 语义搜索(arXiv、Scholar、雪球、SSRN)通过 mcporter MCP 桥接。擅长学术论文和语义相关性检索。
基于 yt-dlp 的搜索 + 字幕提取。无需 API Key,直接拿视频元信息和完整字幕作为研究材料。
B 站公开 API 搜索 + BV 号元信息 / 字幕 / 简介提取。基础搜索无需 Cookie,大会员字幕可设 BILIBILI_SESSDATA。
m.weibo.cn 移动端 API 为主,s.weibo.com + Jina Reader 为备。搜索需登录 Cookie,fetch 免登。适合热点 / 舆情 / 娱乐文化。
gh CLI 封装,提供仓库 / 代码 / Issue 三条搜索通道。直接调用官方 CLI,鉴权简单、速率稳定。
基于 faster-whisper 的本地语音识别。内置 yt-dlp,直接吃 YouTube / B 站 URL 或本地音频文件,不需要先用别的 Skill 抓取。
任意 URL 转 Markdown。内置 smart-fetch 三级降级:curl_cffi → Playwright → Jina。其他 Skill 挂了的通用兜底。
单买每个 Skill 要多少钱?今天打包一共省你多少?账单摊开看。
为什么这 10 个 Skill 加起来比单独用它们更强?因为它们共享同一套编排原则。
//多平台同时拉取,中位耗时 = 最慢平台的耗时,不是加和。YouTube + B 站 + Twitter + GitHub 同步启动,3 分钟内一起回来。
exit 1单个 Skill 挂了 exit 1 + stderr,不阻断整体。Twitter 没 Cookie?其他 6 个平台照样跑完,报告里标一句「twitter skipped」。
话题路由表给出的是「最可能有答案的起点」,Agent 可以根据实际情况加 / 减 / 换平台。不是决策树,是参考地图。
采集过程中不打断你问「要不要继续」。跑完一次汇报结果,你只看最终 Markdown。路由 / 并行 / 兜底 / 聚合全部内嵌在 Skill 里。
没有订阅、没有席位、没有年费。所有未来新增平台 Skill 和更新都免费同步。
五个最常被问到的问题,一次答完。
WebFetch 和 Exa 都只是单个通道。Agent Reach Pro 是 10 个 Skill + 一张话题路由表 + 一套编排原则:Agent 能自动根据话题类型选平台、并行跑、失败兜底、汇总呈现。
你不是在用一个搜索 API,你是在获得「研究助理级别」的采集能力——从英文推文到中文公众号到 arXiv 学术,一句话打通。
核心运行时只要 Python ≥ 3.9。各 Skill 按需装可选依赖:web-fetch / wechat 要 curl_cffi + lxml + playwright;twitter 要 twikit;transcribe 要 faster-whisper + ffmpeg;exa-search 要 mcporter + EXA_API_KEY。
每个 Skill 第一次调用时会提示缺哪个依赖,按提示装即可,不会让你一上来就装一大堆。
Twitter / X 和微博都封了匿名搜索接口。浏览器正常登录后用 EditThisCookie 扩展导出,保存到 ~/.agent-reach-pro/twitter_cookies.json 或 weibo_cookies.json。一次配置,长期有效。
没 Cookie 也能跑 —— Twitter 自动降级到 Nitter 公共实例,微博降级到 Jina Reader。赠送的 B1 录屏有完整演示。
全部 10 个 Skill 都是本地 Python 脚本,没有我们这边的中间服务。墙外平台(Twitter / YouTube / Exa / arXiv)需要你的机器能访问;墙内平台(B 站 / 微信 / 微博)直连就行。
失败隔离原则下,即使 Twitter / Exa 访问不上,其他平台照样跑完——调研报告只是会少两条链路的结果。
核心是一组 SKILL.md + Python 脚本,按 Claude Code 的 Skill 协议设计。Cursor / Cline 用户可以把 SKILL.md 当 system prompt 模板手动装进去,Python 脚本也能直接命令行调用。
但 SessionStart Hook 自动载入 CLAUDE.md 路由表 和 多 Skill 并行工具调用 这两部分依赖 Claude Code 的插件机制,其他环境下会退化成手动加载 + 串行调用。