如何同步两个Discourse之间的帖子,并且仅针对特定时间/用户等等进行筛选

原理似乎并不困难 只是惯例先问一下别造轮子

我脑中已经有一个discourse到obsidian再到discourse 难点是对前者的爬虫吧

我们的方案是调用 API ,直接用程序来处理。

大佬现在你的哪几个平台可以做到全自动同步了呀

discourse有这api吗 昨天discourse管理说没有啊

这个是一个插件,是需要安装的。

如果是你自己 Host 的 Discourse 话,需要装这个插件。

源代码在:GitHub - discourse/discourse-activity-pub: Adds ActivityPub support to Discourse.

通过源代码安装下,需要修改安装配置文件。

你想要的是上面这个功能吗?

基本上都是手动同步。

主要还是小红书和微信,但微信内容不多。

有时候自动同步有错别字或者一些内容过于敏感被封号。

这个插件需要你通时拥有ab两个站的管理权 我的场景是想把我在各种discourse的活动同步到我自己的discourse

这个功能应该没法实现 反爬虫太厉害了 那个管理说也在期待类似的api

hh 考虑到内容 不被封号就已经成功了

如果想爬网站内容的话,可以用一些工具,比如说 Python 的爬虫工具。

这类的工具通常有比较好的穿透性,并且还要换地址。

还有一个办法就是用 https://www.isharkfly.com/raw/18402

Discourse 这个地址会显示为纯 MD 文件,但图片的连接就没有办法弄。