ai.robots.txt 是一个 #开源 列表,旨在提供一份已知 #AI 代理和爬虫(Crawlers)的 User-Agents 集合,供网站管理员用于阻止这些 AI 机器人爬取网站内容。该项目提供了多种格式的文件,以便在不同服务器上实施阻止,包括:标准
开源 https://github.com/ai-robots-txt/ai.robots.txt
关联阅读 https://blog.cloudflare.com/zh-cn/declaring-your-aindependence-block-ai-bots-scrapers-and-crawlers-with-a-single-click/
via: @dejavuBlog @dejavuGroup
robots.txt`、Apache 的 .htaccess`、#NGINX 的 `nginx-block-ai-bots.conf`、#Caddyfile 以及 HAProxy 的配置片段。开源 https://github.com/ai-robots-txt/ai.robots.txt
关联阅读 https://blog.cloudflare.com/zh-cn/declaring-your-aindependence-block-ai-bots-scrapers-and-crawlers-with-a-single-click/
via: @dejavuBlog @dejavuGroup
▎项目功能:AI 助手
▎项目介绍:一站式 AI 解决方案,支持 OpenAI,Md,Claude,SD,DALL·E,ChatGLM,通义千问,腾讯混元,360 智脑,新必应,Gemini,Moonshot 等模型。
支持对话分享,自定义预设,云端同步,模型市场,支持弹性计费和订阅计划模式,支持图片解析,支持联网搜索,支持模型缓存,丰富美观的后台管理与仪表盘数据统计。
▎项目地址:点击打开