Discussion Legal Copyright

AI 使用我们内容的版权影响是什么?法律意见相互矛盾

CO
Content_Rights_Confused · 出版总监
· · 92 upvotes · 11 comments
CR
Content_Rights_Confused
出版总监 · 2025年12月22日

我们是一家 B2B 出版商。我们的内容正被 AI 系统使用,我收到的法律建议相互矛盾。

律师 A 说: “这是版权侵权。屏蔽所有 AI 爬虫。准备诉讼。”

律师 B 说: “这是公平使用。你无法阻止。专注于最大化可见性带来的好处。”

我的观察:

  • 我们的文章出现在 ChatGPT 答案中
  • Perplexity 经常引用我们的研究
  • 我们没有获得补偿
  • 但确实获得了推荐流量

我的问题:

  1. 现在的实际法律状态是什么?
  2. 我们应该屏蔽 AI 爬虫还是拥抱它们?
  3. 中型出版商有实际的授权交易可能性吗?
  4. 其他出版商实际上在怎么做?

我需要一个实际的立场,而不仅仅是法律理论。

11 comments

11 条评论

PI
Publishing_Industry_Watch Expert 媒体行业分析师 · 2025年12月22日

让我来介绍一下当前的局势:

正在进行的诉讼(截至 2025 年 12 月):

  • 纽约时报诉 OpenAI(进行中,重大案件)
  • 各类作者团体诉 AI 公司
  • 音乐行业诉讼
  • 图片艺术家诉讼

尚无最终判例。 法院尚未明确裁定 AI 训练是否属于公平使用。

AI 公司观点:

  • 训练属于变革性使用
  • 它们在创造新作品,而非复制
  • 类似于人类如何从内容中学习

出版方观点:

  • 训练是大规模复制
  • 没有补偿的商业获益
  • 破坏内容商业模式

实际情况:

出版商类型典型策略
大型(纽约时报、华尔街日报)诉讼 + 授权谈判
较大(主流媒体)授权谈判,部分屏蔽
中型以允许为主,期待可见性
小型允许,专注于流量收益

为什么中型出版商大多允许:

  • 没有授权谈判的话语权
  • 诉讼成本高昂
  • 可见性带来真实商业价值
  • 屏蔽的代价大于保护的收益
LR
Licensing_Reality 业务发展副总裁 · 2025年12月22日
Replying to Publishing_Industry_Watch

专门说说授权交易:

哪些机构有交易:

  • 大型新闻出版商(纽约时报被接洽,其他已签约)
  • 大型内容档案库
  • 学术出版商
  • 主要图片/视频库

(公开)交易金额:

  • 新闻集团:5 年 2.5 亿美元以上
  • 其他若干:500-5000 万美元区间
  • 小型出版商:暂无交易机会

中型企业无法获得交易的原因:

  1. AI 公司不需要你的特定内容
  2. 小额交易的交易成本不值得
  3. 他们宁愿打官司也不愿树立先例
  4. 你的内容已在训练数据里了

残酷现实: 除非你是纽约时报级别,否则授权不现实。

你能做什么:

  1. 最大化当前可见性价值
  2. 记录使用情况,为未来维权做准备
  3. 加入出版商联盟
  4. 关注法律进展

成本与收益: 屏蔽 = 失去可见性,实质保护有限 允许 = 获得可见性,未来权利不确定

大多数中型出版商选择可见性。

LP
Legal_Practical_View 媒体律师 · 2025年12月21日

说明:非法律建议,仅供一般参考。

为什么你的律师意见不一:

律师 A(屏蔽/诉讼):

  • 注重纯粹法律权利
  • 认为未经授权使用可能构成侵权
  • 保护未来主张权利的可能
  • 风险控制偏保守

律师 B(接受/允许):

  • 注重商业现实
  • 认为结果不确定
  • 最大化当前价值
  • 风险控制偏务实

从各自角度看,两者都没错。

你要问的问题:

  1. 你能承担诉讼费用吗?

    • 单独诉讼:50-200 万美元+
    • 集体诉讼:可加入现有团体
  2. 你实际上在保护什么?

    • 已进入训练集内容:无法移除
    • 未来内容:可屏蔽
    • 引用/可见性:有业务价值
  3. 你的商业模式是什么?

    • 订阅/付费墙:或许值得保护
    • 广告支持:可见性更重要
    • 线索获取:可见性最重要

我的观察: 大多数 B2B 出版商选择可见性,因为他们的商业模式更依赖于影响力,而不是因 AI 使用而损失的部分。

PD
Publisher_Decision 行业出版 CEO · 2025年12月21日

我们如何决策以及原因如下:

我们的业务: B2B 行业出版,与您类似。 收入:广告+活动+赞助内容

我们的决策: 允许所有 AI 爬虫。最大化可见性。

原因:

  1. 我们收入来源于受众,而非内容销售 AI 可见性 = 更多受众 = 更多收入

  2. 屏蔽无实际帮助 内容已进入训练集。屏蔽只影响未来价值。

  3. AI 流量有价值 我们有 5% 流量来自 AI 推荐,转化率很高。

  4. 授权不现实 我们联系过 OpenAI,对我们的规模不感兴趣。

  5. 法律成本大于收益 诉讼成本高于可能获得的回报。

我们实际做了什么:

  • 用 Am I Cited 跟踪 AI 引用
  • 记录使用模式
  • 加入出版商联盟(以便集体诉讼)
  • 针对 AI 优化可见性

结果: AI 可见性提升 200%。推荐流量持续增长,品牌影响力提升。

如果能有授权交易我们当然会接受,但我们不会空等。

TV
Training_vs_Citation AI 研究员 · 2025年12月21日

很多人忽略了一个重要区别:

训练数据使用 vs. 实时引用

方面训练数据实时引用
发生时间模型构建时每次查询
使用内容全文内容片段/事实
能否屏蔽仅限未来可以(robots.txt)
法律地位争议极大争议较小
商业影响既往内容已包含影响当前可见性

不同 AI 系统模型不同:

ChatGPT(基础版):

  • 你的内容进入训练集=被用于回答
  • 无实时检索
  • 现在屏蔽无助于已完成的训练

ChatGPT(搜索):

  • 实时检索自 Bing
  • 更像传统搜索/链接
  • 屏蔽对此有效

Perplexity:

  • 实时检索和引用
  • 链接到原始来源
  • 最像传统搜索

要点: 屏蔽 ChatGPT 训练爬虫(GPTBot)= 仅影响未来训练,不影响已有模型 屏蔽 Perplexity = 失去实时引用带来的好处

许多出版商: 屏蔽训练爬虫,允许引用爬虫。这是权衡之策。

SA
Selective_Approach Expert · 2025年12月20日

这里有一种更细致的 robots.txt 做法:

选择性策略:

# 屏蔽训练爬虫
User-agent: GPTBot
Disallow: /

User-agent: Google-Extended
Disallow: /

User-agent: CCBot
Disallow: /

# 允许引用/搜索爬虫
User-agent: ChatGPT-User
Allow: /

User-agent: PerplexityBot
Allow: /

这样做的效果:

  • 阻止内容进入未来训练数据
  • 允许实时搜索和引用
  • 保持可见性收益
  • 部分保护权利

谁在用这个策略: 一些大型出版商正在平衡采用。

局限: 过去的训练数据已无法改变,只影响未来。

给你的律师: 这可能让双方都满意:

  • “我们在保护内容不被训练”(律师 A)
  • “我们保有可见性收益”(律师 B)

这是许多人能接受的中间方案。

FO
Future_Outlook 行业分析师 · 2025年12月20日

未来可能的发展(我的预测):

短期(2026):

  • 诉讼增加,暂无明确结果
  • 大型机构获得更多授权
  • 中型出版商延续现有策略

中期(2027-2028):

  • 法院开始形成判例
  • 立法或将推进(欧盟已在行动)
  • 行业授权框架或将出现

长期(2028+):

  • 法律框架更加明晰
  • 可能出现强制授权或选择退出系统
  • 出版商出现新收入模式

对你的启示:

  1. 不要把所有希望寄托在未来补偿上
  2. 当前可见性价值是真实存在的
  3. 记录使用,为未来可能维权留证据
  4. 随环境变化保持灵活

类比: 如同早期音乐/视频流媒体——从争议到最终确立授权。AI 内容或将走类似之路。

但那需要数年。不要因等待结论而搁置业务。

CR
Content_Rights_Confused OP 出版总监 · 2025年12月20日

这帮助我明确了立场。我们的策略:

决策:允许并做好记录

我们正在做的:

  1. 允许大部分 AI 爬虫,以获得可见性
  2. 有选择地屏蔽训练爬虫(如 GPTBot、CCBot)
  3. 允许引用爬虫(PerplexityBot、ChatGPT-User)
  4. 做好全面记录,为未来维权留证据
  5. 加入出版商联盟,获取集体行动筹码

对管理层的表述:

“法律形势确实不确定。无论屏蔽还是允许,目前都没有明确的法律保护。考虑到我们的商业模式依赖于受众触达,我们建议在保持 AI 可见性的同时:

  • 记录 AI 对我们内容的使用
  • 参与行业集体行动
  • 在可行范围内屏蔽训练爬虫
  • 关注法律发展,战略适时调整”

给我的律师: 这样既给了律师 A 想要的屏蔽/记录,也给了律师 B 推荐的可见性/务实。

核心体会: 这不是版权策略——而是在承认版权不确定性的前提下的商业策略。我们优化可控的(可见性),同时为不可控的(法律结果)保留选择。

感谢各位提供的实用观点。

Have a Question About This Topic?

Get personalized help from our team. We'll respond within 24 hours.

Frequently Asked Questions

AI 系统在法律上可以用我的内容进行训练吗?
这个问题目前正在被诉讼中。AI 公司主张公平使用,出版方则认为是侵权。大型诉讼案件(如纽约时报诉 OpenAI 等)正在进行。目前法律地位尚不明确,这也是为什么一些出版商选择协商授权交易而非诉讼。
我应该阻止 AI 爬虫以保护我的版权吗?
阻止可以防止未来被抓取,但无法移除已被用于训练集的内容,同时也会失去 AI 可见性的好处。大多数企业更倾向于可见性,除非他们有特殊的授权谈判或内容销售模式需要保护。
与 AI 公司达成授权交易值得吗?
对于有影响力的大型出版商来说,是值得的——交易金额从数百万到数亿美元不等。对于大多数企业来说,授权不是选项,因为 AI 公司并未提供交易。与其等补偿,不如关注可见性带来的好处。
训练数据使用和引用有何不同?
训练是用内容来构建模型(法律上有争议)。引用是在实时回答查询时参考内容(更像传统链接)。不同 AI 系统做法不同:ChatGPT 基础版用训练数据,Perplexity 实时引用。

监测您的内容在 AI 答案中的使用情况

追踪您的内容在 ChatGPT、Perplexity 及其他 AI 平台上的使用和引用方式。

了解更多

还有谁在担心AI内容权益?法律环境正变得疯狂

还有谁在担心AI内容权益?法律环境正变得疯狂

社区讨论AI中的内容权益,涵盖版权担忧、许可框架、合理使用争议,以及防止创作者内容被未经授权AI训练的策略。

1 分钟阅读
Discussion Content Rights +2