

想象一下,你创作了一幅画作,被无数人转发、截图、二次创作,散布在互联网的各个角落。现在AI公司告诉你:"你可以选择退出我们的训练数据"...
但问题来了:
答案很残酷:几乎不可能!
根据《版权法》,版权所有者拥有专有使用权,必须事先获得授权才能使用作品!
但AI公司却想把这个责任转嫁给创作者:
这就像有人闯进你家,然后说:"你可以选择让我出去"——逻辑完全颠倒!
你以为robots.txt能保护你的作品?太天真了!
现实是:
更可怕的是,智能眼镜等新兴设备直接从现实世界捕捉数据,根本不经过网络爬虫!
现在市面上有多少AI系统?数不清!
要求创作者:
这简直是不可能完成的任务!
退出机制只有两个选项:
但现实世界需要的是:
退出机制把复杂的版权关系简化成了非黑即白的选择,扼杀了真正的创新合作!
《伯尔尼公约》明确规定:版权保护不得受制于形式主义!
退出机制恰恰就是一种形式主义,要求创作者履行繁琐的退出手续才能保护自己的权利。
即使有退出机制,如果:
那它就是个摆设!
AI公司应该承担的责任:
前Stability AI高管Ed Newton-Rex总结了退出机制的10大问题:
退出机制不是解决方案,而是问题的一部分!
真正的解决方案应该是:
已经有成功的案例证明:基于许可的合作能够促进创新,而不是阻碍创新!
真正的创新不是绕过规则,而是在规则内创造价值!
你觉得AI公司应该为使用创意作品付费吗?欢迎在评论区分享你的看法!
如果这篇文章对你有启发,点赞支持一下,分享给更多创作者朋友,让我们一起推动更公平的AI版权环境!
