3.1 Robots协议不具备法律约束力
robots 协议组织(www.robotstxt.org)开宗明义地讲:迄今,没有任何法律规定robots协议必须遵守,也没有表明其构成一份网站与用户间的约束协议,但是,如果有robots协议存在,法庭在审理案件中,一般会作为一个事实情节加以考虑。(There is no law stating that /robots.txt must be obeyed, nor does it constitute a binding contract between site owner and user, but having a /robots.txt can be relevant in legal cases.)
3.2 Robots协议尚未形成行业规范
Robots协议起源于Google自己制定的一个协议规范,但尚未形成各大搜索厂商的共识或统一的协议,也从来没有任何一家国内搜索引擎服务商公开承诺遵守robots协议或签署类似协议或声明。所以说,robots协议不是国际标准,也称不上行业规范。
3.3 Robots协议的使用必须基于正当的目的
一般来讲,Robots协议使用的正当目的如下:
1) 为了保护中小网站的流量平衡,而限制没有价值的外部访问;
2) 为了保护网站的某些内容,保护网站的隐私。
但是,Robots协议无论如何不能应用于不正当竞争的目的,比如限制竞争对手的搜索内容和范围,降低竞争对手搜索结果的质量等。如果这样,互联网开放的基本精神将被破坏,同时,也违反了反不正当竞争法的有关规定。
3.4 Robots协议不构成版权法上的技术保护措施
在国家版权局关于著作权法修改的最新草稿中,将技术保护措施定义为,是指权利人为防止、限制其作品、表演、录音制品或者广播电视节目被复制、浏览、欣赏、运行或者通过信息网络传播而采取的有效技术、装置或者部件。因此,构成技术保护措施必须符合以下条件:1)必须是有效的技术措施,能够阻挡其他人的正常访问;2) 具有可识别性,一般的访问者,都应当能够识别到技术措施的存在。
鉴于Robots协议并非行业规范,并非所有的软件工程师具备Robots协议的知识和编程技能,也不是所有的软件(包括Spider)设定了Robots协议的识别模块,因此,Robots协议不具备识别性和有效性,不构成著作权法意义上的技术保护措施。