(原标题:百度大量抓取大众点评网用户评论,一审被判赔323万元)
5月26日上午10点,上海汉涛信息咨询有限公司(下称汉涛公司)起诉北京百度网讯科技有限公司(下称百度公司)、上海杰图软件技术有限公司(下称杰图公司)不正当竞争纠纷一案在上海市浦东新区人民法院宣判。
法院一审判决,百度公司停止不正当竞争行为,赔偿汉涛公司经济损失300万元及合理费用23万元,驳回汉涛公司的其余诉讼请求。
大众点评:索赔9000万元
澎湃新闻记者从法院获悉,汉涛公司是知名网站大众点评网的创建者和运营商。该公司称,自2012年以来,百度公司未经许可在百度地图、百度知道中大量抄袭、复制大众点评网的用户点评信息,直接替代大众点评网向用户提供内容。
汉涛公司认为,此举让百度公司迅速获得用户和流量,给自己造成巨大损失。其行为违背公认的商业道德和诚实信用原则,构成不正当竞争。此外,百度公司的网站还使用了大众点评网的图文标识,使得相关公众对服务来源产生误认,属于擅自使用知名服务特有名称的不正当竞争行为。
2013年4月1用大众点评网评论和介绍,但仅允许用百度帐号登录进行评论。怎么回事?对此百度地图官方微博回复称:亲,我们现在是合作关系呀。汉涛公司认为,由于双方并不存在合作关系,该回复已构成虚假宣传。
作为城市吧街癫痫的病因是什么景地图的经营者,杰图公司将含有侵权内容的百度地图内嵌于自己的网站中,汉涛公司认为,此举扩大了侵权范围,已构成共同侵权。
汉涛公司因此向浦东法院起诉,请求法院判令两被告立即停止不正当竞争行为,共同赔偿经济损失9000万及合理费用45万余元,并在媒体上刊登公告消除影响。
百度:与大众点评没有竞争关系
2016年4月11日,浦东法院对本案进行了公开开庭审理。
百度公司辩称,大众点评网为用户提供以餐饮为主的消费点评、消费优惠等业务,同时提供餐厅预定、外卖等服务,而百度公司提供的是搜索服务,双方不存在直接竞争关系。
该公司还认为,用户点评等信息不属于著作权法保护的作品,即便用户点评属于作品,其著作权人也非汉涛公司,而是网络用户,故原告主张没有法律依据。
此外,百度公司还在庭上公布了抓取网络内容的技术标准,即搜索引擎在抓取网站特定内容时,是根据网站Robots协议的内容进行判断。百度的抓取行为完全符合大众点评网的Robots协议。如果汉涛公司认为百度侵权,完全可以修改网站Robots协议,禁止百度访问,但汉涛公司并未这样做。
百度公司使用大众点评网的图文标识,是为了标注信息微博中回复合作关系,这并非宣传行为,而是针对特定个人的被动回答。
杰图公司辩称,与百度公司不存在侵权行为上的共同故意或过失。无论百度公司是否构成不正当竞争,杰图公司均不构成不正当竞争,不应承担赔偿责任。
法院:百度行为明显系搭便车
法院审理后认为,百度地图和大众点评在为用户提供商户信息和点评内容的服务模式上近乎一致,双方存在直接竞争关系。百度地图大量使用大众点评网的用户点评,替代其向网络用户提供信息,会导致大众点评网的流量减少。与此同时,百度地图又推介自己的团购等业务,攫取了大众点评网的部分交易机会。而百度知道直接向用户提供来自大众点评网的点评信息,将一些想获取点评信息的网络用户导流到了百度知道。
法院指出,市场经济鼓励市场主体在信息的生产、搜集和使用等方面进行各种形式的自由竞争,但是这种竞争应当充分尊重竞争对手在信息的生产、搜集和使用过程中的辛勤付出。本案大众点评网的用户点评信息是汉涛公司的核心竞争资源之一,能给汉涛公司带来竞争优势,具有商业价值。汉涛公司为运营大众点评网付出了巨大的成本,通过法律维护点评信息使用市场的正当竞争秩序,有利于鼓励经营者创新业务模式,投入成本改善消费者福祉。百度公司大量、全文使用涉案点评信息,实质替代大众点评网向用户提供信息,对汉涛公司造成损害,其行为违反了公认的商业道德和诚实信用原则,具有不正当性,构成不正当竞争。
法院同时指出,本案中百度公司的搜索引擎抓取涉案信息虽未违反Robots协议,但这并不意味着百度公司可以任意使用搜索引擎抓取的信息,百度公司应当本着诚实信用的原则和公认的商业道德,合理控制来源于第三方网站信息的使用范围和方式。
不过,百度地图在抓取信治疗癫痫医院哪家很好息中标注大众点评网的图文标识,是为了指示信息来源,属于对他人标识的合理使用,并无不当。法院同时认为,百度地图对涉案微博的回复,影响极其有限,也没有证据对汉涛公司造成损害,尚不构成虚假宣传。
杰图公司运营的网站可调用百度地图,侵权的信息仅存在于百度地图中,符合行业通行做法,并不构成侵权。
通过综合考虑百度地图和百度知道的市场地位、侵权方式和范围及持续时间、在本案诉讼过程中仍治癫痫病去哪里好未停止不正当竞争行为等因素,法院依法酌情作出了上述判决。
【Robots协议】
Robots协议也称为爬虫协议、机器人协议等,全称是网络爬虫排除标准(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。