ChatGPT,“违法搬运工”还是“内容创造者”?
2023-02-17 15:23:00 /

一、 利用ChatGPT作为生产工具,会有哪些潜在法律风险?

问:生产出来的“作品”著作权到底是谁的?

答:根据我国《著作权法》第11条规定,作品归属于自然人、法人、非法人组织。换言之,在我国,只有自然人、法人可以成为著作权的主体,ChatGPT首先不是我国法律意义上的适格主体,因此不能成为真正意义以上的作者。另外,AI或ChatGPT产出的文本,是否是我国著作法意义上的“作品”也存在争议。但必须提及的是,2019年12月我国出现了首例认定人工智能产出文本为“作品”的判例(深圳南山区法院),但在全国范围内多数法院包括北京知识产权法院还是坚持严格解释法条,而非认定机器AI成为作者。

问:利用ChatGPT生成的内容是否需要与活人写的内容区别开?如何应对ChatGPT制造的“假新闻”和“谣言”?

答:首先,根据《互联网信息服务深度合成管理规定》,深度合成的信息内容须添加显著标识,防止公众混淆误认,AIGC内容与真人内容是需要做好区分的。针对假新闻和谣言等问题,2023年1月10日正式实施的《互联网信息服务深度合成管理规定》,要求深度合成提供者和使用者,不得制作、复制、发布、传播虚假新闻消息,转载给予深度合成服务制作发布的新闻消息的,应当依法转载互联网新闻信息源单位发布的新闻信息。

飒姐团队提示:服务提供者应当加强深度合成内容管理,采取技术或者人工方式对输入数据和合成结果进行审核,建立健全用于识别违法和不良信息的特征库,应当建立健全辟谣机制。

问:如果用于AI训练的数据如果来源不合法,是否有法律风险?

答:我们必须明确一个前提:用于AI训练的数据必须是合法取得的。

在个人信息采集方面,必须经被采集人的知情同意,不能非法采集数据,需要遵循“个保法”规定和配套标准。在其他数据方面,需要取得权利人的同意或授权,例如将他人具有著作权的作品用于数据训练,需要在事前取得其授权,除非是已经经过著作权保护期或由于其他原因(CC授权等)而进入公共领域的作品,否则不能直接使用。同时,服务提供者和技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全,防止数据泄露。

二、使用ChatGPT的企业、个人有哪些潜在影响?

问:作为一种高效便捷的生产力工具,长期使用ChatGPT是否会对个人和企业产生何种影响?

风险提示:
关于防范以“虚拟货币”“区块链”名义进行非法集资的风险提示 ——银保监会等五部门

免责声明:
作为区块链信息平台,本站所提供的资讯信息不代表任何投资暗示,鉴于中国尚未出台数字资产相关政策及法规,请中国大陆用户谨慎进行数字货币投资。