文化产业+人工智能的发展与前沿法律政策
田小军 徐思彦 何帆 | 2018-03-20
收藏
摘要: 文化产业+人工智能的发展与前沿法律政策

“人工智能”概念自1956年夏天被第一次提出以来,已经经过了60多年的历程。与前几次的热潮相比,AlphaGo引爆的第三次人工智能浪潮跨越了技术商业化的临界点。截至目前,人工智能已在自动驾驶、医疗、金融、法律、智能家居等诸多领域成功实践,其与文化产业的拥抱亦在不断深化,在文化创作,以及分发、管理、营销方面都有应用。目前,世界各国政府与学界、产业界已经开始关注人工智能在文化产业领域的应用以及相关法律政策问题。

1.人工智能在文化产业领域应用广泛

根据腾讯研究院的统计,从2012年开始,人工智能领域的投资金额呈现出了非常陡峭的增长趋势,转折点就是深度学习技术的突破,以及硬件算力与大数据的飞速发展。“文化产业+人工智能”是人工智能技术向文化领域深度渗透和应用的过程,同时也是提升文化科技附加值,提高文化产品数字化、智能化的方向。

在传媒与互联网领域,知识的数据化程度越来越高,人工智能在网络新闻、文学等图文内容的创作与编辑方面广泛应用。一些主流媒体如腾讯新闻的写稿机器人“dreamwriter”、 “微软小冰”及中国地震台网机器人等都先后将AI应用于新闻报道。另外,人工智能可以根据主题主动从互联网采集内容数据,对内容数据进行自动化的鉴定、审核与筛选,智能分类聚合。未来的智媒时代,人工智能将打破传统媒体的桎梏,实现完全智能化内容创作、跨媒体语义理解和多媒体内容精细编辑。

在影视、音乐与艺术领域,人工智能在剪辑、灯光、后期等很多流程上可以大大提高人类效率,很多科技公司均在探索利用AI创作出更加打动人心的艺术作品。在影视领域,迪斯尼和皮克斯的人工智能模型,通过研究《海底总动员2》中大量处理瑕疵的案例,可以自动将因光线过少引起的瑕疵纠正成光线饱满而自然的图像。在音乐领域,人工智能已经能够参与到题材选择、初步生成、编曲、声音合成等各种环节。在艺术创作领域,2017年4月27日,阿里巴巴在UCAN大会上正式推出“鲁班”人工智能系统,一秒可以生成8000张淘宝海报。不过,目前人工智能尚不具备人类特有的情感、思维,只是限于辅助人类创作和替代完成部分低质量的重复工作。

在游戏领域,人工智能的应用主要分为两个方面:一方面,是将人工智能用于游戏内容的开发,比如制作游戏的各种素材如模型、贴图、声音、NPC等。例如,英伟达正基于机器学习与神经网络技术研发多种游戏开发工具,其功能包括利用照片自动生成材质、将低像素图片还原到较高清晰度等;美国佐治亚理工大学的研究人员通过让AI观看游戏视频,教它如何重新制作游戏引擎。人工智能与游戏的结合不仅可以帮助专业人员开发出用户体验更佳的游戏,另一方面,人工智能可以作为玩家去玩游戏,如腾讯AI lab的“绝艺”战胜了世界棋王柯洁。

另外,技术革新驱动文化产业革命性发展,从报纸到电视再到互联网、移动互联网,至今进入AI时代,文化传播、文化管理与文化营销均深受影响。

从传播模式上看,人工智能通过大数据分析可以精准地向用户推荐文化产品,适时调整传播内容和策略,提升用户服务体验。借助用户行为大数据实时分析,人工智能将对用户进行精准的和实时的画像,并在此基础上理解用户的信息需求,进而准确推送所需知识和信息内容,实现内容精准发行和阅读服务。诸如今日头条、天天快报、UC等都是算法与新闻相结合,基于用户画像进行内容推荐的实践产品。除此之外,美国的一些新兴社交媒体内容生产机构就在利用人工智能算法实时监测短视频的传播路径,进而实时调整传播策略以及内容生产策略,形成了从传播监控到内容生产的闭环。

从管理的角度来看,人工智能具备大数据存储能力和强大并行运算能力,通过对大数据的分析,可以提升信息存储能力、提高信息管理的效率和快速追踪数据之间的相互联系。美国博物馆协会(AAM)认为:“美国克林顿总统博物馆的邮件数量尚在博物馆管理能力之内,而奥巴马总统的博物馆则需要管理10亿封以上的邮件,人工智能是管理如此大量级文件的唯一可行方法。”另一方面,人工智能还可以提出别有新意的藏品组合,例如,目前挪威国家博物馆正在进行机器学习和深度神经网络试验,将人工智能应用于馆内收藏的管理。

从文化营销上看,人工智能的大数据分析技术可以帮助文化企业更有针对性地进行内容宣传。《魔兽》的精细化营销就是一个充分发挥人工智能作用的例子:2016年,百度和传奇影业有一项推广合作,即用“百度大脑”的用户画像技术将观影人群分类并精准营销,为电影《魔兽》提升了200%的票房。在游戏行业,游戏运营商通过渠道数据的分析,不仅可以筛选出对产品有价值以及有潜力的分发渠道,还可以针对这些渠道增加投放活动数量以及相关奖励内容,优化渠道结构以保障持续稳定的玩家导入,这都是人工智能在文化营销方面的能力。

2.人工智能应用于文化产业面临的法律政策问题

人工智能在众多文化领域的应用无疑是十分有潜力并值得期待的,然而事情总有两面性,随之带来的前沿法律政策值得我们思考。

1.人工智能机器人法律主体资格问题

随着人工智能技术的发展,传统法律及社会规范面临新的挑战。人工智能技术的快速发展,使得机器人拥有越来越强大的智能,机器人与人类的差别逐渐缩小。2017年10月26日,在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,“女性”机器人索菲娅被授予沙特公民身份。据吴汉东教授介绍,“2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为‘电子人’(electronic persons),除赋予其‘特定的权利和义务’外,还建议对这些智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。”虽然此项动议已被欧盟委员会否决,但随着技术的发展和人类对自我认识的加深,如何判定人工智能是否具备人类相似的“智能”,是否赋予机器人以虚拟的“法律主体资格”,是需要各个领域的专家进行探讨的复杂问题。

2.人工智能创作物版权保护之困惑

随着人工智能应用领域在影视、音乐创作、文学创作等领域的不断扩展,社会各界开始讨论其创作成果的法律属性以及保护路径问题,并且出现了不小的争议。随着大数据、深度学习的应用以及智能软硬件的不断迭代,人工智能创作能力不断提高,例如Jukedeck Make平台用户可以通过设定音乐类型、乐器、节奏等参数在10分钟之内自动生成一段时长在1分多钟的音乐;美联社早在2014年就启用Wordsmith写作机器人进行财经报道;国内新闻媒体例如腾讯、新华社等也启用机器人写稿系统,撰写各类新闻报道;2016年清华大学的语音和语言实验中心(CSLT)在其网站上宣布他们的写诗机器人“薇薇”经过社科院等唐诗专家的评定,通过了“图灵测试”。这些人工智能的创作成果能否得到版权法的保护对文化产业的发展有深远的影响,在争议出现时,如果不能及时给予其恰当的保护,一定会影响企业或者个人在“文化产业+人工智能”领域投资的积极性,最终影响文化产业的智能化水平。

3.个人隐私和数据保护问题

人工智能与大数据时代,数据的收集、使用、管理、流转等各个环节都面临着巨大的法律风险。由于大数据具有多维度和全面的特点,它可以从很多看似支离破碎的信息中完全复原一个人或者一个组织的全貌。因此,我们需要关注,机器对数据的收集是否坚持了授权与最小必要原则,是否对数据进行了匿名化与脱敏处理等,这些对于保护用户的隐私与数据安全非常重要。比如网络视频公司Netflix曾放出上亿条“经过匿名处理的”电影评分数据,仅保留评分和评分时间,但2009年,德州大学的两名研究人员,将匿名数据与公开的IMDB数据做对比,一一确定了匿名数据背后的用户。并且,目前互联网安全隐患始终存在,黑客攻击、安全漏洞、病毒侵袭等原因使得个人隐私数据始终暴露在危险中。2016年9月22日,雅虎证实至少5亿用户的账户信息在2014年遭人窃取。2016年12月14日,雅虎再次发布声明,在2013年8月,超过10亿用户的账户信息被盗取。如何在推进文化产业智能化的同时保护个人隐私、数据是一个重要的问题。

4.人工智能加剧信息茧房效应

“信息茧房”最早由凯斯·桑斯坦教授诠释,他认为公众在接受信息时往往会有自身的偏好,沉浸于自己感兴趣的信息之中,屏蔽掉自己不感兴趣的讯息,将自身桎梏于蚕茧一般的“茧房”中。时间一长,人们只能听到与自己相同的声音,桑斯坦称之为“回音室”。一旦身处“茧房”之中,我们则只能听到自己被放大的回声,并且不断强化、固化,以至于越来越将自己隔离在自我的信息孤岛。当今,信息流媒体应用就是通过大数据来刻画用户肖像,通过协同过滤算法为用户进行个性化推荐,使得用户接触的信息愈发同质化。第三次科技革命,人类进入信息社会,信息的广度、深度都被大大拓展,互联网的本意是让人接受更加丰富多样的信息,但反而由于“信息茧房”的存在,让人们沉迷于“茧房”而不自知。在可预见的将来,算法问题如不改善,社会群体将愈发极化,会对整个社会的稳定造成极大的威胁。正如马歇尔·麦克卢汉所说:“我们塑造了工具,工具反过来又塑造了我们。”

5.人工智能能力尚待进一步优化

随着人工智能技术逐渐深入文化产业,人工智能的算法缺陷逐渐显现。应用于文化产业的人工智能的算法缺陷主要体现在三个方面:首先,数据来源于社会,数据训练出来的人工智能自然就会带有现实的烙印。例如,谷歌公司的图片软件曾错将黑人的照片标记为“大猩猩”, Flickr的自动标记系统亦曾错将黑人的照片标记为“猿猴”或者“动物”。其次,机器还缺乏理解人类细微情感差别的能力,这主要表现在语音识别、图像识别等领域。以语音解析为例,在记录对话时,人工智能可能与人类一样准确,但它无法辨别出讽刺、笑话或理解上百万种其他文化背景。最后,智能算法投入产出比高、覆盖面广、个性化程度高,但风险把控能力相对较低,技术与新闻性、价值观的平衡点依然难以把握。2017年12月31日,在被网信办约谈后今日头条宣布整顿,在智能算法推荐之外加入人工审核。

3.针对“人工智能+文化产业”前沿法律政策问题的建议

1.加强人工智能在文化产业的研究应用

2016年,国务院印发的《“十三五”国家战略性新兴产业发展规划》首次将数字创意产业纳入战略性新兴产业,数字创意产业成为要重点培育的5个产值规模达10万亿元级的新支柱产业之一。十九大报告更是高度强调文化与科技融合发展,提出要更广泛地借助和依靠科学技术发展新型文化业态,推动文化产业大发展大繁荣。当前,人工智能已经渗透到影视、音乐、艺术与互联网传媒、游戏等文化生产和文化传播的方方面面。我国应继续推动文化产业与人工智能结合,促进文化产业的进一步开发,形成新的产业格局和产业生态。支持数字文化资源开发关键技术研究与应用,加快文化产品数字化、协同化步伐,加强人工智能在文化创作、传播、管理、营销以及文化领域重要装备、工艺、系统、技术平台应用的相关研究。

2.人工智能尚不具备法律主体资格

至少在当前,人工智能机器人发展处于弱人工智能时代。如果要赋予人工智能的机器人以法律拟制的法律人格,就要求其有意思表示能力,具备独立的权利能力和行为能力。百度公共政策研究即认为,“人工智能机器人的外在表现可能为人形,但其只是一个由算法主导的计算机系统,其工作的逻辑主要是通过传感器以及语音识别系统等,将人类的自然语言以及外界的感知转换成为机器语言传达到控制系统,控制系统通过高速计算处理,将信息传达到驱动系统,从而输出语言和特定的指令动作。”于人类而言,机器人只是辅助人类、解放人类劳动的工具,而非具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,若将其作为拟制之人以享有法律主体资格,缺乏法理佐证。事实上,当前的人工智能技术未发展到超人工智能时代,机器人工作的逻辑与目的为人类设计者所设计,人工智能尚不具有自我意识,缺乏独立的权利能力和行为能力。因此,在当前技术水平下,缺乏自我意识,尚且受民事主体控制的机器人,无法取得独立的法律主体地位。

3.予以AI创造物以版权保护

2016年5月,日本颁布的《知识财产推进计划2016》认为有必要对现有的日本知识产权制度进行检讨,以便分析使得人工智能的创作物获得版权保护的可能性。在发展“文化+科技”产业逐渐上升为国家战略的情况下,我们若不给人工智能创作物以版权保护,将极大地影响大数据、人工智能技术在文化产业的稳定投资与快速发展。但是,鉴于目前的技术发展局限,人工智能的“智能”尚不足以达到可以独立承担相应的权利义务的程度,中国社科院孙那博士建议“我国为其设立相应的‘管理人’代为行使权利和承担义务。而该‘管理人’的选定应遵循‘最紧密联系’原则,即该‘管理人’应为最方便代为人工智能体行使相关权利的人”,我们对此极为认同。并且,北京大学张平教授进一步主张,“我们应保证机器人的署名权”,以利于社会可以很容易地区分出自然人与机器创作内容。

4.强化人工智能隐私和数据安全保护

为了更好应对个人隐私和数据保护的挑战,各国基本建立起隐私和个人数据保护的法律框架,如美国在1974年即制定《联邦隐私权法》,欧盟也在1997年通过《电信事业个人数据处理及隐私保护指令》等。在人工智能时代,我们应建立起“规则+技术”的二元数据隐私与安全法律规范体系,以强化相关法律规范体系的实效性与灵活性。首先,建议我国加强关于保护公民网络隐私与数据的专门立法。其次,为了进一步强化对个人隐私和数据保护,可以引入相应的技术手段。如腾讯研究院王融建议,“我国应当加快数据匿名化利用的法律规范体系,明确匿名化数据的法律概念和认定标准;引入隐私风险评估机制,鼓励企业基于个案在内部实施数据匿名化的风险评估”,在此基础上,我们也应平衡产业发展与数据隐私、安全保护的关系,在制度自信的基础上谨慎借鉴欧美立法经验。

5.公共性媒体降低信息茧房效应

“信息茧房”并不是算法时代独有的产物,“信息茧房”存在的根源是“选择性心理”,而“协同过滤算法”则加剧了“信息茧房”效应。对于如何摆脱互联网“信息茧房”的枷锁,桑斯坦认为有必要建立网络世界的“人行道”模式。在纸媒、广播电视甚至网络门户时代,虽然媒体为了追求市场份额,会根据受众人群进行差异化的内容选择,但其总能提供社会性公共领域的内容,以防止受众人群“闭目塞听”,促使受众接受更多社会信息。正如尼葛洛庞帝在其著作《数字化生存》中所言“在极端个性化的‘我的日报’的同时,我们还需要公共性的‘我们的日报’。”通过构建“人行道”模式,向受众提供“非计划”的信息,来拓宽公众信息视野,掌握社会整体发展和宏观变化,更好地参与到社会生活中去,更有利于维持社会稳定。

6.制度建设和技术发展降低算法危害

目前人工智能技术尚处于发展过程中,存在算法歧视、算法不公开、不透明的问题,人工智能的计算结果有时并不公正、公平,由此带来的伦理、道德方面的负面影响逐渐出现。因此,对于我们来说,也应该提前思考,通过制度建设、技术提高、算法完善和算法公开化、透明化等措施,来避免类似问题的发生。近些年,已有部分高科技企业和国际标准组织对解决人工智能进步所带来的社会与伦理道德问题进行了尝试。例如,2014年,谷歌收购英国人工智能创业公司DeepMind后建立AI伦理委员会;2016年,微软创建了AI伦理委员会“Aether”;英国标准协会(BSI)在2016年发布《机器人和机器人系统的伦理设计和应用指南》;IEEE标准协会于2016年4月推出IEEE全球人工智能和自主性系统伦理问题提案;2017年初,MIT媒体实验室与哈佛大学伯克曼·克莱因互联网与社会研究中心,合作推出AI伦理研究计划。与国际社会如火如荼地制度建设相比,国内对此问题的讨论寥寥无几。建议我国根据需要建立人工智能研发的基本伦理准则,适时成立AI伦理委员会,并对人工智能做出道德风险评估,形成完善的研发技术规范。当然,技术的发展是解决算法技术缺陷的最根本路径。以深度学习为基础的人工智能在海量的数据支撑下进行研发,机器学习仍处在一种黑箱工作模式,也就是说人类目前尚不能解释人工智能的运行过程,未来的研发需要更加透明、更加具有解释性的人工智能学习路径,降低不可预测性和不可解释性。


所有评论({{total}}
查看更多评论
热点快讯
+86
{{btntext}}
我已阅读并同意《用户注册协议》
+86
{{btntext}}