人工智能在法律行业的应用
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1
一、历史上几次科技浪潮
1、第一次科技革命的成果:18世纪60年代,蒸汽机的广泛使用,大机器生产基zhi本上取代了传统的工厂手工业,蒸汽汽dao车、火车、轮船被发明出来。
2、第二次科技革命的成果:19世纪70年代,电力的发明和广泛应用,德国人西门子制成了发电机,电器开始用于代替机器,成为补充和取代以蒸汽机为动力的新能源。随后,电灯、电车、电影放映机相继问世,人类进入了“电气时代”。
3、第三次科技革命的成果:20世纪四五十年代,原子能、电子计算机等的发明,美苏英法中成功地试制原子弹。1978年的计算机每秒可运算1.5亿次。80年代发展为智能计算机。90年代出现光子计算机、生物计算机等。
4、第四次科技革命:互联网、移动互联网、人工智能为代表
二、人工智能的分类层次
第一层“运算智能”。计算是计算机的强项,通过分布式系统及高性能的CPU、GPU可以很好解决。
第二层“感知智能”。感知是在更多听觉、视觉、触觉等方面的创新。
第三层:认知智能。研究如何进行自然语言理解、知识的构建和逻辑推理。法律智能目前处于这一阶段。
第四层“创建智能”,是人工智能行业终极目标。
3
人工智能与法律
纵观目前的市场情况,大部分人工智能的应用主要集中在互联网、科技和金融行业。法律行业算是例外,虽然行业本身有着天然的滞后性,但近几年国内外很多公司开发出的技术应用让一波又一波人好奇。
无论是资本市场的涌入还是政府的支持,法律与人工智能的结合越来越热。这些力量的加持是否会改变整个行业的服务方式?亦或是带来新的机遇?
三、人工智能在法律行业的应用
一份法律裁判文书、一份起诉状、一条评论都可以算书面文本。
面对一篇文本,我们能做什么呢?
一,拆解。像庖丁解牛一样把文档结构化。
基于案件文书全文、文书段落、案件情节、案件事实描述、关键人物、事件,都是可以对文本拆解后抽取到的信息。
抽取是文本处理中最重要和实用的技术。
二,联接。对多个文本进行庖丁解牛式的拆解,相关知识就能联接形成一个巨大的知识网。对标到知识图谱,要素及关系,都可以作为文本智能处理的大脑和背景知识,在知识网络上进行逻辑推理和判断。
三,生成。生成是学术界研究的热点,在当前阶段是非常困难的事情。腾讯的Dreamwriter,今日头条的xiaomingbot都在尝试用机器创作短新闻。
但是在法律领域自动生成:民事判决书(网络购物合同简易)、民事判决书(小额借款合同)、民事判决书等等制式文书还是非常可行的。
当然文本智能处理的需求遍及各行各业。只要存在文字处理工作的行业,都有文本智能处理的需求,金融、法律、政府行业,媒体、互联网,大型企业等。
4
法律文书检索
律师的工作分为常规任务和定制化法律服务。前者是处理大量的数据,搜集大量的案例,后者是大量的执行和判断工作。如果能通过分析以往的判例,进行归纳、分析和标签提取,让律师在接到新案件的时候能更有效地提供专业服务。
显然普通的逻辑检索不可能在短时间内把每篇文章内的信息都抽取出来,所以在整个领域来说,文本智能处理出现了非常大的机会。这也受益于算法的进步,特别是深度神经网络从图片识别领域到文本处理的迁移。
5
促成文本智能处理飞速发展的原因很多
算法层面一直在不断取得很大的创新和进步是主要因素。
第二因素是计算能力,如分布式系统,GPU等应用。
第三因素是语料库的积累,互联网行业,可以通过多种手段迅速积累语料库,传统企业也有资料积累,但量级无法与互联网比。
三、怎样才能基于这个AI算法设计产品呢?
产品经理的思维是从用户、场景和需求三要素出发。
设计思维是以用户为中心,强调敏捷开发、快速迭代。
机器学习是以数据为中心,强调数据+模型闭环驱动。
两者怎么样进行深度的融合,是在人工智能时代下对产品经理能力模型的要求
AI目前还处于初级阶段,AI的常识逻辑和逻辑推理能力都还很弱。但在日常生活中人类已经享受到了AI带来的价值。
四、AI应用时面临的法律问题和风险
1、图像识别领域
1)种族歧视问题:谷歌公司的图片软件曾错将黑人的照片标记为“大猩猩”。
2)用户隐私保护问题:2011年,Facebook就曾因其“人脸识别和标记功能未按伊利诺伊州《生物信息隐私法案》(BIPA)要求告知用户收集面部识别信息的期限和方式”被诉,随后又因“采集面部特征前未能明确提醒用户并征得用户同意”而遭到爱尔兰和德国有关部门的调查。
注:尽管Facebook辩称默认开启该功能是因为用户通常不会拒绝进行人脸识别,并且用户有权随时取消这一功能,但德国汉堡市数据保护与信息安全局坚持Facebook的面部识别技术违反了欧洲和德国的数据保护法,Facebook应删除相关数据。最终,Facebook被迫在欧洲地区关闭了人脸识别功能,并删除了针对欧洲用户建立的人脸数据库。
无独有偶据外媒报道,数十名美国未成年人通过他们的父母向短视频应用TikTok(抖音海外版)提起集体诉讼,指控该应用收集他们有关面部特征、位置和亲密联系人的数据,并悄悄将其发送到中国服务器上。
2、语音识别领域
模拟人声诈骗:有朝一日,如果TTS技术效果非常好了,可能会有人用假的声音去诈骗,比如模仿子女的声音,给其父母打电话……
3、自然语言处理领域
AI被人“教坏”:2016年3月23日,微软的人工智能聊天机器人Tay上线一天就被紧急下线,因为她被用户“教坏”了——她成了一个集反犹太人、性别歧视、种族歧视等于一身的“不良少女”。
6
五、落地| 以上内容对AI产品经理有何实际借鉴意义
1、行业前景判断
比如自动驾驶,由于法律、伦理、安全,以及道路基础设施等问题,短期内肯定是不可能大规模普及民用的。(当然,以前也说过,卡车的自动驾驶,短期内是可以做的)
多说一句,科技圈公司,更多面临生存压力,首先考虑赚钱,所以伦理、安全、法律等问题的优先级不高——这些问题,至少在行业早期,需要由政府、高校、学术界来推动。
2、产品理念和需求讨论时,需要check伦理问题,足够警惕。
这是因为人工智能系统并非表面看起来那么“技术中立”,如果输入的数据代表性不足或存在偏差,训练出的结果将可能将偏差放大并呈现出某种非中立特征,比如歧视。
所以,最好将伦理委员会常态化,研究产品中的伦理问题及其影响。比如,Google DeepMind、Lucid AI等机构已经设立了伦理审查委员会。该审查委员会由具有不同知识背景和经验的专家组成,在审查时需要参考一定的行业标准,并最大限度地考虑安全和伦理问题。
3、产品思路:AI辅助人工,不能自行决策。
在重要领域,不能将AI的运算结果当然作为最终且唯一的决策依据。例如在关于人工智能医疗辅助诊断的规定中,就明确了人工智能辅助诊断技术不能作为临床最终诊断,仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定。
4、产品体验细节设计
1)充分考虑女性、儿童、残疾人、少数族群等易被忽视群体的利益,并对道德和法律的极端情况设置特别的判断规则。特别是聊天对话类产品。
2)体验流程中,如果涉及隐私,需要“明确提醒用户并征得用户同意”,以及“告知用户收集XX隐私信息的期限和方式”,而且,用户有权(有操作入口)拒绝企业对其进行画像等自动化决策(即,不能先斩后奏,让用户先使用、然后再关闭相关功能)。
我想说的是,作为AI产品经理和先行者,我们应该抱着责任感,甚至悲悯、敬畏之心来真正重视AI的伦理和法律问题,因为这些真的会影响我们和后代的未来。