联系我们

面试

律师AI的作者Alexander Hudek– 面试 Series

mm

更新

 on

Alex Hudek是联合创始人& CTO of 基拉系统。他拥有滑铁卢大学计算机科学博士学位和数学硕士学位。来自多伦多大学物理与计算机科学系。

他过去在生物信息学领域的研究专注于发现DNA序列之间的相似性。他还曾在证明系统和数据库查询编译领域工作。

今天他出版了一本新书,名为 律师人工智能,该书探讨了围绕律师道德规范使用的五个主要主题– and not using – AI.

写作背后的灵感是什么 律师人工智能?

我的联合创始人Noah Waisberg和我经营一家合法的AI软件公司(基拉系统)并从事法律AI已有近十年的历史。我们是业内活动时间最长的人之一。在整个这段时间里,我们意识到,对于AI在法律中的作用,存在着广泛的接受和抵制,以及各种各样的感觉。我们觉得有机会提供一个关于我们今天所处位置的观点,并消除关于AI的一些神话和恐惧。

现实情况是,人工智能将继续存在,我们想写一本书来帮助律师意识到这一点,如果还没有的话,让他们加入。

书中讨论了哪些主题?

律师人工智能 以易于访问和可读的格式提供对理解法律的未来至关重要的信息,旨在揭开围绕AI的行话的神秘面纱,并展示出拥抱AI所具有的强大实用性。

新手和有抱负的律师会发现这本书必不可少,因为它详细介绍了几年前才有的令人兴奋的职业选择和发展轨迹。它还为实际采用AI提供了一个框架,同时重点介绍了当今如何使用AI为世界各地的律师事务所取得更好的结果。

该书进一步解释了人工智能在未来几年如何可能会在尚未被数字技术转变的领域中塑造法律世界,律师道德规范的使用。– and not using – AI, and more.

为什么律师应该开始采用人工智能?

采用AI是一个很好的商业决策。对于律师事务所和其他法律服务提供商,它提供了机会来进行质量更高的工作,提高实现率,赢得新业务,保留和追加销售现有业务以及更有利地进行固定费用工作。对于公司而言,它使他们可以更快,更轻松地完成工作,并且– more importantly –更好地经营自己的业务,例如了解而不是猜测其业务关系的详细信息(如合同中所记录)。

人工智能赋予采纳者权力–通过教授AI系统新技能–创造竞争优势,在组织而不是在其个人律师中创造价值,并可能通过获取和分配其专业知识来赚钱。

您能否讨论一些示例,说明如何使用AI为律师事务所取得有影响的结果?

机器学习 在法律程序中包含大量数据的情况下,以及使用人工和情报程序扩展数据量的挑战时,这种方法非常有效。

当律师开始面临越来越多的数据以电子格式生成和存储的问题时,法律上的第一个应用程序就是诉讼。律师越来越多地发现,诉讼的当事方将大量信息(以及潜在的相关证据)存储在电子邮件,文档管理系统和其他数字媒体中。数据的可用性超过了人类查看和识别与诉讼相关的所有信息的能力,这导致机器学习在诉讼的发现阶段得到应用。事实证明,机器非常擅长快速而准确地识别可能与发现请求相关的数据。

基拉(Kira)参与的合同分析是该领域中有大量数据的另一个示例(M&一笔交易可能涉及数千份合同)。传统流程(例如人工合同审核)根本无法跟上数据量的增长,或者跟不上准确识别和分析合同条款的需求。

法律研究是机器学习增强了研究法律先例的过程的另一个领域,并且从以前很难通过手动方法找到的法律文件集中提取了意义和见解。

在AI领域执业的律师有哪些道德义务?

随着技术越来越成为我们生活中越来越重要的一部分,其伦理意义得到了越来越多的关注。这从安全摄像机的位置扩展到在线匿名,再到用于教授机器学习算法的培训数据。毫不奇怪,这也是合法AI的问题。

 这项技术可能是新技术,但使用AI的律师所面对的道德义务仍然与大规模采用AI之前的道德义务相同。本书探讨了人工智能影响律师胜任职责的方式(包括了解与相关技术相关的收益和风险);沟通义务;监督和限制未经授权的法律行为的义务;忠诚义务;和更多。

您能否讨论一下AI偏差有多大?

近年来,我们看到了有偏见的AI系统的真正影响。例如,执法机构越来越多地使用面部识别来识别以前难以想象的规模的人。当您考虑到当前的面部识别通常对许多少数族裔人士的准确性较低时,潜在的问题就会立即显现出来。这导致许多公司放弃了其中一些用途。类似地,使用AI做出影响个人的判断或决定,例如预测犯罪系统中再犯的风险或确定信用评分,已清楚地说明了AI系统中可能有多大的影响偏见。

也就是说,有些应用程序也不会遭受相同的偏见。例如,在M中&尽职调查评论(经常使用Kira的区域)’看不到那种偏见 ’在前面的示例中进行了描述。人工智能模型仍然可以在某些方面产生偏见,例如过高或过低,但这种影响并不那么关键。

因此,答案是,偏斜在某些应用程序中是一个大问题,而在其他应用程序中则不是一个大问题。这取决于您如何使用它。 

律师如何最好地应对AI偏见?

负责任地使用AI要求那些使用AI的人在应用中考虑偏差问题。律师可以通过了解AI的工作原理以及如何发现AI的应用可能带来意想不到的负面影响的情况来最好地解决这一问题。这是非常笼统的建议,因为存在许多种AI,并且可以在许多不同的情况下使用它。

需要注意的主要事情是AI支持的错误或有偏见的决策可能导致对人不利的结果,或侵犯人的隐私或人格完整的情况。

当AI出错时,谁应该负责和/或负责?

这比合同,侵权法和产品责任法更重要。通常,AI系统用户协议会限制其供应商的保修和责任。这有充分的理由。首先,大多数负责任的供应商都知道他们的系统会出错,并且不会做出其他保证。其次,人工智能系统通常会为律师提供补充,而他们并没有真正做出会导致责任的最终决定。第三,供应商必须承担更多的费用才能承担风险(尽管他们可以通过购买自己的“错误和遗漏”保险单来自行承担风险)。

律师必须严格按照客户的最大利益来工作,并认识到AI和其他技术工具就是工具。他们是无价的助手,他们会留下来,但是他们仍然没有制定规则或完全训练自己,这仍然是人类的责任。

您还有什么要分享的吗? 律师人工智能?

人工智能是推动法律实践向前发展的最新一步。它在法律中得到了广泛使用,并且为拥护它的律师提供了真正的优势,而为那些不接受它的人带来了危险。我很高兴能参与到这一变革中,并希望这本书可以成为推动行业发展的指南。尽管人们对AI普遍存在恐惧和不确定性,但诺亚和我坚信,这是一种可以并且将在未来几年以积极方式用于全世界的工具。

您可以了解更多有关 律师人工智能 通过访问我们的 网站.

感谢您的精彩采访,我期待着阅读这本书。有兴趣了解更多有关Alex或 基拉系统 应该阅读我们的 第一次接受Alex Hudek的采访.

安东尼·塔迪夫(Antoine Tardif)是 未来主义者 他对AI和机器人技术的未来充满热情。他是 BlockVentures.com并已投资了50多个AI和区块链项目。他是的联合创始人 证券 一个专注于数字证券的新闻网站,是unite.AI的创始合伙人。他也是 福布斯技术委员会。