
原始标题:生成的AI司法应用程序引起了争议。今年5月11日,亚利桑那州高等法院在美国的刑事听证会发生了令人震惊的场景:2021年案件中的受害者克里斯·佩尔基(Chris Perki)通过视频向法官发表了感人的声明。佩尔一生中没有录制该视频,但是数字图像“重塑”是基于他一生中的语音笔记和视频数据,使他能够表达自己的“个人”想法。最后,法官通过了这一特殊证词,该证词将AI生成内容的司法化为法院的证据。
实际上,这不是生成AI技术第一次进入司法领域。根据6月19日的物理学组织网络的说法,可以创建文本,图像,音频,视频和其他内容的AI技术正在悄悄地改变法院的运作方式:法官使用它来澄清复杂案件,律师使用它来撰写法律文件,普通诉讼人可以很好地编写法律文件,并且可以还可以通过它获得国防支持。但是,这项技术就像双刀片。在提高司法效率的同时,还讨论了准确性和公平性。如果可以成为司法正义的助推器,还有待遵循。
Genai可能会影响司法现场
西北大学普利兹克法学院的丹尼尔·林纳(Daniel Linner)教授指出,吉奈(Genai)对美国司法系统的范围已经超越了公众的理解,而佩尔基案是最好的例子。
在这种标志性的情况下,佩尔基(Perki)的姐姐史黛西·威尔斯(Stacy Wells)在Genai Technology的帮助下创建了Kanthe Digital Agent。当这个虚拟形象很好地说“我相信宽恕”时,领先的法官不仅采用了这一特殊的数字证词,而且赞扬了它所表明的人性的荣耀。
威尔斯承认,Genai的强烈情感表达可以使法官能够感觉到政党的情感世界更加真实。
自Perki案以来,Genai在美国司法公关中的应用ACTICE显示出指数增长。斯蒂芬·施瓦茨(Stephen Schwartz)是缅因州律师的一种做法,他评论说,在确保准确性的同时,Genai不仅是提高效率的强大工具,而且是促进司法发展的重要力量。
Linna进一步解释说,Genai Justice有望使其更容易获得。目前,提供的法律服务资源不平衡,预计Genai将允许更多的人在法庭上寻求正义。据报道,一位联邦法官清楚地标志着在判决时使用Chatgpt来协助。
可靠性问题常常是红灯
尽管Genai会改变法律界,但其可靠性问题通常会在红灯上点亮。这项技术成为了错误的先前,遥远论据,甚至是完全虚构的法律依据的“引发者”。人们不仅见证了卓越的革命,而且还面临着关于如何平衡现代技术与司法技术的新问题hics。
今年5月初,联邦洛杉矶法院以有趣的原因获取了31,100美元的罚款。他们提交的请愿书充满了漏洞,法官批评为“集体专业”。 “失去职业。”这不是一个孤立的情况。 2023年6月22日,纽约联邦法院还为Chatgpt法律公司筹集了5,000美元,以制定错误的规则。
更担心的是,普通人也开始跳过专业律师并直接使用AI来捍卫自己,从而在法庭上犯了无尽的法律错误。
Perki案件的数字代理人引发了对社交平台的公众舆论,例如Reddit和X. Derek Leben,他是卡内基·梅隆大学(Carnegie Mellon University)的商业道德教授,指出Genai开发的“遗言”真的代表了死者的真正愿望吗?现代痛苦对死者造成了第二次伤害?
根据NPR的说法,Uni的Mulla Grossman教授代表的法律专家加拿大滑铁卢的范围认为,即使Genai对法律制度的渗透是无法控制的,也必须建立严格的标准以确保其产出的准确性。当Genai显着降低审判阈值时,已经负载的法院可能会在案件中面临进步问题,司法系统将需要为未来做准备。
专业人士仍然是“ Dinghai Shen针”
尽管Genai带来了司法卓越和协会革命的美丽照片,但经验丰富的法律才能仍然没有变化。从起草文件到对先前的文件的解释,法律实践的复杂性不仅仅是想象力。权衡的真理,情感证明和价值的验证一直是司法正义的主要支柱。
Linner认为法官应该能够做技术,但不应该是AI木偶。实际上,当Genai可以提供更全面的法律Ex时胺化,司法判断的稳定性和准确性将有所改善,但它不会将人类法官的最终决定分开。
施瓦茨还警告说,AI的故事“创造东西无所事事”在行业中广泛传播。他建议同行在AI提供的每种情况下应进行“三重验证”:检查资源,清洁内容并确定逻辑。只有在严格检查之后,Genai帮助的可靠性才能确保。
人机合作的这种司法变革应该遵循铁法:Genai的审查建议可以用作“导航员”,但法律专业人员是“持有人”。通过这种方式,我们可以提高司法效率,同时实现公平和正义的平衡,而无需这样做。
(编辑:Luo Zhizhi,Chen Jian)
遵循官方帐户:人 - 金融融资
分享让许多人看到