詹姆斯·克雷布论人工智能和机器人安全|科技创新伦理问题研究

近日,绿会顾问、英国牛津大学詹姆斯·克雷布(M. James C. Crabbe)教授发来消息,与中国生物多样性保护与绿色发展基金会(简称中国绿发会、绿会)国际部同事们分享了他最新发表物——他和李绮雯(Rita Li)博士共同撰写关于“人工智能和机器人安全”的部分书籍章节,已经由施普林格正式出版的《人工智能和无处不在的城市的现状》《Current State of Art in Artificial Intelligence and Ubiquitous Cities》一书中作为单章与读者们见面。该书的主要作者是中国香港树仁大学李绮雯博士等学者。

《人工智能和无处不在的城市的现状》该书中一共有11章,涵盖了人工智能和无处不在的城市。它讨论了相关工具在给人类带来革命性新生命方面的应用。它展示了人工智能在造福人类社会方面的各种应用。例如,人工智能分类缩短了法院案件分类所需的时间;仿人机器人帮助我们像人类一样完成繁重的工作,连接所有的智能家居设备,照顾孩子和老人。本文还介绍了AutoML在房价预测中的应用。

“由于人工智能的采用与安全问题有着不可避免的关系,我们开发了一个研究项目,以阐明负责任的人工智能开发和使用,具体关注人工智能安全法律、政策和人们的看法。”詹姆斯·克雷布教授介绍了为什么要写作这一章。以下是他分享的这一章的主要内容,编译分享如下。

英伟达首席执行官黄仁勋(Jensen Huang)曾指出,人工智能(AI)相关硬件的功率每年增长4-10倍。根据这个“黄定律”,人工智能(AI)相关硬件的功率每年增长4-10倍。以房地产为例,从规划和建设,到占用、拆除,人工智能可以使房地产开发的各个阶段受益。

然而,香港的法律体系目前在技术能力方面落后,而人工智能在建筑环境中的安全领域仍处于初级阶段。疏忽的设计和生产流程、不负责任的数据管理、可疑的部署、算法培训、传感器设计和/或制造、多个数据输入的不可预见后果以及基于传感器或远程数据的错误AI操作都可能导致事故。

然而,确定法律规则应如何适用于人工智能系统造成的损失责任需要时间。传统的产品责任法可以适用于某些系统,这意味着制造商将对故障部件承担责任。也就是说,更复杂的案件无疑必须提交法院,以确定不安全的东西是制造商的过错还是个人的过错,以及谁应该获得后续的经济和/或非经济补偿等。

因为人工智能的采用与安全问题有着不可避免的关系,该项目旨在阐明负责任的人工智能开发和使用,特别关注人工智能安全法律、政策和人们的认知。

根据作者们介绍,“我们通过PRISMA方法进行系统的文献回顾,研究人工智能安全政策和法律的学术观点,以及社交媒体平台(如Twitter、YouTube和Reddit)上的数据挖掘公开内容,以研究社会对人工智能在建筑环境中安全的担忧。然后,我们将研究61个司法管辖区内与人工智能安全相关的法院案例和法律,以及已在全球实施的政策。还将包括两个AI供应商的案例研究,这些供应商向构建环境的用户销售AI硬件和软件。另外两个案例研究将针对使用人工智能安全工具的建筑环境公司(承包商和香港国际机场)。从社交媒体、法院案件、立法和政策中获得的结果将通过研讨会与当地和国际专家进行讨论,然后向公众发布,为国际社会和香港提供独特的政策和法律导向。”

【注】本文为#科技创新中伦理问题前瞻研究#系列(第24篇)。该系列是由中国生物多样性保护与绿色发展基金会(简称中国绿发会、绿会)国际科技伦理工作组推出的针对国际科技伦理重大议题、前沿问题、新兴和典型议题的案例研究和前沿资讯。文章仅供参考,详情请参见原文。整理 xiaoai编辑 zoe

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注