封面新闻记者 张峥 边雪 谭羽清 马晓玉如果可以给Chat GPT下命令问询制造武器的方法,如果人类跟训练了上百万次的机器人下国际象棋,如果企业用人工智能提供的招聘模板,未来的充斥着AI的世界会变成什么样?如何应对AI带来的潜在风险?人工智能将怎样影响人类?
本文刊载于《中国科学院院刊》2024年第11期专题“前沿科技伦理风险及其治理”张成岗1,2* 潘璐31 清华大学 社会科学学院 社会学系2 中国发展战略学研究会3 北京市社会科学院参与式伦理规约是强调多元主体的参与,旨在构建一个更全面、平衡的伦理治理方案。
2024年10月17日,世界瞩目的诺贝尔奖终于揭晓了新一年的名单,获奖者使得全球科学界为之震动:诺贝尔物理学和化学奖得主均与人工智能紧密相关。这直观地揭示了人工智能在现代科学研究中所处的关键性地位,也进一步引发了关于人工智能的广泛探讨。
今天,我非常荣幸能够和大家分享关于“人形机器人的伦理挑战及应对”的一些思考。这两天很多嘉宾都为我们带来了跟人形机器人发展相关的分享,我们也颇为惊喜地发现,随着人工智能技术的飞速发展,人形机器人不仅在工业生产中扮演着重要角色,也逐渐在服务、医疗、教育等多个领域展现出巨大的潜力。
人工智能技术的大众化应用在给人们带来工作和生活便利的同时,也伴随着难以预测的伦理风险挑战,根据经济合作与发展组织发起组织的人工智能事件监测数据,仅2023年12月单月,人工智能伦理事件就达495件,伦理问题也反向制约着人工智能的健康发展。
从底线伦理视角能够发现人工智能繁荣发展背后存在的危险性。支撑人工智能训练的算法风险、人工智能产生的侵权责任风险、人工智能背后平台权力的膨胀风险都给底线伦理带来挑战。我国目前人工智能的治理规则已成体系,也体现了对伦理的保护,但依然存在治理局限。
在人工智能技术的迅猛发展背景下,其对社会和政治的影响日益显著。全球科技巨头如亚马逊、苹果、DeepMind等已建立合作伙伴关系,致力于探索人工智能的最佳实践、推动研究并促进公共对话。然而,依赖私营企业和非政府实体来监管人工智能存在潜在风险。
文 | 《中国科学报》 记者 高雅丽 见习记者 江庆龄“智能是人类区别于其他动物的专有特征,特别是认知能力。我们可以接受机器在感知能力方面超越人类,但对机器认知智能的研发,需要高度审慎。从科技伦理的视角来看,我们为什么要造出一个替代我们认知的东西?
近日,中央网信办通报的“清朗”专项行动典型案例中,多起利用AI换脸技术实施网络诈骗的案件引发舆论热议。当技术突破与治理滞后的“时间差”被不法分子利用,这场虚实交织的信任危机正倒逼社会治理加速迭代。技术双刃剑折射治理滞后性。
作者:方师师(上海社会科学院新闻研究所副研究员);叶梓铭(上海社会科学院新闻研究所硕士研究生)来源:《青年记者》2024年第10期导 读:本文基于上世纪50年代至今全球范围内1617篇人工智能伦理治理文档,对人工智能的伦理治理开展全景梳理。