上海财经网,上海经济网,上海财经频道,上海商业新闻网

您好,欢迎访问上海财经新闻网,我们将竭诚为您服务!

AI专业有门不教算法的“伦理必修课”

2021-10-09 11:25来源:未知 频道:科技 阅读:

 

  ■这门课不教编程和算法,而是在讨论这样一些问题:你们今后开发产品时,能否遵循个人信息采集的“最小必要”原则?能否抵制“大数据杀熟”的商业利益诱惑?自动驾驶如果发生交通事故,该由谁承担违反注意义务的责任?智能语音系统为何不能假冒人类,而应在对话中告知用户自己是机器人?

  9月13日是上海交通大学开学第一天,“人工智能思维与伦理”课程在闵行校区开讲,近100名本科生聆听了计算机科学与工程系教授吕宝粮的第一讲。“我还以为这门课要教编程和算法,没想到吕老师主要讲的是伦理问题,感觉更接近文科。”人工智能(AI)专业大一新生卜家梓告诉记者。周一晚上,小卜就写好了课后作业《“信息茧房”中的现代人》,对网络媒体的智能算法推送做了反思。

  这门课程是交大电子信息与电气工程学院人工智能专业的必修课,其他专业的学生可选修。主讲教师共有4人,其中3人是人工智能科学家,另一位是法学家。来自商汤的人工智能专家作为企业特邀讲师,也会为学生上课。

  吕宝粮和交大凯原法学院教授郑戈认为,为人工智能相关专业的本科生开设科技伦理课程很有必要,可以为未来的算法工程师、软硬件开发人员输入伦理意识,防止新一代信息技术被误用或作恶。教授发问引发未来精英思考

  深度学习等人工智能技术有哪些典型应用?阿西莫夫提出的机器人三原则是什么?霍金对人工智能的忧虑是不是杞人忧天?“人工智能思维与伦理”第一课上,吕老师讲的内容很快引起了同学们的兴趣。据了解,人工智能本科专业是交大录取分数线最高的专业,旨在培养这个领域的行业精英。开设这门大一必修课,是为了让未来的精英了解人工智能技术发展与伦理、法律的关系,从事技术研发时能恪守道德法则。

  “你们今后很可能成为IT公司的研发人员,在开发产品时,能否遵循个人信息采集的‘最小必要’原则?能否抵制‘大数据杀熟’的商业利益诱惑?”吕老师的发问,引发了同学们的思考。据介绍,“最小必要”原则是指移动互联网产品采集用户人脸、手机号码等个人信息时,要有明确、合理的目的,并应当限于实现目的的最小范围。“大数据杀熟”是指互联网企业利用用户数据,对老用户抬高价格的行为。

  作为脑机交互专家,吕宝粮还介绍了他与瑞金医院合作开展的“基于情感脑机接口的难治性抑郁症评估与治疗”项目。用脑深部电刺激术(DBS)治疗抑郁症患者,也涉及伦理问题:一是临床医学研究伦理,二是DBS参数调节伦理。“由于参数调节不当,澳大利亚一名帕金森病人接受DBS治疗后,变得性欲强烈。如果他因此犯罪,谁该承担法律责任?”这个问题,又一次引发了同学们的思考。

  加强价值理性教育让理工科大学生更富有人文关怀

  作为法理学专家,郑戈将为学生讲8节课,分为3个专题——理性的人工智能、辅助性的人工智能、负责任的人工智能。

  在“理性的人工智能”专题中,他将与学生探讨一个问题:自动驾驶系统如何尽到注意义务?注意义务是一个重要的法律概念,法律上的过失就是指违反注意义务。自动驾驶达到L3、L4级别后,如果发生交通事故,该由谁承担违反注意义务的责任?“我国道路交通安全法的修订建议稿已引入自动驾驶系统开发单位的责任,但这个问题其实很复杂。自动驾驶系统是一个由感知、定位、决策和控制模块组成的复杂系统,每个模块都有开发者。发生事故后,5G网络服务供应商有没有责任?高精地图供应商有没有责任?这些单位的法律责任界定问题,需要进一步研究。”他希望通过对这个问题的讲解,让学生认识到,今后开发自动驾驶系统的各个模块时要尽到注意义务,从而使整个系统成为“理性的人工智能”。

  与自动驾驶相比,智能语音客服的应用如今更为广泛。用户拨打客服电话时,与他交流的很可能是语音机器人。在“辅助性的人工智能”专题中,郑戈将援引布鲁克林法学院教授帕斯奎尔的观点,分析“人工智能和机器人系统不应该假冒人类”这一法则。

  智能语音系统为何不能假冒人类,而应在对话中告知用户自己是机器人?他解释说,现代伦理学的基础是康德提出的“人是目的,不是手段”,这个论断确立了人的主体性地位,日益强大的人工智能算法如果假冒人类,会消解人的主体性。“人工智能应该是辅助性的,人工智能和机器系统必须显示出它们的创造者、控制者和所有者,而不能刻意模糊人与机器的界限。”

  在郑戈看来,国内高校的理工科教育过于偏重工具理性,只要求学生找到科学和工程目标的最优解,忽略了“人生的目的”“有温度的科技”等价值理性。“人工智能思维与伦理”课程在价值理性教育上做了积极探索,会让理工科大学生更富有人文情怀。

  大学生和中学生都应学伦理

  虽然只听了两节课,但卜家梓已经有了改造移动互联网产品的想法。“很多同学喜欢刷抖音等软件,因为它们一直推送自己喜欢看的内容,我了解到‘信息茧房’理论后,才意识这类软件是有问题的,因为它们只根据用户个人喜好推送信息,会让用户思维固化、眼界狭隘。”小卜谈了自己的观点。在发给吕老师的课后作业中,他提出了改进建议:软件开发人员和算法工程师应遵循伦理规范,加入“是否允许本App收集您的偏好等信息”这一权限给予提示,让用户获得不根据行为偏好获取信息的权利,不再受“信息茧房”束缚。

  吕宝粮和郑戈介绍,国外不少高校也开设了人工智能等信息技术伦理课。比如麻省理工学院的“工程师伦理:人工智能”,从引发伦理困境的工程案例出发,揭示其背后的深层问题。又如普林斯顿大学的人工智能与伦理对话项目,由该校人类价值中心和信息技术政策中心联合开发,建有案例库,供教学和研究使用。

  “我们身处数字社会,人工智能已从前沿技术变成基础技术,带来了一系列伦理、法律和治理问题。”郑戈表示,国内高校相关专业都有必要开设伦理类课程,从人才培养入手树立“科技向善”理念,让大学生拥有自觉的科技伦理意识,在未来职业生涯中践行科技伦理、遵守法律法规。

  他还建议国内科技和教育工作者借鉴麻省理工的做法,为中学生开发人工智能伦理课程。据介绍,麻省理工为中学生开发的课程旨在提高青少年使用智能手机、社交媒体时的自我控制和道德判断能力。“网络平台经济也叫注意力经济,平台背后的行为偏好算法让很多青少年沉迷其中,花费了大量时间。”郑戈说,“中学可通过课程教育,让学生了解网络平台的算法逻辑,产生对人工智能两面性的自觉意识。”记者 俞陶然

  来源:新华网 编辑:刘伟

郑重声明:本站主要文章来源于中新网上海站,部分文章来源于网络,仅作为参考,如果网站中图片和文字侵犯了您的版权,请联系我们技术处理!

上一篇:月球在19.6亿年前仍存在岩浆活动

下一篇:新型太阳耀斑预报模型构建成功

相关推荐


关注我们

    上海财经网,上海经济网,上海财经频道,上海商业新闻网
返回顶部