中新经纬 发表于 2021-8-18 15:57:35

李珍珍:较多受访者以为不应公开算法源代码

 中新经纬客户端8月18日电 (张燕征 实习生黄晨发)克日,由清华大学数据管理研究中央主办的“人工智能伦理与管理”研讨会在线上举行。会上,清华大学数据管理研究中央项目研究员李珍珍分享了“人工智能伦理与管理”相关研究成果。她指出,研究发现,公众对算法公开的支持态度主要集中在算法应用和推广阶段,但较多受访者认为不应公开算法源代码。
  李珍珍针对算法的伦理题目提出三个关切点:算法的透明、公平和数据掩护。她的团队通干涉卷调查收集公众对于算法透明、算法公开的态度,总结公众对算法透明和公开的五个维度:一是人工智能企业应该向社会披露算法的目标、范围和用途;二是企业应该向社会解释算法的步调、原理和细节;三是企业应该向社会公开算法的源代码;四是企业应该向社会披露算法使用的风险;五是企业应该接受社会对算法开发和应用的监视。
  调研效果显示,从整体上看,公众对算法透明和公开持广泛支持态度,绝大部分受访者对于算法的目标、范围、用途、算法风险、算法开发应用这些方面选择比较同意或者非常同意。然而,对于公开算法的步调、原理、细节以及公开算法的源代码,持同意态度受访者比例会显著降低,特别是较多受访者都认为不应该公开算法源代码。
  李珍珍表示,公众对算法公开的支持态度主要集中在算法应用和推广阶段,即在使用人工智能产物过程中直接受算法影响的谁人阶段。而对算法的设计过程,尤其是源代码,大多数人并不认为应该公开。
  在当前算法社会中,用户成为被算法平估的对象。李珍珍指出,我们应该选择适当的措施来保障算法的公平,规避算法歧视。“我们对于算法公平的调查,将有助于科技工作者研发出更具公平原则的算法,这种公平原则需要符合公众对公平概念的广泛理解。”
  另外,李珍珍还提到算法伦理题目很大水平上是关注个人数据和隐私掩护。她们团队在调查中发现,公众认为最重要的个人信息包括自己的基本信息、人际关系信息、经济环境信息等。另外,在隐私泄露、信息盗用、信息删除、信息查阅等个人信息和隐私潜在风险的四个方面,网民对于个人隐私泄露和信息盗用最为担心。
  “算法社会的内生风险和伦理题目需要我们在未来进一步规范算法的研发和应用,体系讨论算法伦理及其风险管理,让算法更好地服务人类社会。”李珍珍说。(中新经纬APP)
  中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。

Camellia长乐 发表于 2021-8-18 19:11:56

研究员都能发言了?
页: [1]
查看完整版本: 李珍珍:较多受访者以为不应公开算法源代码