中新经纬12月21日电 (张燕征)近日,清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会。清华大学社会科学学院助理研究员戴思源在研讨会上指出,提升公众专用智能素养,可建立起对算法技术信任。
清华大学社会科学学院助理研究员戴思源。来源:主办方供图
《中华人民共和国个人信息保护法》在2021年11月1日正式落地实施,从制度层面上保障了数字安全与信息的获取规范。但能否一劳永逸解决当前所遇到的数字窃取或数字滥用现象?戴思源认为,这还需了解数字安全背后隐私忧虑的形成机制,即时代背景下,人工智能素养的形成以及对智能产品使用忧虑产生的综合影响。
什么是人工智能素养?戴思源指出,可以将它界定为数字鸿沟现象的一种新标准,早期数字鸿沟是数字机会的介入权问题,但随着人工智能产品不断发展,人工智能素养客观上构成了当前智能时代的新数字鸿沟。
“人工智能问题,我们把它拆解为通用智能素养和专用智能素养,通用智能素养是人对于产品运用的服务消费能力;专用智能素养则是人工智能技术研发与生产能力。”戴思源表示,在讨论人工智能素养的同时,应该要进一步考虑到个人认知因素,比如隐私意识与技术信任。前者是个人对于隐私保护的内在需求标准,后者则反映了个人对于当前外部人工智能技术环境中个人隐私保护水平的质量评价。
在戴思源看来,通用智能素养可能会直接增加信息隐私忧虑,这是因为个人隐私意识的提升;而专用智能素养可能会对信息隐私忧虑有缓解作用,因为它来自于技术信任。
为了探究个人对于信息隐私的忧虑,戴思源团队进行了数据的模型搭建工作,共收集到4300位受访者数据。数据结果显示,通用智能素养直接提高了信息隐私忧虑水平,同时隐私意识在其中发挥了明显的中介效用。专用智能素养则显著降低了信息隐私忧虑,其中技术信任发挥了重要的中介效应角色。
戴思源认为,随着智能产品不断推广,个人通用智能素养是一个习得过程,客观上给予隐私认知等中介效应途径,最后使得信息隐私忧虑成为越来越广泛的社会现象,但“解铃还需系铃人”,专用智能素养可以解决通用智能素养所产生的问题,它对于缓解信息隐私忧虑有非常明显的作用,这个作用来源于人们对于技术的信任。
“换句话说,缓解信息隐私忧虑,专用智能素养在全社会的普及势在必行。”戴思源表示,专业技术公司可向公众进一步打开对技术黑箱的疑虑,让更多人了解到算法等专业知识。“同时,我们也应该建立一个人工智能技术治理运用与信息隐私保护的社会共治格局,向公众科普算法专业知识,提高他们对于智能产品的技术信任。”(中新经纬APP)
(原标题:戴思源:提升公众专用智能素养 可建立算法技术信任)