当前位置:广昱文档网 >专题范文 > 公文范文 >

人工智能发展的社会风险问题研究

时间:2024-02-13 15:48:02 来源:网友投稿

宋阳 李慧

[摘要] 随着第四次工业革命浪潮的到来,云计算、深度学习、大数据等技术不断普及,人工智能已嵌入人们生活的方方面面,不仅影响科技领域的发展,同时也给政治、经济、社会、道德伦理等领域带来了风险与挑战。由此,应从社会、政府及人类自身三个层面积极探索应对策略,以期形成多方共同参与、相互联动的有效合力机制,实现对人工智能的合理控制,更好地应对人工智能可能带来的社会风险。探索人工智能未来的发展方向,推进“技术”与“社会”的良性互动。

[关键词]人工智能;
社会风险;
高质量发展;
技术风险;
伦理风险

[中图分类号]G641[文献标志码] A[文章编号]1672-4917(2023)03-0109-07

一、引言

人工智能作为推动人类文明不断向智能化社会迈进的“催化剂”,深刻影响了社会生产结构和生活方式。作为第四次工业革命的最核心组成部分,人工智能正在成为全球科技竞争的制高点、经济发展的新引擎和产业变革的核心驱动力[1]。为了快速寻找在第四次工业革命中的出路,我国十分重视人工智能的发展。国务院于2017年发布的《新一代人工智能发展规划》对人工智能的发展起着建设性的作用,强调“把新一代人工智能作为推动科技跨越发展、产业优化升级、生产力整体跃升的驱动力量,努力实现高质量发展”[2]。近年来,政府工作报告多次提到将加强人工智能的发展规划作为新的工作重点,从国家宏观层面来治理引导人工智能的发展。当前我国已成功进入创新型国家行列,聚焦人工智能的创新性发展已成为时代命题。随着国际国内大环境的变化,人工智能等前沿问题更是充满复杂性和不确定性,技术风险与社会风险事件时有发生,多方面因素触发的伦理问题也引发人们的深刻反思,因此,我们应当客观冷静地分析人工智能的发展前景,审慎对待人工智能这一先进的技术科学。

党的十九届四中全会以来,国家高度重视社会治理工作并创新社会治理模式,提升社会治理智能化水平。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》明确指出,“坚持科技赋能,推进社会治理现代化”[3]。习近平总书记指出,“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控”[4]。然而,人工智能是一种尚处于探索阶段的革命性、颠覆性技术,在推动人类社会快速发展的同时,又深刻地改变了人类生产生活方式与社会形态结构,进而衍生出一系列的社会风险[5]。有学者指出,人工智能形成的“智能技术范式”容易侵蚀人的自主权,人或将沦为技术的“附庸”[6]。也有学者认为,人工智能在帮助重塑政府科层组织之间及政府与社会的关系的同时,会对组织的地位和边界带来重大挑战[7]。任剑涛提出人工智能技术失控容易造成社会冲突问题。人工智能时代背景下,探讨人工智能应用的社会风险成为亟须深入研究的现实问题[8]。何哲将人工智能给人类社会带来的核心风险分为隐私泄露、劳动竞争、主体多元、边界模糊、能力溢出、惩罚无效、伦理冲突、暴力扩张、种群替代和文明异化十个方面,并提出了相应的应对措施[9]。张成岗从技术自主性与人工智能的失控风险、新技术决定论形态中的算法及数据挑战、人工智能发展中的伦理风险及其规约、人工智能对就业的冲击及其社会风险、人工智能时代整体图景缺失的挑战这五个方面对人工智能社会风险进行讨论[10]。周利敏等认为人工智能可能会促进社会风险治理模式创新,但逃脱人类控制的人工智能会造成更大的社会风险[11]。杨凯结合人工智能与社会风险治理的新进展,阐述了基于人工智能的社会风险的治理模型[12]。王泗通则通过对人工智能在垃圾分类领域的应用分析,提出人工智能可能引发居民过度依赖智能化、基层自治空间不断压缩以及社会结构可能解组的社会风险[13]。

二、人工智能发展潜在的社会风险

随着我们进入人工智能时代,社会生产力大幅提高,人们的生活方式也变得更加便利,同时也导致了劳动岗位受到冲击、数据及隐私泄露及算法歧视等一系列的社会风险。

(一)人工智能冲击劳动岗位的风险

人工智能在极大地提高生产效率并改变传统的劳动形式的同时,替代了大量的劳动力,造成失业危机,这不仅给劳动就业市场带来巨大冲击,对一些弱势群体来说更是带来永久性的不可估量的危害。人工智能对劳动岗位造成的冲击主要表现在以下两方面:一方面,人工智能对生产效率要求高的制造业造成了很大的影响;
另一方面,人工智能对于重复性的、程序化强的服务性工作和体力劳动冲击较大。

在制造业中,人工智能的主要作用是使机器能够“匹配或超过人类技术人员”,提高生产操作的效率,降低成本。首先,在其他条件相同的情况下,高技能的机器在提高生产力方面显然比传统劳动力更有优势;
其次,在制造业中,工人的生理和心理存在潜在的威胁,例如,单线操作很容易导致心理疾病,富士康甚至出现了员工跳楼的恶性事件。这些因素导致企业倾向于用机器取代劳动力,这增加了劳动力失业的风险。另一方面,劳动力成本的上升和人工智能的日益成熟,也增加了企业用机器替代劳动力的意愿。

在服务行业,随着越来越多的人工智能机器的引入,机器正在逐渐取代一系列重复的、程序化强的机械性服务任务。中国建设银行在2017年引入了“智慧柜员机、外汇兑换机、理财服务机”,随后裁减了1万多名员工。据招商银行工作人员介绍,未来可能只留下一名柜台人员在银行网点处理交易,这意味着超过50%的柜台人员将离开目前的工作岗位[14]。隨着人工智能的发展,无人超市、无人酒店、无人健身房、无人银行等基于人工智能的新行业逐渐普及,这对传统行业的人力资本的影响也越来越大。

在教育领域,人工智能的优势正在慢慢改变传统的教学模式。与人工智能相比,人类教师有一定的缺陷;
人类教师在时间和精力方面处于明显的劣势[15],其在知识存储和分析处理能力方面也远不如人工智能。此外,人工智能比以往任何时候都更具颠覆性,因此,许多以前认为不太可能被代替的职业,如律师、法官等,也逐渐面临被取代的风险。制造业和农业的人力资本将不可避免地流向服务业,服务业的工作岗位不足以及被替代行业人力资本的不断涌入,将进一步加剧就业问题。

人工智能具有自我感知、自我模拟、自我调节等功能,能够对智能信息进行量化处理,可根据复杂多变的市场需求进行灵活的调整和改进,一切社会生产活动都由机器之间自行交流、自主完成,实现物质生产过程的无人化。深度学习等技术的快速发展给人工智能自我更新升级带来了新的契机,构建人工智能神经组织,会使劳动生产率出现“指数级”增长,与之相随的未来社会经济发展趋势也会发生巨大变化。深度学习技术的应用使人工智能开始扮演人类的大脑,取代传统的脑力劳动的工作,甚至对以往并未受到技术影响的职业和岗位也带来了影响。同时,未来人工智能与人类的关系目前也不清楚,人工智能未来有可能和现在一样对人类采取友好的态度,也有可能对人类产生敌意,而且超人工智能也有可能有自己的野心,从而反过来奴役人类成为社会的主宰[16]。库兹韦尔在《奇点临近》一书中预言,机器的智能将在2045年超过人类智能,而到21世纪末,人机智能将比人类智能强大数倍;
并认为如果人工智能继续发展下去,非生物计算机将取代人类,人工智能主导的人机文明将取代人类文明[17]。

(二)人工智能引发隐私泄露的风险

现代社会是文明程度较高的人类社会形态,人们更加重视和维护自身的尊严。然而,随着信息技术的快速发展,所产生的一系列社会风险也随之而来,特别是个人隐私与信息共享之间的内在矛盾使人类自身的尊严与隐私遭到了时代性的挑战。大数据的快速发展,在催生个人有效信息收集手段的同时,也使人类个体的私人空间遭到侵犯,这就容易形成保护隐私和信息共享之间的二律背反,对人类个体的隐私造成严重的挑战。

近年来,各种带有处理器和传感器的人工智能产品不断涌现,使人们的学习和生活更加便利,同时也提高了对物理空间的监控,进一步增加了用户隐私被侵犯的风险。例如,苹果公司利用Siri软件,在未经用户同意的情况下,将用户与他人之间的对话通过其服务器传输给承包商进行分析;
陌生人可以利用无人机监视普通公民[18]。在各种人工智能产品面前,普通公民就是一个“透明人”,没有任何隐私。除了私人领域缺乏隐私外,公共领域的监控摄像机,如街道上的监控摄像机,也可以利用图像识别技术在人群中自動识别人脸、找到目标,实时监控特定的对象。

人工智能对个人隐私的侵犯越来越显著。当今时代,人们在互联网上的行为完全被互联网这个信息媒介所记录。互联网利用大数据技术收集、存储和分析这些信息,预测和分析用户的个人兴趣、爱好、习惯和行为模式,以提取未在互联网上“公开”的预测性信息,然后追求商业信息流。例如,剑桥分析公司不正当使用收集到的八千多万Facebook用户数据,并参与到美国总统大选的事件中,违反数据的收集和保存的原则使数据泄露,严重侵犯了公民的隐私权。

自新冠病毒疫情暴发以来,大多数医务人员在疫情防控领域开展医学研究,科技人员正确地运用人工智能技术开展疫情防控,取得了实实在在的效果,有效保障了我国人民的安全健康和社会的健康发展。然而,大数据在疫情防控中的广泛运用已经并将继续引发一些复杂的伦理问题,特别是隐私泄露问题。各级政府部门和地方组织拥有特定的合法权力,可以收集大量的个人隐私数据和信息,如姓名、身份证号码、个人通信信息、交通和旅行信息、在线支付信息等。然而,这个过程在人工智能和大数据的加持下,很容易导致个人权利和公共利益之间的冲突,并导致个人权利受到侵犯[19]。

同时,人工智能的使用可能会增加医疗数据泄露的风险。一方面,这些数据被医院或人工智能产品公司所掌握,如果这些信息被传递给欺诈者或其他医疗机构,那么数据主体就有可能被欺诈或被推销医疗产品;
另一方面,如果这些数据由于管理不善或系统漏洞而被泄露,可能对数据主体及其家人造成严重伤害[20]。

大数据的发展使共享信息的范围不断扩大、程度不断加深,从而使个人信息的泄露更容易发生。互联网技术的发展,使得社交媒体及各种APP非常容易获取用户的私人信息,进而更全面地了解一个人的个人偏好、智力能力、心理状况等隐私。这表明,在大数据时代,人类隐私已经成为最脆弱的领域之一,迫切需要法律和伦理框架来保护,以维护人类尊严[21]。

(三)算法歧视引起的隐患

1.信息茧房

社交媒体平台利用人工智能算法对用户的偏好进行精准识别和计算,进而提供差异化、个性化服务,以迎合用户需求从而吸引和维持用户流量。这一过程必然会加剧其对消费者选择性的信息传递,导致“信息茧房”问题,即个人沉浸在自己选择的以及令自己愉悦的信息中[22]。长此以往,将自身桎梏于所谓的“茧房”之中,进而降低个人自主提炼优质信息以及自主判断和决策的能力,不断扰乱其价值体系,造成认知固化甚至形成偏见。

2.价格歧视

企业利用人工智能算法来优化产品定价方案以获得更高的利润,通过算法进行用户数据画像以更精准地了解其支付意愿,进而对不同的消费者实行差异化定价策略,产生了大众熟知的“大数据杀熟”现象。同时,机器学习算法可独立于企业直接进行动态差别定价,甚至规避《反垄断法》的严格规制,实施隐蔽的价格合谋行为。这一过程严重侵害了消费者的合法权益,引发了竞争扭曲的垄断行为并极大地扰乱了相关市场的公平竞争秩序。在数字政府建设过程中,人工智能算法也成为辅助行政决策智能化的重要技术支撑。受制于算法研发的能力,政府购买技术服务的过程也增强了自身对技术开发者和控制者的技术依赖,使其可以隐蔽地干预政治议程。政府也将因此陷入被算法支配、政治话语权缺失的重大权力危机之中。

3.种族歧视

解决有形的种族歧视很容易,但无形的种族歧视却很难防范。种族歧视更易隐藏在算法黑匣子的幌子下。随着面部识别系统的标准化,并逐渐在学校、体育馆、机场、交通枢纽,特别是警察系统中使用,对有色人种造成的种族歧视的新的伤害形式也越来越明显了。在谷歌上搜索“白人女孩”会得到相对正常的信息,而搜索“亚洲女孩”或“黑人女孩”往往会得到“约会”“色情”等信息[23]。同样,人工智能算法在法医实践中也被广泛使用。美国警察局在其“预测性警务”项目中实施智能算法分析。在目标犯罪应该平均分配的情况下,警察被派往黑人社区的比例大约是白人社区的两倍。另一个值得警惕的例子是,在减少偏见的基础上应用的算法,反而加剧了种族歧视。2016年,当人权数据分析小组将PredPol算法模拟应用于加利福尼亚州奥克兰市的毒品犯罪时,它反复将警察派往少数族裔聚居区,而不管这些聚居区的实际犯罪率如何。近年来,算法引起的种族歧视普遍存在,这表明在虚拟世界中打击种族主义的紧迫性和重要性。

4.性别歧视

算法上的性别歧视本质上是将长期存在于现实世界中的性别歧视观念转移到虚拟世界中。人类无意识的性别歧视会影响分析大数据的人工智能算法,在招聘和大学录取等领域无意中强化了性别歧视。“就其核心而言,算法模仿了人类的决策……换句话说,算法并不中立。”例如,如果雇主在自动简历选择软件中输入“程序员”一词,搜索结果会偏向于男性候选人,因为“程序员”一词与男性的联系比与女性的联系多。如果搜索目标是“接待员”,女性候选人的简历就会首先显示。尽管性别歧视人人喊打,但它仍不时癔症般作祟[24]。

三、人工智能面临的风险的对策

面对人工智能社会日益快速、持续发展的现实,我们一方面要正视并深刻认识到人工智能社会的各种潜在风险,充分地估计到人工智能技术的现有存量,正确引导和运用人工智能;
另一方面,作为社会管理者和建设者的政府应该积极应对人工智能带来的潜在社会风险;
最后,作为人工智能应用主体的人类,应加强对人工智能的控制,营造良好的人工智能应用环境。因此,本文从社会、政府及人类自身三个层面提出相应的对策建议,以期能更好地应对人工智能带来的各种社会风险问题。

(一)社会层面的对策

1.坚持人工智能的权责一致原则

人工智能设计最主要、最核心的原则是遵循人权主义原则,即权责一致的原则。人工智能产品制造商和服务供应商必须使其符合社会主义核心价值观。算法设置应遵循基本伦理原则,在算法过程中要充分尊重和保护人的权利,特别是对于人类生命权、健康权、隐私权等基本权利的保护。人工智能技术的设计与应用应将是否有助于改善人类福祉作为重要的参考指标,避免出现算法歧视、算法偏见的情况,维护社会公平公正与健康有序发展;
设计者和使用者要明确各自的责任,明确责任分配与追责机制,避免相关人员利用技术推卸责任;
人工智能系统的运行,特别是算法部分,必须以透明性和解释性为基本要求,从而最大限度地降低人工智能技术被滥用的可能性。

2.加强社会对人工智能技术的监管

人工智能技术的进步对现代科学技术具有革命性的意义,人工智能技术制度设计的基础始终要坚持以人为本。技术设计应遵循基本规范,不能超越对个人及个人合法权益的控制,人工智能设计制度与政策的制定应以维护个人数据安全为基本原则。如果人工智能系统的开发利用给社会带来一定的危害,应当有相应的问责机制或者规章制度来有效解决。因此,负责人工智能的相关主管部门应未雨绸缪,提前规划制定好相应的规则以及追究责任的标准。在社会监管方面,在人工智能全面投入市场的初期阶段,必须建立风险控制机制,及时更新与反馈,保证人工智能技术的使用合理、合规、合法;
不管是政府的还是企业的人工智能监管机构和伦理审查委员会,都应给予一定的权力,即对智能系统数据和信息有一定的访问权限,从宏观层面把控人工智能的风险评估、测试和审计,确保其安全性与可靠性;
整合各领域的优质资源和精英人士,开展跨学科跨专业跨领域的合作研究,确保人工智能算法设计符合社会伦理要求。同时,在智能机器与人类和谐共生的环境适应性方面,在将人类的价值观念、情感需求等嵌入到智能系统中时,必须充分考虑到政治、经济、文化、社会等各方面的因素,平衡一切未知的不确定因素,使人工智能系统的设计更加符合人类社会价值标准,更加符合社会发展要求。

3.构建人工智能产业的联动机制

正确处理人工智能带来的社会问题需要多方共同参与,构建人工智能产业的横向联动机制。第一,人工智能的设计者及生产商应该充分发挥自身的主观能动性,发挥自己的专业特长,自觉保持对特定落地场景伦理问题的敏感度并提高自身道德伦理修养,在一定程度上能够确保智能系统的稳定与安全,充分保护人的基本权利与尊严;
第二,负责人工智能相关的技术审查和评估机构要自觉履行自己的职责,认真负责、严格行事,不断提升人工智能系统与人类道德规范系统的兼容性,使人类与人工智能和平共处;
第三,人工智能的使用者应维护自己作为消费者的权益,积极向技术工作者及相关机构表达自身对于人工智能技术的诉求,参与技术层面的反馈。

(二)政府层面的对策

1.构建人工智能治理体系

政府要自觉承担起人工智能治理框架建设的责任,建立健全开放的政府治理框架和数据共享、算法优化的治理机制,提高政府社会治理的智能化能力和效率。随着数字治理的不断发展,数据已经成为影响国家战略和社会生产的关键因素。在人工智能时代,算法作为关键的政策规则,应阐明由谁来制定、如何制定、由谁来监管和如何监管,并对其他相关问题进行明确规划。因此,政府应遵循“人性化”的方法,建立一个新的基于数据和算法的治理框架,并规定一致的权力和责任。

2.完善社会保障体系

任何信息技术的更新都不可避免地會导致劳动力市场结构的变化。为了实现向人工智能时代的平稳过渡,社会保障体系需要进一步完善,以应对人工智能带来的技术差异和不平等的风险。与以往农业革命和工业革命的影响一样,智能革命将导致社会分化、利益分歧和社会分层。技术革命的社会成本和利益必须由承担者公平分享,使所有社会成员的利益最大化,这不仅是实现社会公平和正义的正确途径,也是加快智能社会治理模式转型的重要保障。人工智能作为一种稀缺资源或公共产品,有可能造成分配上的不平等。特别是由人工智能的负面影响所造成的损失,需要政府来承担、调节和再分配,以在一定程度上缩小不平等差距,降低被剥夺感,提高人们的参与感、体验感和获得感。因此,政府在关注经济、文化、产业政策的同时,也要关注与人工智能相关的社会政策,给予人工智能充分的发展空间,完善人工智能时代的社会保障体系。

3.构建多层次的政府责权体系

中国特色社会主义进入新时代,习近平总书记提出了人类命运共同体的理念,建立面向世界的人工智能伦理话语体系,与人类命运共同体理念相呼应。一个有效的政府问责制度应该遵循多层次的治理方式。作为国家和人民利益的保护者,政府应根据以人为本的发展理念,在国家人工智能发展战略的基础上制定人工智能技术标准和法规,引导技术发展用于满足人类生产和生活的需要,避免不平衡、不充分的技术发展。

(三)人类自身层面的对策

1.提高技术研发者的道德责任感

技术作为一种手段自身并没有好坏之分,决定人工智能善恶的关键是使用技术的人。科学家作为技术研发的重要人物,本身应最大限度地履行自身的道德责任,在关注技术研发的同时还应关注社会风险问题,在更新技术应用的同时就应对其系统进行一定的权限设置,让技术更多地在对社会有利的方面发挥作用。技术研发者在对人工智能进行设计时,首先要遵循“以人为本”的原则,把人的基本权利放在首位,要最大限度地保护人类的人身权、隐私权、财产权等各项基本权利,消除人工智能对特定群体的偏见;
其次,对于人工智能社会问题的研究,要有前瞻性与远见性,在人工智能产品投入使用过程中要进行全面客观的社会伦理风险检测与安全系数评估,从而预防人工智能技术的误用、滥用;
最后,技术研发者自身应保持高度的道德责任感,要合理开发人工智能的功能作用,在伦理设计中要厘清人工智能的使用责任等问题,特别是面对重大决策时,人类要保持高度的话语权,与人工智保持清楚的界限,对人工智能技术的发展要达到理性控制。

2.提升民众技术文化素养

随着人工智能技术的不断普及,智能化的生产方式给我们的日常生活带来了诸多便利,在艺术创作方面衍生出的关于人工智能的优秀影視作品也不计其数,如《黑客帝国》《人工智能》等更是流传甚广,描绘出了人工智能主宰人类的时代的各种可能性。虽然这只是部分创作者的一种艺术表现形式,但其代表的是一部分人的共同认知。这些影视作品使许多不了解人工智能技术的公众对其感到恐惧及排斥,从而忽视人工智能对社会发展及人类生活的贡献,进而盲目反对科技的发展进步。应通过各种途径加强公众对人工智能的认知,减轻民众对人工智能的恐惧之情,从而减少部分民众因为反对科技发展而做出的过激行为,激发公众学习技术的兴趣,倡导公众利用技术去获取更多信息、提升公众的信息素养,这有助于减少信息落差从而进一步消除数字鸿沟。

3.打造良好的社会伦理舆论氛围

“人机共存”的世界终将会到来,但当下,除了人工智能技术带来的伦理问题外,民众社会伦理问题还被纳米技术、转基因技术等各种舆论所包裹。这种现象是由多种因素共同造成的后果,但总的来说,还是由社会伦理机制建设不健全、不完善导致的。深入思考会发现,很多事情都有解决的办法和预防的措施,这需要我们在与人工智能不断融合发展的过程中,不能一味地反对技术,而应与人工智能构建良性的社会关系。对人工智能,我们既不能轻视,也不能畏惧,更不能回避,要通过脚踏实地的努力、辛勤的劳动、丰富的思想,发展扎实的技术,构建一个全新的二元世界。大众应该认识到人类才是社会的主体,人工智能技术的走向取决于人类对人工智能的看法。人工智能与人类共存是未来社会的必然趋势,这既是未来人工智能的发展方向,也是未来社会的发展蓝图。应该营造良好的社会舆论氛围,为科技的发展提供良好的社会环境。

四、结语

人工智能技术的快速发展给人类带来便利的同时,也给社会带来风险。但目前人工智能的发展仍然掌控在人类手中,要充分认识人工智能发展和发展中存在的潜在问题,并采取相应的预防措施。政府和企业在内的各种社会组织,应充分自觉承担自身的社会责任,团结协作、合作共赢,共同构建一个“共建共享”的人工智能治理体系,并在遵守人工智能设计原则的基础上,依据相关政策和法规利用人工智能。公民要积极主动地参与政府的相关法律和规则的制定工作,监督政府和企业之间的权责落实情况,夯实自上而下和自下而上的双向协同治理体系。同时,我们也要正视人工智能的利弊,对人工智能应该善用之,不能太过畏惧人工智能,应该创造一个更好的社会环境,让人工智能更好地服务于社会和人类。

[参考文献]

[1]刘海军:《人工智能的文明作用及其发展悖论——基于马克思〈资本论〉及其手稿的阐释》,《马克思主义研究》2021年第8期,第87—100页。

[2]《习近平致第三届世界智能大会的贺信》,光明网,www.qstheory.cn/yaowen/2019-05/16/c_1124502531.htm。

[3]《中华人民共和国国民经济和社会发展第十四个五年计划和2035年远景目标纲要》,人民出版社2021年版。

[4]《习近平在中共中央政治局第九次集体学习时强调 加强领导做好规划明确任务夯实基础 推动我国新一代人工智能健康发展》,《党建》2018年第11期,第1页。

[5]苏竣、魏钰明、黄萃:《社会实验:人工智能社会影响研究的新路径》,《中国软科学》2020年第9期,第132—140页。

[6]孙伟平:《人工智能与人的“新异化”》,《中国社会科学》2020年第12期,第119—137页。

[7]赵金旭、孟天广:《技术赋能:区块链如何重塑治理结构与模式》,《当代世界与社会主义》2019年第3期,第187—194页。

[8]任剑涛:《人工智能与“人的政治”重生》,《探索》2020年第5期,第52—65页。

[9]何哲:《人工智能技术的社会风险与治理》,《电子政务》2020年第9期,第2—14页。

[10]张成岗:《人工智能时代:技术发展、风险挑战与秩序重构》,《南京社会科学》2018年第5期,第42—52页。

[11]周利敏、谷玉萍:《人工智能时代的社会风险治理创新》,《河海大学学报(哲学社会科学版)》2021年第3期,第38—45页。

[12]杨凯:《人工智能时代的社会风险治理创新思考分析》,《数字技术与应用》2021年第9期,第162—164页。

[13]王泗通:《人工智能应用的社会风险及其治理——基于垃圾分类智能化实践的思考》,《江苏社会科学》2022年第5期,第108—116页。

[14]高昕:《人工智能对社会就业岗位的影响研究》,《河南工业大学学报(社会科学版)》2019年第6期,第70—74頁。

[15]张务农、贾保先、曾强等:《“代具”还是“代替”?人工智能究竟能否取代人类教师的哲学省思》,《教师教育研究》2021年第1期,第14—21页。

[16]李伦、孙保学:《给人工智能一颗“良芯(良心)”——人工智能伦理研究的四个维度》,《教学与研究》2018年第8期,第72—79页。

[17][美]库兹韦尔:《奇点临近》,机械工业出版社2011年版。

[18]黄莹:《人工智能时代隐私权保护问题研究》,《文化创新比较研究》2020年第12期,第86—87页。

[19]吴玉洁、贺苗、吴一波:《疫情防控中的隐私困境及对策思考》,《中国医学伦理学》2022年第8期,第843—848页。

[20]肖志敏、沈兴蓉、刘荣等:《我国医学人工智能的应用现状及伦理问题反思》,《卫生软科学》2021年第7期,第87—89页。

[21]宋建欣:《大数据时代人的尊严和价值——以个人隐私与信息共享之间的伦理抉择为中心》,《道德与文明》2021年第6期,第107—114页。

[22]洪涛、陶思佳、卢思涵等:《人工智能算法“社会性嵌入”的衍生风险及其协同治理》,《复旦城市治理评论》2022年第1期,第144—172页。

[23]谢永江、杨永兴:《人工智能时代下的算法歧视及其治理研究》,《北京邮电大学学报(社会科学版)》2022年第5期,第18—25页。

[24]汪怀君、汝绪华:《人工智能算法歧视及其治理》,《科学技术哲学研究》2020年第2期,第101—106页。

Research on Social Risks in the Development of Artificial Intelligence

SONG Yang, LI Hui

(School of Marxism, Xian University of Architecture and Technology,Xian 710055, Shaanxi, China)

Abstract:  With the advent of the fourth wave of the industrial revolution and the widespread adoption of cloud computing, deep learning, big data, and other technologies, artificial intelligence (AI) has become deeply integrated into all aspects of human life. This not only affects the development of science and technology but also poses challenges to social, economic, political, moral, and ethical fields, leading to social risks and hidden dangers. It is, therefore, necessary to actively explore coping strategies from technology, social management, and human aspects to form an effective concerted system with multiple parties participating. The system will enable rational control over AI, better deal with the social risks that AI may bring, explore the future development directions of AI, and promote positive interaction between “technology” and “society.”

Key words:artificial intelligence; social risks; high quality development; technical risks; ethical risks

(责任编辑刘永俊;
责任校对孙俊青编辑)

猜你喜欢社会风险高质量发展人工智能2019:人工智能商界(2019年12期)2019-01-03人工智能与就业IT经理世界(2018年20期)2018-10-24中国经济改革“高质量发展”是关键词新民周刊(2018年11期)2018-04-02开启新时代民航强国建设新征程人民论坛(2018年5期)2018-03-12我国经济怎样实现“高质量发展”祖国(2018年1期)2018-02-02数读人工智能小康(2017年16期)2017-06-07网络社会风险规律及其因应策略社会科学研究(2016年6期)2017-02-16下一幕,人工智能!南风窗(2016年19期)2016-09-21低压集抄改造项目的社会风险管理研究科技视界(2016年13期)2016-06-13中国公务员培训市场化分析陕西行政学院学报(2015年4期)2015-11-26

推荐访问:人工智能 风险 社会