首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 22 毫秒
1.
如何提升人工智能的道德能力,使人工智能体的行为选择更符合社会伦理规范,是人工智能时代最重要的伦理问题之一。随着人工智能自主能力的快速提升,人工智能体越来越需要在具体情境中作出自主行为选择,这意味着人工智能体必须具备一定的道德能力。缺乏纯粹实践理性的人工智能不具备自我立法能力,没有情感欲望牵制的工具理性却可以理解并应用来自人类的、具有先验意义的道德法则。来自人类的道德法则不可能以人工智能为目的,而只能以人类自身为目的。从伦理学理论的发展现状来看,无论是义务论、功利论,还是德性论,不仅理论自身存在各种特殊缺陷,在规约人工智能时也存在种种困难,均无法独立承担作为人工智能体基础理论的重任,当务之急是以人类最基本的道德共识作为人工智能体的自然行为法则。单纯自上而下的道德内置法,无法应对具体行为情境的复杂性;单纯自下而上的自主学习法,难以保障自主学习结果的道德性;只有将自上而下与自下而上相结合,才能使人工智能体成为一种既服从人类道德法则、又具有一定道德自主能力的道德机器。  相似文献   

2.
经典道德责任理论坚持道德地位的必备条件是非凡的意识和意志,所以人工智能体不具备道德地位。实用道德责任理论则认为,人工智能体即使不具备意识,但具有一定的自主行为能力,是“道德能动者”,因而具有道德主体地位。人工智能体实际上是“二阶道德能动者”,具备非完全道德主体地位,它不能独立承担责任,但可以与人类一起构成“人机混合能动者”;而人机混合能动者作为人机交互系统中的道德责任主体,可以承担道德责任。  相似文献   

3.
人工智能道德设计的目标是建立完全道德行为体。传统的规范伦理学与美德伦理学同人工智能的工程基础彼此兼容,已经塑造了多种人工道德行为体模式,人工智能似乎有望在未来成为完全道德行为体。然而,运用儒家哲学视角反思人工智能的道德设计可以发现,儒家所强调的直接呈现道德意义的“心体”和作为道德根据的“性体”与人工智能道德设计的工程基础发生冲突,使其陷入了“道德封限”“道德他律”“道德表演”等困境,将否决人工智能成为完全道德行为体的可能。综合考量之下,基于生物基础的人工道德设计作为一种折中方案,在通向完全道德行为体的道路上具有更大潜力。  相似文献   

4.
大数据时代的快速到来及智能机器自主化程度的提高不仅催生了"人工智能威胁论",引发了正反两方面的激烈争论,而且对道德责任的传统观念形成了有力的挑战,使伦理学中本就复杂的道德责任归属问题更加突出和困难。要合理化解人工智能技术引发的道德伦理问题及围绕机器自主体的道德归属问题展开的争论,我们必须在对道德责任的内容、归属条件进行充分理解和分析的基础上,进一步探讨道德自主体的标准问题,最终将问题聚焦于道德模型的设计与建构上,并根据对道德责任的重新界定,在智能机器的设计与研发过程中把"善"的理念嵌入其中,并且坚持预防性原则,让机器承担前瞻性责任,以使人工智能产品运行时能够遵守社会道德规范,最大限度地发挥为人类服务的作用。  相似文献   

5.
社区矫正作为人工智能在司法领域运用的可行性方向正逐步为人关注,而人工智能在社区矫正中是否可以具备主体资格,能否承担相应责任,是这一技术应用时所产生的法律问题。通过对社区矫正人工智能运行现状及主体特征进行考察,借助主体责任价值、民法代理规则、侵权归责、刑事责任范畴四个方面辨析人工智能主体责任,合理界定人工智能的责任属性,并且注意人工智能在社区矫正中的主体责任监管、伦理道德和责任豁免三个问题,可以为将人工智能引入社区矫正奠定法律主体基础。  相似文献   

6.
企业的社会责任的几个伦理问题   总被引:6,自引:0,他引:6  
企业的社会责任一直是商业伦理学或企业伦理学所关注和探讨的一个重要领域。在这一领域里 ,要着重解决的理论难题是 :什么是企业的社会责任 ?企业能否像单个的人一样来承担其行为及其后果的道德责任 ?企业作为一个道德主体能否成立 ?本文从道德理论的角度来考察和论证这些问题的  相似文献   

7.
学界就应否赋予人工智能以民事主体资格始终存在激烈争论。赋予人工智能以民事主体资格并不存在与主体能力的本质相冲突、将贬低人的主体地位、有违伦理道德等所谓的法理障碍,且在立法方案的设计上具有现行可行性,可通过类比公司注册资本设立强制保险赔偿金,作为建构人工智能独立民事主体地位的责任财产基础,能有效解决人工智能创作物、自动驾驶侵权责任等具体问题。人工智能所引起的法律难题在现行法框架内尚能解决的情况下,肯定人工智能民事主体资格尚无迫切性,最终取决于能否更好地实现人类利益,是人类功利主义价值衡量的结果。即使如此,也应当强化构建人工智能民事主体资格的理论研究,为未来可能的立法提供理论补给。  相似文献   

8.
随着智慧社会的到来,人工智能体广泛应用于社会各个领域,智能水平不断提升,与之相关的犯罪问题逐渐走向理论和实践的焦点。人工智能体冲击着刑法教义学主体和客体相区分的二元结构,引发了广泛的讨论和争议。探讨人工智能体的刑法地位应当改变混同分析主体性和能力性的思路,区分不法和责任两个层面进行研究。应基于人工智能的发展阶段,明确现阶段人工智能体仍然属于弱人工智能,因此其无法成为犯罪人或被害人,也无法具备责任能力或承担刑事责任。但是人工智能体日益可能成为犯罪对象,与之相关的自然人和法人犯罪也应当受到重视。探讨人工智能相关的刑法问题应当立足于教义学的基本立场与理论范式。  相似文献   

9.
女性的道德发展——吉利根的女性道德发展理论评述   总被引:4,自引:0,他引:4  
美国女性主义道德心理学家卡罗尔·吉利根审视批评了西方社会现有的人类道德发展理论对女性的忽视,通过访谈等方式对女性进行经验性研究,论述了女性在道德发展上的不同,建立起了女性主义的关怀伦理学。她的理论在西方社会产生了较大的影响和争论  相似文献   

10.
人工智能侵权因其侵权主体的拟人性、侵权行为实施的人机交互性、侵权责任认定的复杂性,导致其适用传统侵权责任制度存在责任主体不明、产品缺陷及因果关系认定困难、归责原则不明确等问题。因此增加设计者为责任主体,明确责任主体范围包括设计者、生产者、销售者以及使用者;针对人工智能的设计缺陷、制造缺陷、警示缺陷分别采用“风险—效用”、“对预期设计的偏离”、“合理充分”判断标准,对人工智能因果关系的认定适用举证责任倒置规则;针对不同责任主体,完善人工智能侵权差别化归责原则。  相似文献   

11.
人工智能体道德的出现引发了人们对传统伦理体制的思考。随着技术不断革新,人工智能体的内涵也不断丰富,它的自由性和独立性日趋进步。人工智能体的安全性凸显,在设计和应用人工智能体的过程中,传统的研发进路已然落后。人们对人工智能体有无道德以及道德去向提出了质疑。人工智能体走向人机一体化可能更有助于人工智能体道德的确立,人机之间的互动与交流对于人工智能体道德所引发的伦理困境而言具有进步意义。人机之间的和谐相处可能是未来人工智能体道德迈出困境的一条路径。  相似文献   

12.
人们愈益走向并生活在一个人工智能的时代。当前人工智能的探索和发展产生了复杂的现实效应和社会后果,亦提出了诸多未知的理论难题。就伦理学来说,对人工智能进行伦理干预和介入成了迫在眉睫的任务。这种伦理干预并非泛泛的外在说教和批判,其基础在于对人工智能的本质进行科学把握。这种把握需要从历史变迁而非预设的本质出发,不仅将人工智能理解为人类社会不断发展而来的物质基础,而且从人类的生活和生产的整体性视角看待它发挥作用的方式。立足于这一视角,伦理学不是把人工智能理解为物本身,而是从科技、产业、伦理等诸多要素的动态作用中把握它的合理位置及其影响。在通往伦理的人工智能生产过程中,伦理学面临三大基本任务:倡导新的契约精神,重新界定人工智能生产中的伦理标准和规范;主张以人为本的最终目的,思考人工智能生产中价值冲突的解决方案;深入生产过程中的伦理介入,把握人工智能生产过程的具体环节。  相似文献   

13.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

14.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

15.
工程技术与伦理具有内在的关联,工程技术蕴含、渗透着伦理因素,离不开道德干预和伦理指导。工程伦理学关注的问题虽然很多,但技术伦理问题始终是工程伦理学必须关注的首要问题,是其核心范畴。同时,技术伦理范畴本身意味着人,特别是工程技术人员要对自己的技术活动承担相应的责任,因而责任伦理是技术伦理的内在要求和题中应有之义。  相似文献   

16.
机器伦理的兴起引发了人工道德主体的道德责任问题的争论。我们分析了争论的哲学假设,并认为这种哲学假设的特点导致了明显的概念和术语上的混淆。这种混淆与我们如何看待一些核心概念和术语之间的联系密切相关。反过来,这造成了一种缺乏基础的评估,这种评估在何种程度上提出,以及争论的立场是否兼容或者它们是否从根本上在解决相同的问题?这使得人工道德主体道德地位问题的争论受益于诸如概念、认知、实践,以及道德推理和道德立场等之间的关系上根本方法论的评估。因为这场争论在关于各种生命的道德地位方面具有相似之处,需要承认存在着涉及"什么是人工道德主体?""我们能够和应该赋予它们道德地位吗?"等问题的挑战。  相似文献   

17.
在机器人伦理的讨论中,仿真机器人是人们热议的话题,尤其在具体应用情境中出现身份认同困惑、伦理认知偏差等令人忧虑的问题后,产生这些问题的原因,集中体现在机器人伦理主体论争、道德代理人缺失、情感表达能力真实性等方面.然而,在近几十年来的学术论争中,机器人的伦理主体地位一直没有得到确证,道德代理人也因此而缺位,即使具备情感表达能力,也很难获得人类的认同,遑论道德关怀.但无论仿真机器人是否具有道德地位,人们都应当出于义务和责任及自身崇高的理想追求避免伤害“他们”,走出人工智能威胁论的恐惧,通过建立虚拟主体、拓展伦理界限来维护“他们”的道德利益,以应对“强人工智能时代”可能出现的伦理问题,消除人们对于仿真机器人的困惑,防范未来可能存在的道德风险.  相似文献   

18.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

19.
人工智能是当前道德哲学界讨论的热门话题,一方面人工智能的发展需要面对相应的伦理问题,另一方面人工智能的发展也能为传统的伦理学研究提供洞见。对于“是否存在道德专家”这个问题,哲学家们曾有过许多讨论,通过对专家/专家化、道德专家/道德专家化等概念的辨析,可以得知日常理解的“道德专家”是一个十分严苛的概念,而从这个意义上看,人工智能恰恰是最有可能成为这样的“道德专家”的。  相似文献   

20.
早在图灵时代,对于机器能否思维等问题就有过深入的探讨与争论,为了反驳图灵的肯定性意见,哲学家维特根斯坦提出“意义盲人”的方案。一则澄清人与机器的差异,机器不及人之处在于——没有本能冲动、自我意识、自由意志、心灵结构和语言构造能力,无法在语言游戏之中,感受和创生丰富的意义世界。同时,也肯定二者的家族相似性,思维、语言和算法的相似性,遵守规则的相似性。随着人工智能时代的到来,图灵的强人工智能理论虽然具有明显的科学优势,但是在探索人工智能的安全性问题时,维特根斯坦的方案具有哲学家的远见卓识,有着十分积极的借鉴价值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号