人工智能应用之道-人工智能应用之道是什么

大家好,今天小编关注到一个比较有意思的话题,就是关于人工智能应用之道的问题,于是小编就整理了2个相关介绍人工智能应用之道的解答,让我们一起看看吧。
关于人工智能道德问题,应该如何看待?
所谓人工智能的道德问题,本质上还是科学伦理问题。只不过由于将来人工智能的充分发展/使用比以往科学技术的应用可能带来更多的矛盾冲突,因此才成了广受关注的热门话题。
一,人类与人工智能劳动技能的冲突,这是最低层次的冲突。一般认为,人工智能的发展会导致其劳动技能普遍高于人类,并抢走人类劳动岗位,剥夺人类劳动的权利,从而引发大规模的失业潮,使穷人越穷。
二,人类与人工智能的社会***冲突,以及由此引发哲学,宗教等方面的问题。沙特授予机器人索菲亚国籍,这是人类历史上第一次允许/接受非同类/异类加入人类社会组织。可以预见,随着人工智能拟人化,将来可能会有大规模的类似***发生。当人工智能拥有某些方面与人类同等权利的时候,必将在哲学,宗教,甚至意识形态,上层建筑等方面引起一系列连锁反应和冲突。这是较高层面上人类与人工智能的冲突。
三,存亡之争,这是人类与人工智能可能爆发的终极冲突。如果人工智能具备了自我学习,自我思考,自己***/繁殖的能力,那么就完全有理由担心双方爆发终极冲突。以人工智能的个体和集体能力~人工智能在统一的“大脑”指挥下,所有个体都能够形成无缝链接,组织能力和执行力将远高于人类~而言,人类完败将是大概率***。
所有的一切也许都有解决之道,人类能够很好的处理人工智能可能带来的***问题。但前提是未雨绸缪,在理论和实践上都做好最坏的打算和最充分的准备。
关于人工智能的道德问题,并不乏报道。但大多数都是轻量级的——充满了关于“公私合作”、关于把人放在第一位之类的陈词滥调。他们不承认人工智能创造出的社会困境有多棘手,也不承认解开这些难题有多么困难。但AI Now研究所(一家位于纽约大学的新研究机构)的新报告并非如此。报告指出,科技行业正以一种不容置疑的态势,竞相使用人工智能来重塑社会,这并不会带来任何可靠和公平的结果。
Crawford、Whittaker和他们的合作者在一个密集但易于获得的35页报告中列出了研究议程和政策路线图。他们的结论并不是胡说八道:他们说,到目前为止,我们将人工智能保持在道德标准上的努力是失败的。
他们写道:“人工智能的新***框架需要超越个人责任,在设计和使用人工智能的过程中,让强大的工业、***和军事利益承担责任。”当科技巨头开发人工智能产品时,“用户同意、隐私和透明度往往被忽视,而只专注于聚合数据,为利润驱动的商业模式服务……”与此同时,在警务、教育、医疗和其他环境中引入人工智能系统,在这些环境中,算法的失误可能会毁掉一个人的生活。
人工智能对***的冲击有哪些?
“人工智能表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习结果的表现,和人类主观意识有本质的不同。人工智能不是生物,构不成行为主体,传统司法审判无法照搬到人工智能身上。因此,人工智能不可以作为社会责任的承担者。
***如人与人工智能出现类夫妻、父女等情感,将考问现代***规范。“如果社会主流意见认为这种关系符合***,人们可能倾向于以类似于夫妻、父女之间的***准则来调节二者之间的关系;但如果人们始终认为,人与人工智能之间的关系是人占主导地位的‘游戏关系’,那么相应的***标准也就无从谈起。
到此,以上就是小编对于人工智能应用之道的问题就介绍到这了,希望介绍关于人工智能应用之道的2点解答对大家有用。
[免责声明]本文来源于网络,不代表本站立场,如转载内容涉及版权等问题,请联系邮箱:83115484@qq.com,我们会予以删除相关文章,保证您的权利。转载请注明出处:http://www.bfgfmw.com/post/14847.html