ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

人类发展人工智能的一个方向就是,让人工智能变得越来越聪明

2021-11-20 20:32:57  阅读:180  来源: 互联网

标签:风险 人工智能 哲学 聪明 人类 变得 徐英瑾


  封面新闻:相对于而言很多人会认为人工智能是一个非常偏工科的课科学研究而您研究哲学,为什么想到要用哲学来谈论人工智能呢您是如何看待哲学和科学之间的关系的呢?你是怎么想到要将人工智能作为自己的哲学思考对象?

  徐英瑾:哲学思考有一个问题很多话是公说公有理,婆说婆有理我欣赏莱布尼茨的话,任何事情都可以通过演算去弄是非有一些终极问题体悟算不出来 但是这个比例不会很高分析哲学比较重视论证性,但忽略全局性欧陆哲学重视全局性,却忽略论证性我想要做的就是把这两者取长补短,加以综合这不是很简单就能做到的但我一直在朝着这个方面努力。

  封面新闻:关于人工智能未来发展的预测很多不少人担心“强人工智能”的出现会威胁人类的生存。您如何看?

  徐英瑾:但是,任何事物我们不能光要它的好处,不要它的风险人类发展人工智能的一个方向就是,要是让人工智能变得越来越聪明越来越像活人。但这样肯定会带来风险但如果发展人工智能就还们必须冒这个风险。如果不冒这个险,它会变得非常笨,也不是人类想要的人工智能。这就像打仗,有人赢,那么就有人败。人类对风险是有相当高的控制能力的,尽管这种控制不是绝对的。其实不只是对机器人,人类对自己的风险控制能力也不是绝对的。比如说,为了把飞机突然发疯这在事情的概率降到最低,人会用“任何时候驾驶室必须至少有两个人同时在场”的规则。但这也不能将风险降到绝对为零,因为还是两个人在驾驶室里一起发疯的可能。我个人觉得,人类是怎么防范自己失控,就应该怎么去防范人工智能失控。如果人工智能拼命往邪恶的方向发展,这不是人工智能干坏事,而是人在利用人工智能干坏事。当然人工智能会让坏事变得更加严重。至于担心人工智能在肉体、物理上对人的毁灭,我觉得大可不必太担心。因为很强的人工智能与黑暗之间的结合,要加很多安全阀。只要不给人工智能独当一面的机会,就能很好拦阻这种状况的发生。但我不确定我的想法是不是过于理想主义。毕竟现在世界处于比较分裂的状态, 各个国家的人类会不会坐下来协商,也都是不确定的未知的。

标签:风险,人工智能,哲学,聪明,人类,变得,徐英瑾
来源: https://blog.csdn.net/weixin_45836589/article/details/121444635

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有