登录站点

用户名

密码

霍金辞世--关于家用智能锁,他曾这么发声

已有 265 次阅读  2018-03-14 17:22   标签皇迪 
北京时间2018年3月14日下午,英国著名物理学家霍金遗憾辞世。享年76岁。霍金 史蒂芬·威廉·霍金(Stephen William Hawking),1942年1月8日出生于英国牛津,是英国剑桥大学著名物理学家,现代最伟大的物理学家之一。他的著有时间简史等书,曾提出著名的黑洞理论。

不幸的消息传来,世界各地纷纷表示哀悼,为霍金先生送上伟大的敬意。霍金先生为人类后续发展而持续对人工智能发声。作为人类科技界仅存的瑰宝,我们虽然无法评价霍金先生的人工智能是否控制人类是否会实现,但是深感敬佩,霍金先生一生都在为人类的发展殚精竭虑,他一生都以推动人类发展为己任,知道辞世的那一刻。作为科技新闻报道的一员,小编在这里献上最大的敬意。

霍金先生曾警告人类,不要过度开发人工智能,不然会给人类造成无法挽回的影响;而作为新闻行业地从事人员,我不竟想,怎么正视好霍金先生给我们的警告?人工智能不发展已经不可能,那可不可以通过技术手段,在人工智能发展的早期,限制它朝不利于人类发展的方向发展的脚步?
针对这个问题,我采访了一家从事智能家居家用智能门锁行业的从事人员。他是深圳一家叫做皇迪的专门研发和生产家用智能锁的厂家的员工。他表示道,目前,智能锁业内也有意引导智能锁行业朝完全的人工智能化发展。针对这个问题,业内也有讨论,但是还是讨论继续从完全人工智能化的方向发展商业智能锁、家用智能锁。向他们家主要涉及家用智能锁、家用彩屏智能锁的方面;在发展完全智能锁行业方向有所制衡主流方向。而智能锁包括智能家居行业也有讨论。

国内某手机厂家就曾表示,人工智能的发展是人为的科技,在技术上是做到提前的控制的,而这种技术上的限制就要靠整个行业的共识,没有共识,人工智能就会朝不可预控的方向危险发展,毕竟谁也不敢保证世界上是否科学家为了获取名利而不择手段的研发新科技;但是如果业内有人工智能危害的共识,一起起草和制定行业规范和入门准则,人工智能反控制人类的情况就不会发生。
而深圳这家专门研发制造家用智能门锁的皇迪厂家研发人员对上述意见和建议表示认同:人工智能不是洪水猛兽,就算是悬在人类头顶的达摩力斯之剑,控制好了反而成为人类发展的有效工具也不一定。
而随着霍金先生的辞世,人工智能的话题还将被热烈讨论。关于人工智能如何使用这个艰难的问题,相信人类一定可以找出最有效的办法利用好他。那一天,也无所谓人工智能的争论,而是人工智能怎么帮助人类更美好的生活。
责任编辑:皇迪
版权所有:http://aihuangdi.com/ 转载请注明出处
分享 举报