随着人工智能技术的迅猛发展,科学家也开始担忧人类未来会不会被快速成长的人工智能所反噬。
著名科学家霍金在最近的一场研讨会上的表示,人工智能会在未来100年内淘汰人类,而人类所要做的就是从现在开始扼杀掉人工智能的“独立思考”能力,让其无法自我进化,彻彻底底的为人类服务。
说到这里我们有必要重新提一下1940年由科幻作家阿西莫夫所提出的“机器人三原则”:
1、机器人必须服从人类的命令;
2、机器人不得伤害人类;
3、机器人必须保护自己。
随着人工智能技术的迅猛发展,科学家也开始担忧人类未来会不会被快速成长的人工智能所反噬。
著名科学家霍金在最近的一场研讨会上的表示,人工智能会在未来100年内淘汰人类,而人类所要做的就是从现在开始扼杀掉人工智能的“独立思考”能力,让其无法自我进化,彻彻底底的为人类服务。
说到这里我们有必要重新提一下1940年由科幻作家阿西莫夫所提出的“机器人三原则”:
1、机器人必须服从人类的命令;
2、机器人不得伤害人类;
3、机器人必须保护自己。