谷歌前首席执行官埃里克·施密特( Eric Schmidt)表示,他认为人工智能 (AI) 可能会在 5 到 10 年内危及人类,而公司在防止伤害方面还做得不够。


在接受采访时,施密特将 AI 的发展与二战末期的核武器进行了比较。他说,继长崎和广岛核事故之后,花了 18 年时间才达成一项禁止试验条约,但“我们今天没有这样的时间”。当“计算机开始自行决定做事”时,比如发现武器,人工智能的危险就开始了。


该技术正在快速发展。两年前,专家警告称,人工智能可能在 20 年内危及人类。但现在,施密特表示,专家认为这可能需要两到四年的时间。


施密特建议建立一个类似于政府间气候变化专门委员会的全球性部门,向政策制定者提供准确的信息,以便了解问题的紧迫性。


尽管他发出了这样的警告,但这位前谷歌首席执行官认为人工智能仍然可以成为人类的工具。他告诉媒体,“我不相信人工智能医生或人工智能导师是负面的,它必须对世界有好处。”


施密特的警告是在拜登总统签署全面的人工智能行政命令不到一个月之后发出的。该命令包括几项新措施,包括安全、隐私、保护工人和保护创新。


新政令制定了新的安全标准,包括要求企业开发针对国家安全威胁、经济安全和公共卫生安全的模型。它要求商务部为人工智能生成的内容制定指导方针,并指示联邦机构保护人工智能系统收集的数据隐私。


它的目标是通过最大限度地减少人工智能对员工的伤害和最大限度地提高人工智能给员工带来的好处,以及其他进步来保护工人。


近期,谷歌发布了自己的人工智能工具 Bard,这是 OpenAI 非常受欢迎的 ChatGPT 工具的竞争产品。


信息来源:The Hill