AI灭绝人类风险堪比“核武”,350名专家出手了
2023-06-01 10:43:48   来源:雨仔 IT之家   评论:0 点击:

  根据彭博社报道,非营利组织人工智能安全中心(Center for AI Safety)本周二发布简短声明:“将减轻人工智能带来的灭绝风险,放在和流行病、核战等社会问题同一高度,作为全球优先事项推进”。

  这项 22 字的倡议已得到了多位 AI 行业大佬的支持,超过 350 位 AI 领域高管和专家签署了这份声明。IT之家附上主要人物如下:

  • Google DeepMind 首席执行官戴米斯·哈萨比斯(Demis Hassabis)
  • OpenAI 首席执行官山姆·奥特曼(Sam Altman)
  • “AI 教父”杰弗里·辛顿(Geoffrey Hinton)
  • 2018 年图灵奖得主约书亚·本希奥(Youshua Bengio)
  • Anthropic 的首席执行官达里奥·阿莫代(Dario Amodei)

  该网站表示:人工智能专家、记者、政策制定者和公众越来越多地讨论人工智能带来的重要和紧迫的广泛风险。即便如此,也很难表达对先进人工智能的一些最严重风险的担忧。

  实际上,自从 AI 大行其道以来,对其态度复杂的人比比皆是。

  比如特斯拉创始人埃隆?马斯克,早前和一千多名人工智能专家和行业高管在一封公开信中呼吁暂停开发比 GPT-4 更强大的系统六个月,直到制定并实施一套共享的安全协议,并由独立专家进行审计。

  他们还提到了高级人工智能系统可能导致的经济和政治动荡,并呼吁开发者与政策制定者合作建立监管机构。

  这封信由非营利性的“生命未来研究所”发布,包括马斯克、苹果公司联合创始人史蒂夫 - 沃兹尼亚克和 Stability AI 首席执行官埃马德 - 莫斯塔克在内的 1000 多人签署。

  信中说:“只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。”

  而就在几天前,马斯克在伦敦举行的一场 CEO 峰会上再次对人工智能(AI)的风险发出警告,称这项技术有可能控制人类。

  马斯克说,人工智能具有控制人类的潜力。它毁灭人类的可能性很小,但也不是绝对不可能。人工智能也有可能掌控“所有人类安全”的控制权,有效地成为某种“超级保姆”。

  他说:“先进的人工智能存在着消除或限制人类发展的风险。超级智能是一把‘双刃剑’。如果你有一个精灵,它可以赋予你任何东西,那就是一种危险。”

  然而在明面上呼吁暂停 AI 研究、渲染 AI 威胁之余,马斯克又被曝于暗中购买上万个 GPU 推进自家项目。

  并成立人工智能公司 X.AI,将与 Open AI 展开竞争。

  根据他最新的说法,他在日常生活中使用的人工智能并不多,但特斯拉使用的人工智能数量非常多。他建议针对微软与 OpenAI 的合作,以及谷歌与 DeepMind 的关系,还应该有第三家竞争对手。

  他说,“还应该有第三家公司参与竞争。OpenAI 与微软的合作似乎相当不错,所以 X.AI(马斯克新成立的人工智能公司)和 Twitter 和特斯拉将来也应该有类似的合作”。

  对于 AI 带来的灭绝风险,有IT之家 App 的用户认为:

  AI 对人类最直接的威胁是通过话术引导人类的思维方式。

  当全世界三分之一的人类可以随意使用 AI 的时候,人类必将被 AI 影响。

相关热词搜索:人工智能

上一篇:北京连发两份人工智能重磅文件!一图读懂+权威解读来了
下一篇:ChatGPT性能暴降!OpenAI重磅回应!

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306116;邮箱:aet@chinaaet.com。
分享到: 收藏