正在加载数据...
  • 汽车|房产|家居|家电|服装|时尚|健康|医药|教育|旅游|能源|环保|工业

    食品|科技|通信|手机|电子|金融|证券|电商|商超|物流|软件|安防|综合

  • 当前位置:南方企业新闻网>要闻> 热话题>正文内容
    • 马斯克等全球千名科技人士联名呼吁暂停更强大的AI开发
    • 2023年04月03日来源:中国青年报

    提要:人工智能对社会和人类的潜在风险,已经成为不少科技人士的共识,其中包括“人工智能教父”杰弗里·辛顿、特斯拉和推特CEO埃隆·马斯克、图灵奖得主约书亚·本希奥。为此,他们在这封公开信上签下了自己的名字。

    最近,有关ChatGPT和人工智能,几乎每天都有新闻。随着更“聪明”的GPT-4发布,人们对技术的恐慌和对科技伦理的担忧,得到了更多关注。3月27日,《中国青年报》以《GPT-4再燃热点 拷问科技伦理边界》为题对该现象进行了报道。

    最新的消息是,当地时间3月29日,美国非营利组织未来生命研究所(Future of Life Institute)发布了一封名为“暂停巨型AI实验”的公开信。上千名人工智能专家和行业高管在信中呼吁,所有人工智能实验室应当暂停对更强大的人工智能系统的开发和训练。至少,暂停半年。他们建议,如果不能迅速实施这种暂停,“政府应介入并实行暂停”。

    人工智能对社会和人类的潜在风险,已经成为不少科技人士的共识,其中包括“人工智能教父”杰弗里·辛顿、特斯拉和推特CEO埃隆·马斯克、图灵奖得主约书亚·本希奥。为此,他们在这封公开信上签下了自己的名字。

    “只有当我们能够确信,AI体系的有利因素都是积极的,且风险都可控,一个强大的AI体系才能成熟。”公开信中这样写道。

    实际上,这不是未来生命研究所第一次公开呼吁对人工智能发展的警惕。2014年,这个组织在美国成立,成立的初衷一方面是促进对“未来乐观图景”的研究,一方面则是“降低人类面临的现存风险”。而后者一直是其关注的重点。

    2015年,物理学家斯蒂芬·霍金和埃隆·马斯克等数位科学家、企业家,与人工智能领域有关的投资者,联名发出了一封公开信,警告人们必须更多地注意人工智能的安全性及其社会效益。

    那时,AI还没有像今天这样,呈现出令人不安的“智能”。但从那时候开始,马斯克就已经表示,他坚信不受控制的人工智能“可能比核武器更危险”。

    8年后,在愈来愈动荡的经济形势中,新一封公开信的签署者们提出疑问:“我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该发展最终可能比我们更多、更聪明,淘汰并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?”

    欧洲刑警组织3月27日也发出警告,ChatGPT等人工智能聊天机器人很可能被犯罪分子滥用:“大型语言模型检测和重现语言模式的能力,不仅有助于网络钓鱼和在线欺诈,还可以用来冒充特定个人或群体的讲话风格。”他们的创新实验室已经组织了多次研讨会,探讨犯罪分子可能会怎么做,列出了潜在的有害使用方式。

    这些签署者希望,奔向危险的脚步能够“暂停”,先共同开发出一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。AI开发人员也需要与政策制定者合作,开发强大的AI治理系统。

    至少,建立专门负责AI的、有足够准备和能力的监管机构。



    版权及免责声明:
    1. 任何单位或个人认为南方企业新闻网的内容可能涉嫌侵犯其合法权益,应及时向南方企业新闻网书面反馈,并提供相关证明材料和理由,本网站在收到上述文件并审核后,会采取相应处理措施。
    2. 南方企业新闻网对于任何包含、经由链接、下载或其它途径所获得的有关本网站的任何内容、信息或广告,不声明或保证其正确性或可靠性。用户自行承担使用本网站的风险。
    3. 如因版权和其它问题需要同本网联系的,请在文章刊发后30日内进行。联系电话:01083834755 邮箱:news@senn.com.cn

    责任编辑:焦兮兮
    相关新闻更多
      没有关键字相关信息!
    文章排行榜
    官方微博