①生命未来研究所发布的《AI安全指数》显示,主要AI公司在安全治理上未达全球标准 ,尽管竞相开发“超级智能”,但无一制定出完善的控制策略;②报告指出,尽管多家公司领导层谈及应对存在性风险 ,但尚未转化为具体安全计划或可信的内部监测与控制措施 。
非营利机构生命未来研究所(Future of Life Institute)周三发布的新版《AI安全指数》指出,Anthropic 、OpenAI、xAI、Meta等主要人工智能公司的安全治理水平,远未达到正在形成的全球标准。
该研究所表示 ,由独立专家小组进行的安全评估发现,尽管这些公司正竞相开发“超级智能 ”,但没有一家制定出足够完善的策略和方案来控制如此先进的AI系统。
据悉 ,在本次评估中,Anthropic的综合得分最高,但在“存在性安全(existential safety)”上仍只获得D级,意味着该公司尚未建立足够的策略来防止灾难性滥用或失控 。这也是连续第二份报告中 ,没有公司在该项指标上获得超过D的评分。
除Meta等少数公司外,所有AI公司都对生命未来研究所发出的问题清单进行了回应,从而提供了其安全实践的更多信息。
报告显示 ,多家公司领导层都曾谈及应对存在性风险,但研究人员指出:“这种言辞尚未转化为量化的安全计划 、具体的对齐失败缓解策略,或可信的内部监测与控制措施 。”
在具体指标上 ,Anthropic和OpenAI在信息共享、风险评估以及治理和问责方面获得了A和B的高分。
而xAI和Meta虽有风险管理框架,但缺乏安全监测承诺,且尚未提供其在安全研究上的投资超过最低标准的证据。
这份研究发布之际 ,公众对具备类人推理与逻辑能力的更智能AI系统的社会影响日益担忧 。此前已有数起自杀与自残案例被指与AI聊天机器人有关。
麻省理工学院教授、生命未来研究所所长Max Tegmark表示:“尽管近期围绕AI辅助黑客攻击 、以及AI导致用户出现精神错乱和自残行为的争议不断,美国的AI企业仍然比餐馆受到的监管更少,并持续游说反对具有约束力的安全标准。 ”
与此同时 ,AI竞赛并无放缓迹象,大型科技公司仍在投入数千亿美元用于扩大和升级其机器学习能力。美国政府也试图通过立法禁止美国各州在未来10年内执行AI监管 。
生命未来研究所是一家关注智能机器对人类构成风险的非营利组织。该机构成立于2014年,早期曾获得特斯拉首席执行官埃隆·马斯克的支持。
今年10月份,包括科学家Geoffrey Hinton与Yoshua Bengio在内的一批研究者呼吁 ,在公众提出要求并且科学找到安全路径之前,应暂停开发超级智能AI 。
(文章来源:财联社)
高杠杆炒股:股票杠杆平台软件有哪些-OpenAI全球扩张计划曝光!拟在阿联酋建数据中心 不日将官宣
哪个股票平台最正规:配资炒股软件-监管定调“并购+研究”业态 给券商带来哪些业务新意?
股票配资什么意思:炒股杠杆软件有哪些-科创板第五套标准重启 首单IPO上会的究竟是啥企业?
炒股配资门户网:股票加杠杆软件-AI手机概念股遇冷 热门公司先后“澄清” 哪些公司“豆包味”更浓?
股票十倍杠杆正规平台有哪些:线下炒股配资网站-嘉元科技20%涨停!这一概念卷土重来 AI产业链股活跃
正规在线配资公司:炒股杠杆软件有哪些-“AI之王”当之无愧!英伟达“最大空头”倒戈上调评级:还能再涨19%