
AI的潜在危险一直是AI研究员和公众最关心的问题。今年4月,一群AI行业
新浪 2023-07-06 10:59:20
(资料图)
北京时间7月6日早间消息,当地时间周三,ChatGPT的开发者OpenAI表示计划投入更多资源并成立新的研究团队,研究如何确保AI对人类的安全性,最终实现用AI来监督AI。
OpenAI联合创始人伊利亚·苏茨凯弗(Ilya Sutskever)和AI对齐负责人简·莱克(Jan Leike)在官方博客中表示:“超级智能的巨大能力可能导致人类失去力量甚至灭绝。目前,我们还没有解决方案来操纵或控制一个可能的超智能AI,并防止其变成无赖。”
这篇博文预测,超智能AI,即相比于人类更智能的系统,可能会在未来10年中出现。人类需要比目前更强大的技术来控制超智能AI,因此需要在“AI对齐研究”方面取得突破,确保人AI对人类持续有益。AI对齐是AI控制中的主要问题,即要求AI的目标和人类的价值观与意图保持一致。
作者写道,OpenAI将在未来4年内,将算力的20%专门用于解决这方面问题。此外,该公司将组建新的“超对齐”团队来组织这方面的工作。
该团队的目标是开发达到“人类水平”,由AI驱动的对齐研究员,随后通过庞大的算力推动其发展。OpenAI表示,这意味着将使用人工反馈来训练AI系统,通过训练AI系统来协助人工评估,最终训练AI系统来进行实际的对齐研究。
不过,人工智能安全的倡导者康纳·莱希(Connor Leahy)表示,OpenAI的计划存在根本性缺陷,因为最初的人类水平AI可能会失控并造成严重破坏,而这将迫使研究者去解决AI安全问题。他在接受采访时表示:“在构建人类水平的智能之前,必须先解决对齐问题,否则默认情况下你无法控制它。我个人认为这不是个特别好的、安全的计划。”
AI的潜在危险一直是AI研究员和公众最关心的问题。今年4月,一群AI行业领袖和专家签署公开信,呼吁暂停6个月开发比OpenAI的GPT-4更强大的系统,原因是对社会存在潜在风险。益普索今年5月的调查发现,超过2/3的美国人担心AI可能产生的负面影响,61%的人认为AI可能威胁人类文明。
AI的潜在危险一直是AI研究员和公众最关心的问题。今年4月,一群AI行业
1、辛硫磷安全使用注意事项:使用浓度过高,会产生药害,喷雾使用浓度
航拍重庆万州长滩镇一村庄山坡发生泥石流灾害后的场景
本文目录导航:南阳农行苏军-农行南阳宛城支行行长农业银行南阳宛城支
直播吧7月6日讯 据名记Woj报道,新赛季季中锦标赛四强赛定于(当地时
众所周知,苹果每年发布新一代iPhone时,都会带来全新配色,今年应该也
长江日报大武汉客户端6月28日讯(记者刘晨玮通讯员李竹)气温逐步升高,
极目新闻记者刘冬莉李伟通讯员陈蓉实习生朱芸可湖北省家电行业消费维权
银行理财子公司和公募基金都在这个火热的夏天掀起了降费潮。打出降费第
中科信息在互动平台表示,公司是首次将高速机器视觉技术应用于钞票印制
科技日报北京7月4日电(记者张梦然)《自然·医学》3日发表的一项研究
五菱发布5款简易电动自行车:最远能跑95km
证券时报网讯,昊志机电今日下跌16 09%,全天换手率41 40%,成交额18 4
来源:经济日报近日,以国有大行为代表的多家主要银行纷纷下调美元存款
棒打鸳鸯!儿子勾搭婶子!乔丹不同意…