AI可能灭绝人类?全球400多位大佬*警告!中科院专家*解读

摘要:目前已有400多名全球的人工智能领域科学家、企业高管等签署**。

又一封“警惕AI”的*引发全球高度关注——

当地时间5月30日,国际AI领域非营利组织“人工智能安全中心”(Center for AI Safety)在其官网发布一封**,表达了对一些高级人工智能所带来严重风险的担忧。

目前已有400多名全球的人工智能领域科学家、企业高管等签署**。签署人中不乏人工智能领域的著名学者和高校教授,还包括三家全球顶尖人工智能公司的CEO——ChatGPT之父、OpenAI创始人兼CEO萨姆·阿尔特曼,谷歌DeepMind公司CEO戴米斯·哈萨比斯,以及美国Anthropic公司的CEO达里奥·阿莫代伊。

在签署人名单里,潮新闻记者看到了多位中国高校教授。中国科学院自动化研究所人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理实施高层专家组成员*就是其中之一。

*提到的“人工智能可能带来的人类灭绝风险”,该怎样看待?人工智能领域为何屡屡发出警告?人工智能与人类的边界应如何划定?6月1日,潮新闻记者对话*。

人工智能为何可能带给人类灭绝风险?

这封被众多人工智能领域大佬发声支持的*,其实全文只有简短的一句话:Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.(减轻人工智能带来的人类灭绝风险,应该与大流行病和核战争等其他影响社会的大规模风险一同成为全球性的优先事项。)

话少事大。在*看来,这正是选择*签署的学者CEO们,出于对人工智能给人类带来潜在生存风险的严重担忧而采取的一次直接行动。

“大流行病、核战争与人工智能可能给人类带来的潜在生存风险的共性是波及范围广,关乎全人类的利益,甚至是致命的。”*分析,关于人工智能对人类造成生存风险,至少有两种可能,一种是对远期人工智能的担忧,另一种是对近期人工智能的担忧。

针对远期而言,当通用人工智能和超级智能到来时,由于智力水平可能远超过人类,超级智能看待人类如同人类看待蚂蚁,很多人据此认为超级智能将与人类争夺资源,甚至危及到人类的生存。

如果说,我们从现在开始研究如何规避其风险,尚有可能应对远期人工智能的挑战,人工智能带来的近期风险则显得更为紧迫。由于当代人工智能只是看似智能的信息处理工具,没有真正的理解能力,也不是真正的智能,因此会以人类难以预期的方式犯人不会犯的错误。当某种操作会威胁到人类的生存时,人工智能既不理解什么是人类,什么是生死,也不理解什么是生存风险,因此极有可能威胁到人类的生存。

*告诉潮新闻记者,还有观点认为人工智能可以利用人类的弱点对人类的生存造成致命危机。例如利用和加剧人类之间的敌对和仇视、偏见和误解,利用致命性自主人工智能武器威胁人类脆弱生命。而这样的人工智能甚至不需要达到通用人工智能的阶段就有可能对人类造成生存风险。加之这种人工智能很有可能被人恶意利用、误用和滥用,而风险几乎难以预期和控制。

这样的风险已在现实生活中初显。例如,近期的人工智能进展使得人工智能系统能够利用互联网规模的数据与信息,生成式人工智能产生的合成虚假信息会极大降低社会信任。网络通信又已使万物互联,可以使相关风险在世界规模放大。

人工智能领域为何屡屡发出警告?

事实上,这已不是人工智能领域的学者专家和顶尖公司发出类似警告。

今年3月,美国的非营利组织未来生命研究所也发表了一封*,呼吁暂停研发比GPT-4更强大的人工智能系统至少6个月,并警告人工智能的发展对社会和人类构成的潜在风险。当时,马斯克、苹果公司创始人之一的史蒂夫·沃兹尼亚克、图灵奖得主约书亚·本吉奥等专家、产业高层都在*中签名。目前,这份*的署名人数已超过3万余人,*同样是较早署名的中国科学家。

连续两次在相关的*上署名,乃至此次在*正式对媒体发布前就签署联合声明,*有自己的考量。

“在人工智能给人类带来潜在生存风险的担忧方面,我和两位发起人观点接近。少数人很难改变趋势,但少数人首先站出来提升公众的意识,终参与改变现状的就会是多数人。这也是业界不断发出号召的原因。”*说,无论是此前的暂停人工智能巨模型实验呼吁还是此次的人工智能风险声明,都是意识到了目前人工智能发展过程中的风险和失控的可能性。虽然两者应对人工智能风险的方式不同,但其目的都不是阻碍人工智能的发展,恰恰是在探索人工智能稳健发展的途径。

*认为,重视和管控人工智能的安全风险不是阻碍人工智能的发展与应用,而是确保人工智能技术稳健发展。人工智能无疑是社会进步的推进器,然而这并不意味着人工智能没有潜在风险,或者是为了大化人工智能益处的需求,就可以忽略人工智能的潜在风险。用人工智能造福人类,而不是给人类带来风险,甚至是生存风险,也是绝大多数人对于人工智能发展的愿景。因此公众有权利知道人工智能的潜在风险,人工智能的研发者有义务确保人工智能不给人类带来生存风险,至少要通过人工智能的各种利益相关方小化这种风险的可能性,并建立人工智能伦理安全的全球协作机制。

人工智能与人类的边界应如何划定?

随着人工智能不断发展,相关新闻也在不断刷新公众对人工智能的认知。

近日,一条“互联网含人量创历史新低”新闻让许多人非常诧异:2023年Imperva恶意机器人报告发现,20*,有近一半(47.4%)的互联网流量来自机器人,比去年增长了5.1%。与此同时,人类流量的比例降至52.6%,为8年来低水平。

而更让人焦虑的是,*达摩院与新加坡南洋理工大学合作的新论文显示,GPT-4在数据分析上有与人类相当的性能。这也意味着年薪60万的数据分析师工作,很有可能用只需2000多元成本的人工智能就能取代。

耳听眼见都难以为实,越来越多岗位面临可能被人工智能取代的现状和未来,正让人类与人工智能之间的边界变得模糊。

“整个社会中人工智能不应该无处不在。我们在为联合国教科文组织编写人工智能伦理时,就加入了一条‘适度使用’原则,即该用人工智能的地方,留给人工智能,该留给人类社会的地方就按照人类的方式去发展。”*说,人工智能应该适度发展、适度和谨慎使用,深度治理。对于那些没有必要使用人工智能的场景,或者使用人工智能带来的益处有限、却有很大的不确定性与隐患,应当秉持能不用则不用的原则。正如作家舒可文在《城里:关于城市梦想的叙述》中指出,城市的发展,一半是野蛮生长,一半是规划,这才叫做城市。人工智能与人类也一样,也需要将一定空间留给人类自己。

*向潮新闻记者表示,由于目前的人工智能仍然是一个工具,并不没有能力成为责任主体,应明确区分人与人工智能的界限。人工智能服务于人类时必须做到知情同意,不应被过度拟人化,从而避免人类对于人工智能的过度依赖、过度信任,相应的责任仍应由人类或者相关的研发与使用方承担。

当然,人工智能是重要的赋能技术,应当起到促进全球可持续发展目标的作用。但目前这方面的努力主要聚焦于高利润高回报的领域,例如人工智能赋能教育与健康。然而那些真正关乎人类未来的其他议题,例如促进生物多样性保护、气候行动的实现、减少不平等及增强公平公正等议题,还没有得到太多人工智能技术的关注与赋能。

在*对人工智能未来的设想里,通用人工智能和超级智能很可能如著作《生命3.0》中描述的,成为未来生命的一种形式、人类的伙伴、社会的准成员。“为了不给人类造成生存风险,人类与未来的通用人工智能和超级智能如何和谐共生,这需要提早进行前瞻的设计与准备,不仅仅是技术层面的准备,更是社会、文化认知层面的准备。”

以上就是【AI可能灭绝人类?全球400多位大佬*警告!中科院专家*解读】的相关内容,查看其它ai资讯请关注微咔网

服务及版权声明

根据二〇〇二年一月一日《计算机软件保护条例》第十七条规定:为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。

本网站所有发布的源码、软件和资料,均为作者提供或网友推荐收集各大资源网站整理而来,仅供功能验证和学习研究使用。

所有资源的文字介绍均为网络转载,本站不保证相关内容真实可信,同时不保证所有资源100%无错可用,也不提供相应的技术支持,介意勿下。

您必须在下载后24小时内删除,不得用于非法商业用途,不得违反国家法律,一切关于该资源的商业行为与本站无关。

如果您喜欢该程序,请支持正版源码,得到更好的正版服务。、如有侵犯你的版合法权益,请邮件与我们联系处理【投诉/建议发送至邮箱:3066548754@qq.com】,本站将立即改正并删除。

本声明为本站所有资源最终声明,所有与本声明不符的表述均以本声明内容为准。


微咔网 » AI可能灭绝人类?全球400多位大佬*警告!中科院专家*解读
享更多特权,建议使用 QQ 登录
喜欢我嘛?喜欢就按“ctrl+D”收藏我吧!♡