Vitalik Buterin:AI可能会超越人类作为“顶点”

Brayden Lindrea 16分钟前Vitalik Buterin:AI可能会超越人类,因为“ Apex物种”“即使是火星也不安全”,如果超级智能AI反对人类,以太坊联合创始人VIT VIT,

Brayden Lindrea 16分钟前Vitalik Buterin:AI可能会超越人类作为“顶点”

以太坊联合创始人Vitalik Buterin警告说,如果超级智能AI反对人类,“即使是火星也可能不安全”。

93总看法4总股票收听第0:00新闻加入我们的社交网络

以太坊联合创始人Vitalik Buterin表示,超级进取的人工智能(不受限制地)有一个“严重的机会”超越人类成为地球的下一个“顶物种”。

他说,但这将归结为人类如何干预AI的发展。

新的怪物帖子:我当前对围绕技术优势,人工智能风险和避免在21世纪极端集中化的方式的辩论的观点。

– vitalik.eth(@vitalikbuterin)2023年11月27日

在11月27日的博客文章中,Buterin被某些人视为加密货币领域的思想领袖,认为AI与其他最近的发明“根本不同”,例如社交媒体,避孕,飞机,枪支,车轮和车轮和车轮和诸如印刷机 – AI可以创建一种可以违背人类利益的新型“思维”,并补充:

“ AI是一种新的思想,它正在迅速获得智力,它具有超过人类心理能力并成为地球上新的顶点物种的严重机会。”

布特林认为,与气候变化,人造的大流行或核战争不同,超级智能AI可能会结束人类,而不会留下幸存者,尤其是如果它最终将人类视为对自己生存的威胁。

Buterin补充说:“ AI错误可能会使世界变得更糟的一种方式是(几乎)最糟糕的方法:它实际上可能导致人类的灭绝。”“即使是火星也可能不安全”。

巴特林(Buterin)引用了2022年8月的一项来自4,270多个机器学习研究人员的调查,估计AI杀死人类的机会有5-10%。

但是,尽管布特林强调说这种性质的主张是“极端”,但人类也有一些盛行的方法。

大脑界面和技术优势

Buterin建议将大脑计算机界面(BCI)整合起来,以使人类对基于AI的计算和认知的强大形式提供更多的控制。

BCI是大脑电活动与外部设备(例如计算机或机器人肢体)之间的通信途径。

Buterin说,这将使人与机器之间的双向通信循环从几秒钟到毫秒,更重要的是,确保人类在世界范围内保留一定程度的“有意义的代理”。

一个图表,描绘了人类和AI之间的两个可能的反馈回路。资料来源:Vitalik.eth

相关:AI如何改变加密:炒作与现实

布特林建议这条路线会“更安全”,因为人类可能参与了AI机器做出的每个决定。

“我们(我们)可以减少向AI本身卸载高级规划责任的动力,从而减少AI独立于人类价值观完全不和谐的机会。”

以太坊联合创始人还建议“积极的人类意图”将AI朝着人类的方向带来,因为最大化利润并不总是使人类走向最理想的途径。

人类非常好。pic.twitter.com/abofd75ij4

– vitalik.eth(@vitalikbuterin)2023年11月27日

巴特林得出结论,“我们,人类是宇宙中最亮的恒星”,因为我们已经开发了数千年来扩展人类潜力的技术,并希望更多的人:

“从现在起的20亿年,如果地球或宇宙的任何地方仍然具有尘世生命的美丽,那么人类的艺术将是太空旅行和地球工程,这将使它发生。”

杂志:Crypto中的真实AI用例:AI的最佳钱是加密货币

#business #vitalik Buterin #adoption #AI #ChatGpt #openai

添加反应

添加反应

原创文章,作者:新鲜事,如若转载,请注明出处:https://www.53moban.com/14998.html

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息