对于人们质疑 AI 比核武器还具破坏性这一观点,不同的专家和相关人士有不同的看法。
巴菲特认为 AI 的发展让他感到紧张,认为其有做好事或坏事的潜力,就像核技术一样,“精灵”已被放出。
奥特曼表示人工智能虽会带来巨大好处,但也存在坏处,比如可能被卷入左右两派的纷争,若不小心还可能导致军备竞赛式的激增。
杨立昆不太认同 AI 可能带来灾难性后果,认为 AI 系统不太可能成为威胁人类的物种,但指出 AI 武器化存在风险,且随着其在人机交互中的介入,这种威胁会增加。同时,人们面对新技术革命往往会本能地产生恐惧。
总之,AI 的影响具有复杂性和多面性,需要综合看待其带来的好处和潜在风险。
[title]4.4历史更新[heading2]2024年5月[heading3]5月6日《[2024年巴菲特股东大会4万字全文:AI的影响力,堪比原子弹!](https://mp.weixin.qq.com/s/UIcXAQcmFwF4PcMeRY34Zw)》来自笔记侠,巴菲特说:AI的发展,老实说还是让我有些紧张的,特别是最近的一些进展。……所以跟核技术一样,我觉得这个“精灵”在瓶子里被放出去了,我对此一无所知。我觉得AI还是有很大的不管是做好事还是坏事的潜力,只能让它自然而然的在未来发生。
[title]访谈:奥特曼|关于GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切[heading1]Part 9:$7万亿美金的募资我觉得它最终会被左右两派的对立卷入纷争中。我无法确切知道最终会演变成什么样,但不幸的是,任何具有重要性的事物似乎都会如此。至于我之前所说的“戏剧性风险”,我的意思是虽然人工智能将带来巨大的好处,我相信这些好处将远超过坏处,但它确实也会有一些坏处,其中有些坏处虽然严重,却并不具戏剧性。比如,因空气污染死亡的人远比核反应堆造成的死亡人数要多。但大多数人更担忧住在一个核反应堆附近,而不是一个煤炭发电厂附近。这种心理机制很奇怪,尽管我们需要面临许多不同种类的风险,但那些足以成为电影高潮戏份的风险,在我们心中占据的分量要远重于那些持续时间长、但危害累积过程缓慢的风险。Lex Fridman这就是为什么真相至关重要。我希望人工智能能够帮助我们认清事物的本质,达到一种平衡,弄清楚世界上事物实际的风险和危险究竟是什么。在这个领域里,与谷歌、Meta、xAI以及其它公司竞争,各有什么优劣之处呢?Sam Altman我觉得我对这个问题有个挺直截了当的回答,也许以后我能想到更多微妙的地方,不过优势是显而易见的,那就是我们能够以更快更便宜的方式得到更优质的产品和更多的创新,还有所有竞争带来的好处。而缺点嘛,如果我们不留神的话,我担心这可能会导致军备竞赛式的激增。Lex Fridman你感受到那种军备竞赛的压力了吗?就是那种带有一些负面影响的压力。Sam Altman
[title]AI巨头杨立昆的最新3小时访谈聊了些什么谈到开源模型的商业前景,LeCun认为大可不必过于悲观。如果这些模型物有所值,即便免费供应,公司也能从广告和企业服务中获利。他坦言,科技巨头如今困局重重,内有不满的员工、狂躁的高管、内讧的董事会,外有压力团体、极端主义监管机构、政府机构、媒体舆论的接连炮轰,种种乱象无不消解组织的战斗力。归根结底,LeCun笃信开源和多元是祛除AI系统偏见和审查之弊的两剂良方。只要在系统中设置合理的"护栏",我们就能让AI助手更安全、更纯净。即便在仇恨言论和危险言论这样的灰色地带,适度的微调也许是个不错的权宜之计。值得欣慰的是,尽管有学者对AI系统(尤其是语言模型)的社会影响表示担忧,但有理有据的证据尚不多见。比如,迄今为止,还没有确凿的案例表明LLM会怂恿用户制造生化武器。要知道,炮制这类武器需要实打实的专业知识,而这恰恰是LLM的知识盲区。展望未来,LeCun对即将发布的Llama 3和后续版本充满期待。作为真正意义上的开源AI系统,它们有望在感知、记忆、规划、推理等方面不断突破,最终迈向人类水平的通用智能。当然,实现这一宏伟蓝图需要软硬件的协同进化。对于AI可能带来的灾难性后果,LeCun并不十分认同。在他看来,AI系统不大可能成为一个威胁人类的物种,因为它们没有争夺主导权的野心。不过,AI武器化的风险却是实实在在的,因为它们能左右人心,控制民意。随着AI助手不可逆转地介入人机交互的方方面面,这种威胁只会与日俱增。此外,LeCun还从社会学的视角解读了新技术的冲击波。面对颠覆性的文化运动或技术革命,人们往往会产生一种本能的恐惧,唯恐自己的文化、工作、孩子的未来和生活方式受到波及。