认知被 AI 暴击的瞬间

https://podcasts.apple.com/us/podcast/%E8%AE%A4%E7%9F%A5%E8%A2%ABai%E6%9A%B4%E5%87%BB%E7%9A%84%E7%9E%AC%E9%97%B4/id1614381317?i=1000598827531

今天听了一期「认知被 AI 暴击的瞬间》,里面有几个挺有意思的话题 。

“AGI”技术目前存在的哪些问题 ?

首先是算力的问题,早期大家在使用 ChatGPT 的时候应该都遇上了无法响应的情况,包括后来大范围的封号,限制特定机房 IP 段的访问,这些其实都是算力不足的表现。虽然 Google 号称 PaLM 2 的 Gecko 模型可以在手机上运行,具体的文本生成效果和能量消耗情况都没有详细的信息。

其次,ChatGPT 这些 Ai 程序生成的内容并不总能满足需求,有时候甚至觉得有点傻,受限于学习的数据和算法模型,人工智能领域正在挑战其不太擅长的通用人工智能,在专用人工智能方面(比如下围棋)的许多地方,人类早已经不是对手了。

最后,AGI 程序是不能有「价值判断」的,没有价值观就可能生成有害的内容,这些内容甚至可能对人类产生威胁。

人脑和“Ai脑”工作方式的主要区别 ?

人脑的特点是以很低的功耗快速响应,这就是人们喜欢宏大叙事和模式识别的原因。按照康德哲学的观念「人为自然界立法」,客观对象即人的认识对象不是在那里等着你去认识,而是由你的认识过程能动地建立起一个对象。

大语言模型 (LLM)则是通过对大规模语料库的训练和自然语言处理技术的应用,使得模型能够理解和生成自然语言,并能够执行各种语言任务,如文本生成、机器翻译、语音识别等。

人类应该担心被 Ai 取代,甚至还有点恐惧吗 ?

首先,我们应该充分利用 Ai 的能力来完成各种任务,Ai 应该作为人类的 「副驾」而非竞争对手。在国际象棋上出现了人和 ai 相结合的程序,自动判断什么情况用 Ai 判断,什么情况用人类判断,据说打败了不少 master 模型。

Will 老师则提出一个「工具人」概念,只能执行任务没有自己的思想就是工具人。人类和 Ai 的关系可以简单地理解为把机器的工作还给机器,这也会带来生产力的大幅提高。

另外,Ai 是没有价值判断和整合能力的,Ai 可以快速阅读财务报表,快速生成各种基面本信息,但是问 Ai 到底该投资哪家公司,你能相信 Ai 的结论吗 ?或者你用 Ai 生成了一份投研报告交给老板,老板觉得挺好,但可能还是会问你具体的看法,这或许又回到了另一个问题,真的就完全相信 Ai 吗


认知被 AI 暴击的瞬间
https://usmacd.com/cn/ai_thinking/
作者
henices
发布于
2023年5月23日
许可协议