复旦教授从哲学角度看ChatGPT:或加剧人类“自欺”

行业 2年前 (2023) Ai导航
5,333 0

近日,复旦大学庆祝建校118周年相辉校庆系列学术报告拉开帷幕。复旦大学哲学学院教授徐英瑾以“从人工智能哲学的角度看ChatGPT”为题登台开讲。徐英瑾从哲学角度分析了ChatGPT这一技术的主要弊端——将“常人”的意见予以全面的机械化复制,从而加剧人类“自欺”现象的泛滥。

复旦教授从哲学角度看ChatGPT:或加剧人类“自欺”
图为徐英瑾。复旦大学供图

徐英瑾是一名博士生导师,兼任中国知识论专业委员会副秘书长、中国现代外国哲学专业委员会理事等。他主持了国家社科项目“基于信息技术哲学的当代认识论研究”等多项国家级、省部级项目,主要从事人工智能哲学、英美分析哲学的研究。

“理解ChatGPT的本质并不困难。”徐英瑾介绍,ChatGPT的英文全称是Chat Generative Pre-trained Transformer,其中Chat(聊天)一词,在人工智能领域地位特殊,这源于图灵测验的一项发明——早已出现的“聊天盒(chatbox)”技术。而ChatGPT作为一种大型语言模型,是“传统神经元网络技术+深度学习技术”的进阶版,通俗来说,就是通过数学建模建造出一个简易的人工神经元网络结构。

尽管ChatGPT的语言通顺程度和机器翻译水平令人赞叹,但徐英瑾指出,人工智能的进步,实际上是统计学意义上的进步,是通过不断迭代的大规模数据集和人工语料训练后“野蛮投入”的结果,因此,纵使ChatGPT看到“路遥知马力”能接上“日久见人心”,但它并不能真正理解中文诗词的精妙内涵。

从海德格尔哲学的角度看,这种人工智能系统训练方式将不得不把“常人”的意见加以建制化与机械化。徐英瑾说,从机器的视角看,一个正确的意见就是被大多数人所认可的意见,因此,少数“异类”提出的“离经叛道”之说在技术上就会被过滤掉。

“这需要我们的高度警惕。”徐英瑾说,假如ChatGPT技术在托勒密的时代就出现,哥白尼的“日心说”恐怕就会永远被判定为错误答案。

而由于人工智能训练与当下总是存在时间差,“无法面对未来”是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。

人工智能未来到底走向何处?在他看来,要想真正走通人工智能道路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”,“大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装,真正识别人类的精神内核,人工智能仍在路上。”

版权声明:Ai导航 发表于 2023-05-16 14:16。
转载请注明:复旦教授从哲学角度看ChatGPT:或加剧人类“自欺” | Ai导航

相关文章