大卫·查尔默斯:ChatGPT等大型语言模型可以有意识吗?

preview
共1个文件
docx:1个
需积分: 0 1 下载量 134 浏览量 更新于2023-04-30 收藏 868KB ZIP 举报
当我在1990年代初期在印第安纳大学攻读研究生时,我花了很多时间思考人工神经网络。我发表的第一篇文章就是关于语言中主动语态和被动语态转换的神经网络模型。 当然,那时的网络规模较小。学习能力弱,语言模型也很小。随着90年代的推进,神经网络的进展放缓了,我的注意力也被分散到了思考意识的问题,这一思考就是几十年。我一直对机器学习保持着业余的兴趣,并在过去十年中随着神经网络变得更加庞大和强大,持续关注着这一领域的大量研究。但直到今年(2022),我对于神经网络的兴趣和对意识的思考开始碰撞。 这始于OpenAI的Ilya Sutskever发布的这条臭名昭著的推文:这可能意味着今天的大型神经网络具有初步的意识。 几个月后,这个领域爆发了一个轰动事件,谷歌开除了软件工程师Blake Lemoine,他声称在他们的语言模型系统LaMDA 2中检测到了感知能力。这引起了一些头条报道。 这立即引起了很多争议。谷歌表示:「我们的团队已经审查了Blake的担忧,并告知他证据不支持他的说法。他被告知没有证据表明LaMDA具有感知能力(并且有很多证据反对它)。」 关于证据的问题引起了我的好奇心。有哪些证