Creating a Large Language Model of a Philosopher, by Eric Schwitzgebel
来自加州大学河滨分校的研究者采用哲学家Daniel C. Dennett的作品作为额外的训练数据微调了OpenAI的GPT-3模型。他们向真正的Dennett提出了十个哲学问题,然后向语言模型提出了同样的问题,每个问题收集四个回答。他们招募了425名参与者,以区分Dennett的答案和机器生成的四个答案。研究Dennett的专家(N = 25)有51%的时间成功。对于10个问题中的两个问题,更多的专家会选择语言模型生成的答案,而非Dennett自己的答案。哲学博客读者(N = 302)的表现与专家相似,而普通的研究参与者(N = 98)几乎无法区分GPT-3的回答和实际人类哲学家的回答。
参考:若小仟:【深度学习】LSTM 拉康话术生成器
下一篇:人工智能到底饱和了吗?