导读: 编辑多年来一直对我说,只是半开玩笑说,总有一天我会被机器人取代。许多编辑宁愿处理机器而不是记者。然而,我们还没到那里。我一直在玩GP...
编辑多年来一直对我说,只是半开玩笑说,总有一天我会被机器人取代。许多编辑宁愿处理机器而不是记者。
然而,我们还没到那里。
我一直在玩“GPT-2”,这是一个由非营利性硅谷公司OpenAI开发的程序。GPT-2使用机器学习自动生成几行似乎人类写作的段落。这是由OpenAI于周五发布的一批新代码,它比2月份宣布GPT-2时首次发布的代码更强大。
不幸的是,这个新代码并没有那么令人印象深刻。偶尔闪现的光彩与许多胡言乱语混杂在一起,创作迅速变得令人厌倦。
有什么问题?可能是更强大的软件版本会产生重大影响。或者从根本上说,机器学习方法仍然需要做很多工作才能结合因果推理和逻辑结构的形式。
为了试用GPT-2,我从Github下载了代码。这不是GPT-2最强大的版本。当OpenAI在情人节宣布GPT-2时,他们表示该程序具有潜在的危险性,因为它能够产生大量的假写作。出于这个原因,他们拒绝发布最复杂的GPT-2版本。初始代码版本只有117个“参数”,即GPT学习的变量,用于计算单词组合的概率。
这只是完整版中15亿个参数的一小部分。更多参数更好。周五,OpenAI发布了一个拥有3.45亿个参数的版本。
在我的计算机上,我安装了Docker以运行GPT-2运行的容器。设置完成后,可以很容易地使用GPT-2代码转到文件夹,并在命令提示符下在终端窗口中启动运行。