最近对 ChatGPT 影响的一些看法让我忍不住翻白眼。
关于这个主题的内容层出不穷,许多媒体和评论员都争先恐后地报道这个主题。不止一次来到这个低谷而感到内疚。
我回到了这个主题,因为一般报道似乎忽略了生成人工智能的要点。它要么是一个世界末日装置,要么是一个危险的噱头。
您将了解该技术如何窃取您的工作、产生事实上不准确的数据,或者如何将其用于“生产力黑客”。是的,这些引言令人不寒而栗,因为坦率地说,如果您需要聊天机器人来帮助您起草电子邮件,那么您就有更大的问题需要担心。
只需使用该工具就可以发现,虽然它是一项技术奇迹,但它也有明显的局限性。这是没有分析能力的反流。因此,当我读到 Futuirism 对《男性杂志》上人工智能创建的一篇关于男性低睾酮水平的文章进行审查时,其中包含“许多不准确和谎言”,我对编辑工作流程比错误更感兴趣。
《男性杂志》是如何构建人工智能提示的?审阅该文案的编辑是该主题的专家吗?是否使用了编辑或将其交给了校对员?我没有答案,但我确实有怀疑。
事实上,我们距离信任机器能够完成完整的工作还差得很远。自从 2005 年我对一周的工作经验进行争论以来,我一直在专业领域进行编辑,我可以告诉你:我不相信人类(包括我自己)能够整理出他们自己的无错误初稿想法。
关于这项技术有很多东西需要学习。甚至人工智能提示也是一个新兴领域。
作为一个从小就热爱电子游戏的人(尽管缺乏享受游戏所需的空闲时间,但仍然喜欢电子游戏),我熟悉“新兴游戏玩法”的概念。在这里,游戏开发者构建了一个具有清晰规则集的世界,然后玩家找到了与该世界互动的新的、意想不到的方式。一个典型的例子是《精英危险》中的“燃料鼠” 。
我认为新兴游戏玩法与我们的生成式人工智能之间存在相似之处。需要进行大量的试验和错误才能了解如何充分利用 ChatGPT 等工具,而这些实验将花费宝贵的时间。
如果您花了一点时间使用 ChatGPT,那么您就会掌握提示的工作原理。不过,您可能还没有看到它的去向,如果是这种情况,请观看此YouTube 视频。本频道深入探讨了如何构建一系列自引用提示的复杂性,这些提示的内容远不止几行。
然而,我特别感兴趣的是评论部分的对话,根据 OpenAI 的说法, 内存限制为 4,000 个令牌
越来越多的用户社区正在共同努力寻找最有效的工具使用方法。我们都需要尽力跟上高级用户的步伐。利亚姆·曼尼克斯 (Liam Mannix) 在《悉尼先驱晨报》上对此案进行了论证,指出那些学习如何利用该技术的人可以有效地成为“人工智能神谕” 。与此同时,一月中旬对萨蒂亚·纳德拉 (Satya Nadella) 的采访强调纳德拉指出,一些最优秀的人工智能开发人员已经在使用人工智能来接管许多重复性任务,使他们能够专注于更有生产力的任务。