大模型-未来已来
最近参加公司举办的 AIGC 比赛,准备过程中开始学习如何使用 chatgpt,也就是接触了提示工程学科。非常震惊于大模型的能力,掌握一定诀窍的和它对话,如同和一个领域专家对话。
理解人工智能的思维
人工智能的大脑由数十亿个人工神经元组成。这些神经元的结构被称为 transformer 架构,它是一种相当复杂的神经网络类型。你需要了解的是:
- 这些人工智能只是数学函数。它们更像是f(成千上万的变量) = 成千上万种可能的输出
- 这些人工智能通过将句子分解成称为标记(tokens)的单词/子单词(例如,AI 可能将 “I don’t like” 作为 “”I”, “don”, “‘t” “like””))来理解句子。然后,每个标记都被转换为一组数字,以便人工智能进行处理。
- 这些人工智能根据前面的单词/标记预测句子中的下一个单词/标记(例如,人工智能可能会在 “I don’t like” 后面预测 “apples”)。它们写下的每个标记都基于它们以前看到和写下的标记;每次它们写下一个新标记时,它们都会停下来思考下一个标记应该是什么。
- 这些人工智能同时查看每个标记。它们不像人类那样从左到右或从右到左阅读。
个人感觉人工智能整体表现的能力和人类的思维特别像。最神奇的是目前人类也不知道“大力出奇迹”的训练结果会产生这么“变态”的“涌现”能力,整个大模型的原理目前看来还是一个黑盒,我们只能借助提示工程去发挥它的能力。
我猜想,如果搞个机器人,给它装上各种传感器,让它可以看到世界,并且提前训练好对外界事物的认知模型,配上大模型作为核心大脑,那一个真正意义上的机器人真的造出来了。
总结
本篇随笔不具备专业角度,需要理性看待
了解了它的能力,我觉得它对我的生活有如下改变:
- 将它融入日常的 API 和新的编程语言学习过程中,它处理代码能力是非常强的。同时,也应该明白会编程语言已经不构成技术优势了。底层原理,工作经验才是更重要的
- 专注于训练逻辑推理能力,目前大模型欠缺的就是逻辑推理能力,而科研人员目前都不知道大模型的能力是怎么产生的,我想,短时间内,大模型肯定无法解决这个问题的
- 大模型的能力不可怕,可怕的是极其擅长使用大模型的人。
- 一些日常的文档梳理,甚至博客都可以让大模型代笔,毕竟自己的文字有的时候逻辑都不通。
- 关注于新技术,大模型今年年初就爆火了,当时没有深入了解它的能力,现在确实是有点晚了
大模型-未来已来
http://ttoobbyyy.github.io/2023/11/05/大模型杂谈/