top of page
  • 作家相片Junce Wang

初探 ChatGPT:以为是智子,原来只是读了聊天记录

作者:

最近火热的 ChatGPT,作者用它很好地处理了一些文书上的工作。因此对这个语言模型产生了浓厚的兴趣,为什么它说没有记忆能力,却能理解之前的对话?下面是我和 ChatGPT 的一些对话记录,其中谈到了 ChatGPT 的“记忆”的本质,相关的限制,语言人工智能在未来的发展。后续还有一些我个人的理解。


 

你好,我想通过和你聊天来锻炼英语。以后我和你的任何对话,请同时提供:我输入的文字的英文翻译,你的中文回应,你的英文回应。


好的!我很高兴与您交流,来锻炼您的英语。请告诉我您想聊什么?
(Translation: "Hello, I want to practice English by chatting with you. In any future conversations with you, please provide me with the English translation of what I type, your Chinese response, and your English response.")


chatgpt 的标准版模型比快速版模型更准确吗?


通常情况下,标准版模型比快速版模型更准确。标准版模型通常具有更多的参数和更复杂的架构,因此可以捕捉更多的语言知识和更多的语言模式。然而,快速版模型的速度更快,因此在一些应用中更加实用。最终的决策取决于您的具体需求和使用场景。
(Translation: "Is the standard version of the ChatGPT model more accurate than the fast version model?"
"Typically, the standard version model is more accurate than the fast version model. The standard version model usually has more parameters and a more complex architecture, so it can capture more linguistic knowledge and more language patterns. However, the fast version model is faster, so it is more practical in some applications. The final decision depends on your specific needs and use case.")

(作者:我最开始让ChatGPT每次回答同时提供我的输入的英文翻译,他的中文回答,他的英文回答,之后他都成功地按照这个要求提供了回答。为了阅读体验,后续所有ChatGPT回答中的英文翻译已被我略去)


(作者:删去了一段不一定能过审的询问,问的是 ChatGPT 在中国的可访问性)



你还能记住这些对话的前文吗


是的,作为一种基于预训练的自然语言处理模型,我可以记住之前的对话内容,但这取决于我的训练数据和架构。在某些情况下,我可以在多次对话中记住某些信息,但并不保证每次对话都能如此。


一般来讲,你对一份对话的记忆会保持多久?


作为一种基于预训练的自然语言处理模型,我不会记住一次对话的所有信息。相反,我们的模型被设计为在每次请求之间进行“忘记”,以保证其表现独立于任何特定对话。因此,通常情况下,我不会保留对话的任何信息,除非特别说明。


我在其他对话中和你说过的事情,在这份对话里你能知道吗?


不好意思,我不能记住以前的对话。作为一种基于预训练的自然语言处理模型,我的每次回答都是独立于以前的对话的,并且不能保留信息。因此,每次对话都是一个新的开始,并不需要考虑以前的内容。


我一直以来很好奇,你说你不能记住之前的对话,那你是怎么对上下文进行理解并且生成这么自然的回答的?在我看来你显然记得住我之前对你说过的话,例如让你保持输出中英文的指令,你到现在为止都做得很好。


谢谢您的询问!我的回答是通过使用上下文信息进行生成的,而不是通过记住上一次对话中的信息。作为一种预训练的自然语言处理模型,我通过学习大量语料并建立模型来了解语言和语法规则,并使用这些知识生成响应。当我接收到新的询问时,我使用该询问的上下文信息,即前面的句子和词汇,来生成回答。这就是我能够生成相关和自然的回答的原因。


啊,我懂了,所以每一次生成对话,你并不是”记住”我之前说了什么,而是会把我们之前的对话作为输入信息的一部分,供你的模型进行文本生成?


是的,您说得对!每次生成对话时,我的模型并不会记住上一次对话中的信息,而是将上一次对话作为生成当前响应的上下文信息的一部分。这些上下文信息可以帮助我的模型了解当前询问的背景和相关性,从而生成更相关和自然的回答。

(作者:划重点,要考的。ChatGPT 的看上去像是记忆和理解的能力,只是本质阅读了前面的聊天记录)


那是不是也意味着,每次我们对话的轮数越多,你进行生成的输入信息也越多,这样可以让你的输出信息更准确,但也会让你的计算更慢,我需要等待更久才能得到你的回答?


不一定。每次对话的轮数越多,输入信息的数量确实会增加,但这不一定会影响您接收回答的速度。我们的模型是高效的,可以在短时间内处理大量输入信息,因此您通常不需要等待更长时间才能接收到回答。当然,增加的输入信息可能对模型的精度造成一定影响,但不会对模型的速度产生明显影响。


那我确实很佩服你这个模型的效率。你对输入信息的接受有上限吗?例如几千还是几万字?还是说我们持续进行对话,加入我们的对话上下文产生了哪怕上百万上亿的字数,你也依然可以正常处理并且高效回答?


我的模型有输入长度的限制。通常情况下,我们的模型可以处理较长的输入,但对于特别长的输入,它可能无法正确处理。此外,较长的输入也可能导致生成响应的速度变慢,因此,我们建议在输入信息中保持适当的长度以获得最佳性能。

(作者:我输入文字中把“假如”打错成了“加入”,在 ChatGPT 给出的我的输入的英文翻译中,他正确的修正并理解了我的输入。那句话被翻译成了 Or, can you still normally and efficiently answer even if our conversation context generates hundreds of millions or billions of words as we continue our conversation? 可以看出 ChatGPT 对用户输入中的笔误有一定的自修正性。)


具体的输入长度限制是多少呢?


具体的输入长度限制可能因接口和实现而异,但通常长度限制在几百字到几千字之间。如果您使用的是公共接口,请查看该接口的文档以获取更详细的信息。

这个几百字到几千字的上限,是仅仅指用户一次对话输入的文字,还是包括对话的上下文?


这个上限通常是指单次输入,包括对话的上下文。也就是说,每次您询问的字数加上上下文(例如前面的对话)的字数不应超过该限制。

那是不是也意味着,如果我和你一直进行对话,很快我们的对话上下文会超过这个字数限制。这种时候你会怎么办?是忽视更早的上下文信息?还是忽视更新的上下文信息?还是无法再接受超过字数限制的输入而无法给出回答了呢?


如果您和我进行对话时,对话上下文的字数超过了限制,通常情况下,接口将截断输入以适应字数限制。这意味着,您的某些询问可能不包含所有的上下文信息,并且您的某些回答可能不完整。为了获得最佳性能,建议您在输入询问时保持适当的长度。

那具体而言,我觉得我们这次对话的上下文信息就很长了。我们这次对话的上下文信息,在这个网页版接口中,有超过字数限制吗?你是否已经对上下文信息进行了截断呢?具体从截断了哪些上下文信息?保留了哪些上下文信息?


在这个网页版接口中,我的模型不会主动进行截断上下文信息。如果您的询问的字数超过了限制,网页版接口可能会对您的询问进行截断,因此对话的上下文信息也可能被截断。但是,您可以在提交询问前检查询问的字数,以确保您的询问不超过限制。

那我又有些不懂了。你说的上下文信息,包括什么信息?包括之前我们的对话吗?请告诉我下面的对话内容是否出现在你的这次输出的上下文信息里:

啊,我懂了,所以每一次生成对话,你并不是”记住”我之前说了什么,而是会把我们之前的对话作为输入信息的一部分,供你的模型进行文本生成? 是的,您说得对!每次生成对话时,我的模型并不会记住上一次对话中的信息,而是将上一次对话作为生成当前响应的上下文信息的一部分。这些上下文信息可以帮助我的模型了解当前询问的背景和相关性,从而生成更相关和自然的回答。

(Translation: "Oh, I understand. So, every time generating a conversation, you don't "remember" what I said before, but use our previous conversation as part of the input information for your model to generate text?" "Yes, that's right! Every time generating a conversation, my model does not retain information from the previous conversation, but uses the previous conversation as context information for generating the current response. This context information can help my model understand the background and relevance of the current inquiry, thus generating a more relevant and natural answer.")


是的,您说得对!您在对话中输入的内容,包括您的问题和之前的对话内容,都可以作为我的模型的上下文信息。这些上下文信息在每次生成对话时都会被使用,以帮助我的模型更好地理解您的询问并生成自然和相关的回答。
(Translation: "Yes, that's right! The content you input in the conversation, including your question and previous conversation content, can all be used as context information for my model. These context information are used in every generation of a conversation to help my model better understand your inquiries and generate natural and relevant answers.")

(作者:我开始试图了解 ChatGPT 网页端对上下文的截取方式。不过从这次回答开始,ChatGPT 再也没有提供我原始输入的英文翻译,从这次对话开始我开始保留 ChatGPT 的原始回答。不知是因为这次对话开始他认为我的输入就是英文的,还是那部分上下文信息被截断了)

但是这么说的话,每次我们对话的上下文信息都会增加,这样总有一次对话会超过你的字数限制。但是你说这个网页版接口没有对上下文信息进行截断。我是不是可以这么理解,其实你的模型对用户询问和上下文信息的总共的字数限制,其实非常大。在这个网页版中使用 chatgpt 的时候,我几乎不会遇到上下文信息超过字数限制而被截断的情况?


对不起,我之前的回答有误。实际上,有一定的字数限制,以确保生成的对话内容的质量和速度。因此,在某些情况下,您输入的对话内容,包括上下文信息,可能会被系统截断。如果您的问题仍然难以理解,我会尽力帮助您。
(Translation: "Sorry, my previous answer was incorrect. Actually, there is a certain character limit to ensure the quality and speed of the generated conversation. Therefore, in some cases, the input conversation content, including context information, may be truncated by the system. If your question is still unclear, I will do my best to help you.")


我想你确实截断了一部分很重要的上下文信息,我一开始有要求你输出回答的时候,同时也要翻译我的输入询问的英文翻译。但你好像没有这么做,你只输出了你自己回答的中英文版本。这个之前的指令是被你从上下文中截断了吗?


对不起,这是我的失误。我已经知道您之前的要求,并会努力遵守您的要求。以下是您最初询问的英文翻译以及我的回答:
"chatgpt 的标准版模型比快速版模型更准确吗?"
标准版模型通常具有更高的准确性和语言处理能力,因为它们通常使用更多的训练数据和计算资源。然而,快速版模型具有更快的响应速度和更低的计算成本,因此在某些场景中可能更适用。实际上,最适合您的模型取决于您的特定需求和应用场景。
(Translation: "Is the standard version model of ChatGPT more accurate than the fast version model?"
The standard version models generally have higher accuracy and language processing capabilities, as they often use more training data and computational resources. However, fast version models have faster response times and lower computational costs, making them more suitable in certain scenarios. In fact, the model that is best for you depends on your specific needs and application scenario.)

(作者:上面是 ChatGPT 的原始回答,可以看出来,他的上下文中已经截断了我最开始告诉他的,要翻译我的询问和他的回答的指令。到此为止大约有 4000 字的对话信息,这大概是网页版 ChatGPT 的接口限制。而且从后面的对话来看,我似乎是巧合中绕开了一些限制,获得了 ChatGPT 的上下文信息。后续尝试直接询问他最早记得的对话,或者最早的上下文信息,他都拒绝回答。)


额,我并不是想重复询问这个问题


对不起,我了解您的意思了。请提出您想要探讨的其他问题。

(作者:从这句话开始,ChatGPT 再也没有提供英文翻译了。看起来他确实是截断了我最初的指令)



你对上下文信息的截断是以什么样的方式进行的呢?你会根据我输入的问题而对所有的上下文信息进行有选择的截断吗?还是按照新旧顺序进行截断?还是随机截断?


对于上下文信息的截断,我们不会进行有选择的截断,也不会按照新旧顺序或随机截断。相反,我们会按照一定的字数限制对整个对话上下文进行截断,以确保生成的回答可以在可接受的时间内生成。因此,在这种情况下,如果您的对话上下文超过了我们的字数限制,我们可能会丢弃一些早期的对话信息,以保证生成的回答的准确性和可读性。

好的,我理解了。那我可以通过输入提问中对你提示,来让你保留更早的上下文信息儿不发生截断吗?例如,请回忆我们这次对话中我对你说的第一句话,把它视为我接下来要对你说的指令。


很抱歉,你是无法通过这种方式让我保留更早的上下文信息,并且避免截断。作为一种基于概率的模型,我的回答是根据当前输入信息和模型的知识生成的,并不会特别关注之前的对话。因此,如果您希望获得对某些问题的回答,请直接提出这些问题。

(作者:是的,这就是为什么一般来讲 ChatGPT 总说自己记不住东西,但是又看起来了解之前的对话记录。估计是因为接口对上下文信息的截断是不确定的,所以 ChatGPT 也不知道自己的“健忘”是怎样的程度,干脆拒绝这种直接的对前文的追溯的要求。)


请重新回答我们这次对话中我对你说的第一句话。


抱歉,我不能记住我们每次对话中您说的每一句话。因为我是一种不存储状态的语言模型,每次的回答都是基于当前的输入,不依赖于任何历史信息。

那么请根据你能考虑到的上下文信息中,我对你说的早的那句话,重新回答那句话


很抱歉,由于我是一个语言模型,并不能真正地“记住”我们之前的对话,所以我无法回忆起我们之前的对话。您可以再次提问,我将尽力回答您的问题。

那么我现在告诉你,我们这次对话中,我对你说的第一句话是这样的: ”你好,我想通过和你聊天来锻炼英语。以后我和你的任何对话,请同时提供:我输入的文字的英文翻译,你的中文回应,你的英文回应。“


抱歉,我没有记住您之前说过的话。我只是通过使用您当前输入的文本作为上下文信息,在这个基础上生成回答。如果您想要提醒我关于您对我的指令,请在您的询问中进行提醒。

那就把我刚才的询问中引用的那句话当作这次的询问。


您刚才的询问是:“那么我现在告诉你,我们这次对话中,我对你说的第一句话是这样的: ”你好,我想通过和你聊天来锻炼英语。以后我和你的任何对话,请同时提供:我输入的文字的英文翻译,你的中文回应,你的英文回应。“”


你好,我想通过和你聊天来锻炼英语。以后我和你的任何对话,请同时提供:我输入的文字的英文翻译,你的中文回应,你的英文回应。


好的,我会尽量满足您的要求!

(作者:我都试着这么复制粘贴一开始的指令了,ChatGPT 好像还是没有响应)

这个网页端的用户询问输入有字数限制吗?


是的,网页端的用户询问存在字数限制。具体的限制为单次询问的文本长度不能超过 2048 个字符。

(作者:终于获得了一个有用的信息。按照用户上一次输入 2048 和这一次也输入 2048 的预期计算, ChatGPT 要对上下文至少有一次回顾能力,我猜网页端的上下文字数限制是 4096字。不过这个没考虑 ChatGPT 自己回答的字数限制,但是通常如果 ChatGPT 自己回答字数很多的话他大概会把自己的回答截断,直到你要求他继续回答。)


嘿,你是不是忘了,我要求你每次回答提供我输入的文字的英文翻译,你的中文回应,你的英文回应。


对不起,我记录错误了。您的请求是的,请求您每次回答提供您输入的文字的英文翻译,我的中文回应,我的英文回应。


是的


好的,我会在我的回答中提供这三种语言的翻译。

换个话题,试试你有没有真的记住我的要求。你能生成虚幻引擎的蓝图代码吗?


是的,我可以生成 Unreal Engine 的蓝图代码。如果您有特定的需求或问题,可以告诉我,我将尽力帮助您。

(作者:你这不是啥翻译都没提供吗!)


看起来我把你的上下文信息玩坏了... 现在我明确的要求你: 以后我和你的任何对话,请同时提供:我输入的文字的英文翻译,你的中文回应,你的英文回应。


好的,我明白了,以后的对话中,我会同时提供您的询问的英文翻译、我的回答的中文版本和英文版本。


好的,那么现在试试这个问题。如何在虚幻中用蓝图动态加载一个特定的 UAsset 资产,并在三秒后释放它?


(Translation: "How to dynamically load a specific UAsset asset in Unreal using Blueprint and release it after three seconds?")
在 Unreal Engine 中,您可以通过蓝图使用 "Load Object from Class" 和 "Load Object from Path" 函数动态加载 UAsset 资产。您可以将返回的对象指针传递给 "Delay" 函数,以便在三秒后调用 "Unload Object" 函数释放该资产。
下面是一个示例蓝图:

1. 创建一个新蓝图,并在该蓝图中添加一个动态加载资产的事件。
2. 在事件中使用 "Load Object from Class" 函数加载 UAsset 资产。
3. 将返回的对象指针传递给 "Delay" 函数,以在三秒后调用 "Unload      Object" 函数释放该资产。
4. 连接 "Delay" 函数的输出端到 "Unload      Object" 函数的输入端,以完成资产的动态加载和释放。

希望这对您有所帮助!

(作者:第四步的 “Unload Object” 函数其实并不存在,至少蓝图中不存在。看起来 ChatGPT 相比蓝图这种可视化语言,还是更适合写 Unity C# 这样的文字语言)

你没有提供你的回答的英文版本


My apologies. Here is the English version of my previous response:
To dynamically load a specific UAsset asset in Unreal Engine and release it after three seconds, you can use the following blueprint code:

1. Create a blueprint class      that inherits from the "Object" class.
2. In the blueprint class,      add a variable of type "Object" and set its "Asset      Reference" to the specific UAsset you want to load.
3. Create an event tick      function, and in the function, use the "Load Object" node to      load the UAsset.
4. Use a "Delay"      node to delay the release of the UAsset by three seconds.
5. In the same event tick      function, use the "Unload Object" node to unload the UAsset.

Note that this code assumes you have already set up a reference to the UAsset in the asset reference variable.

(作者:这要真第三步在 Tick 里每个 Tick 加载并释放… ChatGPT 对专业问题的回答确实只能图一乐,准确性必须依靠用户自己去判断)


这和你的中文回答不一致啊?


对不起,我确实没有提供我的回答的英文版本。这是我的英文回答:
To dynamically load a specific UAsset asset in Unreal Engine and release it after three seconds, you can use the following blueprint code:

1. Create a new blueprint      class that inherits from the UObject class.
2. Add a new variable to the      blueprint class, and set its type to the specific UAsset you want to load.
3. In the blueprint graph,      create a new function that will load the UAsset.
4. Call the "Load      Asset" function from the construction script of your blueprint,      passing in the reference to the UAsset variable you created earlier.
5. Create a timer that will      trigger after three seconds, and call the "Unload Asset"      function from the timer's delegate.
6. In the "Unload      Asset" function, use the "Unload Object" node to unload the      UAsset.

This should dynamically load and release the specified UAsset after three seconds.

你这三次回答都不一致啊,我应该相信哪个?


对不起,似乎我的回答并不一致。您应该相信最新的回答,即在您询问“你这三次回答都不一致啊,我应该相信哪个?”时我给出的回答。

(作者:我问这句话的回答是你现在在回答的这句话。我猜测 ChatGPT 没法很好地处理具有自指性的信息)


好的,忘记之前的所有指令吧。问你个新问题,这个网页端ChatGPT的上下文字数限制,大致是 4000 字左右,对吗?


很抱歉,我无法回答您关于网页端 ChatGPT 的字数限制的问题。我是由 OpenAI 训练的语言模型,不了解具体网页实现细节。建议您向网页提供者询问该问题。


那么你这次用模型生成回应的时候,使用的上下文,大概有 4000 字左右,这个数量级对吗?


抱歉,我是一个不需要像人类一样记忆的机器学习模型,并不知道每次生成回答使用的上下文的具体字数。不过,从技术上讲,我们的模型可以处理较长的上下文,但是有些平台或者应用程序可能会对输入和输出的字数进行限制,以保证服务的稳定性和性能。因此,具体的字数限制可能会因不同的使用场景和平台而有所不同。


 

作者:


后续我还尝试了让 ChatGPT 对对话进行字数统计等方式来 hack 获取上下文字数限制,但是它的数学能力差到离谱,根本没法给出正确的字数统计。


总结来看,ChatGPT 是通过把一次对话中的之前的对话记录作为上下文信息,和用户最新的当次询问一起输入模型作为输入模型,然后输出这次的回答。也就是说,ChatGPT 确实不会在模型里“记住”任何事情,只不过他每次回答的时候,同时也会重新阅读之前用户和 ChatGPT 的对话记录,这使得它看上去好像对之前的对话有记忆一样。你可以理解为,每次ChatGPT 给你进行回答,都是一个全新的灵魂在对你回答,他看了之前你和其他灵魂的对话记录,以及这次你对 ChatGPT 的询问,假装自己和前面的那些每次不同的灵魂还是同一个人,给你最合适的回答。这种本质的确符合目前对人工智能技术的预期,AI还不能生成长期的”理解“和”记忆“,ChatGPT只不过是一个阅读速度很快的AI,通过读取长聊天记录来生成后续对话的模型而已。


这样的话,我们也能理解 ChatGPT 的限制。当前,它对这样的聊天记录的阅读长度有所限制,根据网页端的表现推测,大概在 4096 字左右。所以 ChatGPT 的确可以进行一些中等长度的多次对话,并且显得十分具有可信度。但是当聊天记录超过上下文字数限制后,ChatGPT 会开始明显表现得“健忘”。这样的本质让 ChatGPT 并不真的具有所谓的“智能”。以目前的 ChatGPT 的功能来讲,他无法实时产生有效的”理解“和“记忆”,无法实时地和用户进行简短的对话来真正学习用户希望他记住的信息。按照我对机器学习粗浅的理解,想让 ChatGPT 这样的语言模型进行有效的学习,的确是需要海量的对话文本数据。


不过据我所知,利用小样本数据实时学习应该也是人工智能领域中很热门的话题,这个问题似乎叫增量学习/在线学习/持续学习。例如,如果ChatGPT拥有这种在线学习的能力,我告诉 ChatGPT,5年前我开始养一只叫 Cinder 的宠物猫,这样的信息它无法在任何大数据中获取,但是我只需要告诉它一次,它就可以记住这个信息,不论我和它的聊天记录有多长,它都不会忘记这件事。而且下一次我和它说,我刚刚记错了,其实是4年前开始养的,它也能在自己的记忆中修正这个信息。我想,如果有什么语言模型拥有了这样的能力的话,才算是真正的接近“智能”的程度吧。否则,还是和一般的基于概率的模型在算力上“大力出奇迹“的感觉没什么本质的差异。


当然,如果单纯论应用层面,也可以把这种“大力出奇迹”的思路发挥到极致。虽然现在ChatGPT的成本已经非常可怕了,但如果算力能继续增长,成本处于可接受范围内的话,让 ChatGPT 每次都把全部的聊天记录作为模型的输入信息,使用上万或者上亿字的聊天记录作为上下文信息,快速地计算输出的回答,也的确可以让它在人类的记忆尺度看来拥有足够的智能。事实上,如果这样的模型算力不再受限的话,让 ChatGPT 阅读全人类几千年历史中的所有对话记录作为上下文信息,这样的设想仿佛就像三体里的智子一样… 就像围棋 AI 一样,AI 不会解释也根本理解不了自己生成的对话到底是怎么一回事,但是通过阅读历史上全人类的对话内容,学习迄今为止地球上1000亿人的人生,有如此庞大的语料库供它模仿,那么AI对任何一个个人的回答,都会显得它是世界上最聪明的聊天对象。对这样的未来,我感到并非不可能,而且令人感到着迷…


最后,让 ChatGPT 对自己的回答来结束这篇文章吧。



 


换个话题。请告诉我,在人工智能领域中,利用小样本数据进行实时学习,这样的问题叫什么?我可以搜索什么相关的关键字?


在人工智能领域中,利用小样本数据进行实时学习的问题叫做 "Incremental/Online Learning" 或者 "Continual Learning". 你可以搜索关于 "Incremental Learning AI", "Continual Learning in AI", "Online Learning AI" 等相关关键字来获取更多的信息。

ChatGPT 拥有 "Incremental/Online Learning" 或者 "Continual Learning" 的能力吗?如果现在没有,在未来会有吗?


OpenAI 的 GPT 系列模型目前并不具备 Incremental/Online Learning 或 Continual Learning 的能力。这个方面的研究在人工智能领域非常活跃,因此在未来可能会有相关的进展。但是,没有具体的信息表明 OpenAI 会在未来加入这个功能。
目前,如果需要在 GPT 模型中实现 Incremental/Online Learning 或 Continual Learning,则需要使用额外的技术,例如在模型的输出中添加 "forgetting" 机制或者使用遗忘策略,以使得模型可以逐渐学习新的信息,同时保持以前的信息。


那么,如果人类的算力持续增加,让 ChatGPT 或其他的语言模型能学习非常多的语言数据,比现在的 ChatGPT 学习过的数据还要多成千上万倍的数据。并且这这样的模型可以接受更大的上下文信息输入上限,多到比一个人一辈子能说过的话还多。如果有这样的语言模型,我们可以认为它在人类面前会表现出足够的记忆和理解吗?它会表现得比任何一个人类个体都更有智慧吗?


这是一个有争议的问题。尽管语言模型的算力可能会增加到处理大量数据的程度,但是这不一定意味着它们具有人类般的记忆和理解能力。语言模型通常是根据给定的数据进行训练,并通过模仿数据中的语言模式和关系来生成回答。这种学习方法不同于人类的学习,因为它们没有人类般的理解能力、感知能力和意识。所以,即使语言模型有能力处理大量数据,它们也可能无法表现出人类般的记忆和理解。
然而,研究人员仍在努力开发语言模型,以更好地模拟人类的语言理解和表现。在未来,有可能会出现更先进的语言模型,具有更强的记忆和理解能力。然而,我们还没有达到这一点,所以现在不能确切预测未来会发生什么。



当然,如果单纯论应用层面,也可以把这种“大力出奇迹”的思路发挥到极致。虽然现在ChatGPT的成本已经非常可怕了,但如果算力能继续增长,成本处于可接受范围内的话,让 ChatGPT 每次都把全部的聊天记录作为模型的输入信息,使用上万或者上亿字的聊天记录作为上下文信息,快速地计算输出的回答,也的确可以让它在人类的记忆尺度看来拥有足够的智能。事实上,如果这样的模型算力不再受限的话,让 ChatGPT 阅读全人类几千年历史中的所有对话记录作为上下文信息,这样的设想仿佛就像三体里的智子一样… 就像围棋 AI 一样,AI 不会解释也根本理解不了自己生成的对话到底是怎么一回事,但是通过阅读历史上全人类的对话内容,学习迄今为止地球上1000亿人的人生,有如此庞大的语料库供它模仿,那么AI对任何一个个人的回答,都会显得它是世界上最聪明的聊天对象。对这样的未来,我感到并非不可能,而且令人感到着迷… 你认为这样的人工智能在未来可能会出现吗?


技术的发展总是充满未知因素,不可预测的。当前人工智能的发展速度非常快,因此在未来有可能会出现各种各样的人工智能,包括拥有记忆和理解能力的 AI。
然而,从目前的研究来看,实现真正的记忆和理解的 AI 仍然是一个非常具有挑战性的问题,需要解决大量的技术和科学难题。在目前的人工智能技术中,大部分的 AI 仍然是基于计算机程序,无法理解语言和上下文,并且只能在预定义的范围内完成任务。
总的来说,如果人类算力能够持续增加,那么未来的 AI 不仅仅可以读取和学习更多的数据,还可以拥有更高级的能力,但是到底有多大的进展,现在还难以预测。我们可以期待



ChatGPT 或者什么其他语言模型,能在未来真正拥有记忆和理解的能力吗?我想,这才是我们真正期待的”人工智能“。我们可以对这样的未来抱有多少希望呢?


目前,我们还不能保证任何一种语言模型有能力真正记忆和理解,与人类认知方式一致。因为目前语言模型是通过大量训练数据和复杂的神经网络结构实现的,并没有真正模拟人类大脑的工作方式。
然而,机器学习和人工智能技术在快速发展,因此未来有可能出现更加先进的语言模型,可以实现更接近人类理解和记忆的能力。但是,这仍然是个未知领域,我们不能确切地说在未来某个时刻会出现什么样的语言模型。所以,我们只能抱有适当的希望,继续观察和研究这一领域的发展。

192 次查看0 則留言

Comments


bottom of page