越大并不总是越好。尽管ChatGPT等模型取得了令人印象深刻的结果,但较小的模型和在某一领域成为“专家”的微调模型仍然有其价值。
今天,我想谈谈小型生成人工智能——这些微小的强大力量正在软件开发领域产生巨大影响。
现在,我知道您可能在想什么:“不是越大越好吗?”嗯,不完全是。当谈到人工智能模型时,更大通常意味着更准确和更令人印象深刻的结果。但是(总有一个但是)数据量也带来一些限制和风险。
我们都听说过大型语言模型(LLM),例如OpenAI的ChatGPT、Google的LaMDA和BARD、HuggingFace的HuggingChat、Meta的LLaMA和Amazon的TitanText。令人惊讶的是,在OpenAI取得巨大成功之后,许多公司纷纷加入法学硕士的行列。
这些模型令人印象深刻(至少是那些公开可用的模型),如果没有数百万千兆字节的数据,它们就不可能存在。并非没有原因的是,人工智能产品正在使用参数数量(数十亿)作为基准,就像游戏机制造商在90年代和2000年代初用来谈论比特一样。
但这种规模是有代价的。此类产品的服务器架构非常庞大,而这只是冰山一角:数据收集和清理、工程成本、时间投入等等。这不是那种你周末在车库里自制的产品。
这甚至没有考虑到一些与数据收集、数据挖掘相关的道德问题,以及过去几个月让OpenAI陷入困境的其他话题,比如意大利的禁令。相信我,我们会谈到这一点,但在讨论这些模型的更大问题之前,解释它的最好方法是谈论一个众所周知的经典人物:善良的老苏格拉底。
苏格拉底是古典时期一位神秘而又重要的人物。我们对他的了解几乎都是通过他所谓的弟子柏拉图的眼睛讲述的。对于一些哲学家来说,苏格拉底甚至不是一个真人,而是一个通过对话探索柏拉图哲学的文学工具。
撇开这场争论不谈,苏格拉底最著名的是一个顽固的人,他从每个敢于发表意见的人那里找出答案。苏格拉底式的方法是一个痛苦的过程,在这个过程中,通过提问的行为,所谓的知识被拆除,让位于当前主题背后的“真相”。
他如此热衷于追求真理,以至于最终树敌了,并导致了他的生命。他被指控腐蚀年轻人,被不公正地判处死刑。即使有机会逃脱,他也决定接受命运,因为这是他作为雅典公民的责任。
换句话说,苏格拉底反对doxa,即一群人持有的信念和观点。相反,他孜孜不倦地寻求知识,即“真正的”知识。在那些日子里,我们理解真理的方式有很大不同,但现在,认识就相当于基于事实和证据的知识。
这是一个可悲的事实:当我们过于依赖大型语言模型时,我们就有可能优先考虑信念而不是认识论。该模型也许能够产生令人信服的论据或合理的解释,但这并不一定能证明它是正确的。
原因是双重的。首先,语言模型不像我们那样理解概念(事实上,它们根本不理解)。他们确实很擅长理解哪些词应该放在一起,但不知道为什么它们应该放在一起。这就是当人工智能编造事实时导致幻觉的原因,因为从统计角度来看,这些词放在一起是有道理的。
第二个原因是,世界上大多数数据实际上是希腊语意义上的“doxa”,而不是“episteme”。构建模型所使用的数据相同。现在,在我们讨论该声明的含义之前,我想澄清一些事情:doxa与谎言或谎言不同。相反,它更类似于“半真半假”。例如,大多数人都知道醋可以防止食物变质,但如果问他们为什么会发生这种情况,很可能大多数人都无法解释。
简单地说,模型能说出来并不意味着它能做到。就像我让我那个总是散布登月阴谋论的哥们帮我做历史作业一样。当然,他也许能够对“真正”发生的事情提出一些疯狂的理论,但这并不意味着他对实际的历史事实一无所知。
这就是过度依赖法学硕士的真正危险。我们可能会倾向于相信模型的输出,而不质疑它是否实际上准确或基于确凿的证据。这就像让Magic8Ball做出您所有的业务决策-当然,您可能偶尔会很幸运,但请回答我这个问题:您会乘坐完全按照ChatGPT指令构建的飞机吗?
那么,解决办法是什么呢?与生活中的大多数事情一样,一切都与平衡有关。大型语言模型有其一席之地,但我们需要小心不要让它们完全占据主导地位。我们应该始终质疑模型的输出,检查来源并验证事实。如果我们对某件事不确定,我们应该愿意承认并寻求更多信息。
现在,还有另一种选择。不如,我们不直接依赖LLM,而是将其作为基础,作为用精心挑选的数据构建专业人工智能的起点?就像我们人类一样,我们开始我们的教育之旅时,对所有事物都进行一点学习,随着年龄的增长,我们会专注于特定领域。
相比之下,这些重点模型的范围相当小,但与此同时,它们在特定主题上的输出要可靠得多。这就像用委拉斯开兹的画作微调稳定扩散一样。从那一刻起,这个特定的模型将很难制作各种图像,可以想象,但它会变得像委拉斯开兹一样擅长绘画。
文章均为京上云专业成都软件开发公司,专注于成都软件开发服务原创,转载请注明来自https://www.j1feel.com/news/3583.html