分层推理模型(Hierarchical Reasoning Model,HRM)是一种受大脑启发的架构,灵感来源于人脑的分层和多时间尺度处理机制。该模型由新加坡AI研究实验室Sapient提出,是一个仅有2700万参数的模型,通过几次简短的"思考"脉冲进行迭代优化。
受大脑启发的分层推理架构在ARC-AGI基准上的表现研究
分层推理模型(Hierarchical Reasoning Model,HRM)是一种受大脑启发的架构,灵感来源于人脑的分层和多时间尺度处理机制。该模型由新加坡AI研究实验室Sapient提出,是一个仅有2700万参数的模型,通过几次简短的"思考"脉冲进行迭代优化。
HRM的架构设计包括两个主要部分:
这两个模块协同工作,共同更新一个共享隐藏状态,模型在"规划"(H)和"细节"(L)之间交替进行,直到内部状态"自我达成一致"并产生答案。
HRM的设计思想体现了以下几个关键创新:
# HRM伪代码示例 def HRM_model(task): hidden_state = initialize_hidden_state() predictions = [] while not should_stop(hidden_state): # H模块:慢速规划 hidden_state = H_module(task, hidden_state) # L模块:快速执行 hidden_state = L_module(task, hidden_state) # 生成预测 prediction = generate_prediction(hidden_state) predictions.append(prediction) # 学习停止信号 if stop_signal(hidden_state) > threshold: break return final_prediction(predictions)
HRM在ARC-AGI基准测试中的表现如下:
对于如此小的模型来说,在ARC-AGI-1上取得32%的得分是令人印象深刻的。ARC-AGI-2明显比ARC-AGI-1更难,因此性能大幅下降是预料之中的。
ARC PRIZE团队对HRM进行了一系列消融分析,得出了一些令人惊讶的发现:
这些发现表明,HRM的方法在根本上与Liao和Gu提出的"无预训练的ARC-AGI"方法相似。虽然分层架构的作用没有得到验证,但论文在其他方面的创新依然值得研究,毕竟模型的表现还是很好的。