该算法***将不同的目标设定方法统一在一个与物理直接相关的概念之下,并且进一步使这种计算变得透明,以便其他人可以研究和采用它。目前该论文已发表在 《PRX Life》期刊上,篇题为《Intrinsic Motivation in Dynamical Control Systems》,该研究引入了人工智能(AI)公式,可以计算出机器人无需直接指令或人工输入就能决定未来行动的方法。 ▍研究人员不再依赖奖励函数方式 而是采用代理环境系统的动态特性推导 生物体能够在没有明确奖励信号的情况下,自主选择并执行一系列行为以解决新挑战,这种能力被称为“内在动机”(Intrinsic Motivation)。然而,这种行为的计算原理至今仍不清楚。现有的机器学习方法,尤其是强化学习(Reinforcement Learning, RL),大多依赖于明确的奖励函数来指导学习过程。但在现实世界中,设计恰当的奖励函数往往非常困难,且可能引入主观性和复杂性。 为此赫特福德大学研究团队提出了一种基于信息论的新方法,通过***大化代理(agent)的“能力值”(empowerment),即过去行动与未来状态之间的互信息,来引导内在动机行为。该方法不依赖于具体的奖励函数,而是直接从代理-环境系统的动态特性中推导出来。 互信息衡量了两个随机变量之间的共享信息量,该研究将其应用于衡量代理的潜在行动与未来系统状态之间的信息量。通过***大化这一互信息,即“能力值”,代理能够选择那些在未来能够产生***多样化状态的行动。
本文摘自:网络 日期:2024-09-18
详情点击:ABB机器人官网