Algorithm 上下文Bandit方法:不相交线性模型的算法1 LinUCB

Algorithm 上下文Bandit方法:不相交线性模型的算法1 LinUCB,algorithm,Algorithm,我试图用本文“个性化新闻文章推荐的上下文Bandit方法”中不相交的线性模型实现名为LinUCB的算法 这是算法: 我对向量Xt,a的特征感到困惑(我在算法中强调)。 特征向量与文章(arm)或用户的信息(上下文)相关吗 谢谢你的帮助。 谢谢特征向量x\t,a适用于用户和手臂 向量xt,a总结了用户ut和arm a两者的信息, 并将被称为上下文 在最一般的情况下,允许特征向量X_u(t,a)是用户上下文c_t和臂a两者的函数,或者X_u(t,a)=φ(c_t,a)。请注意,这可能只是一个子集:

我试图用本文“个性化新闻文章推荐的上下文Bandit方法”中不相交的线性模型实现名为LinUCB的算法

这是算法:

我对向量Xt,a的特征感到困惑(我在算法中强调)。 特征向量与文章(arm)或用户的信息(上下文)相关吗

谢谢你的帮助。
谢谢

特征向量x\t,a适用于用户和手臂

向量xt,a总结了用户ut和arm a两者的信息, 并将被称为上下文


在最一般的情况下,允许特征向量X_u(t,a)是用户上下文c_t和臂a两者的函数,或者X_u(t,a)=φ(c_t,a)。请注意,这可能只是一个子集:每个手臂可能有不同的特征用于预测结果,或者换句话说,X_t(t,a)是c_t的一个子集

例如,如果一个电影推荐网站正在决定推荐哪部电影,那么在试图预测用户是否喜欢科幻电影和戏剧电影时,他们可能需要用户提供不同的信息。这种不同的信息反映在这样一个事实上,即允许特征因arm而异


或者,可能是X_uT(t,a)对于所有a都相同的情况,即X_t(t,a)=X_t。例如,当试图学习最佳药物剂量时,算法可能希望了解所有患者的身高、体重和年龄。在这种情况下,功能不会因arm而异。

谢谢。你能给我举个例子吗?