Artificial intelligence MCTS:跳棋中的蒙特卡罗树搜索

Artificial intelligence MCTS:跳棋中的蒙特卡罗树搜索,artificial-intelligence,montecarlo,game-ai,Artificial Intelligence,Montecarlo,Game Ai,我使用流行的 我也受到了这个资源的启发 不幸的是,我的实施和该实施存在一个问题: 虽然AIs在游戏的早期和中期都表现得很好,但他们在游戏结束时处理得不太好:我发现他们最终只是在移动最后的棋子,而不是试图赢得比赛 我执行了模拟步骤为两名玩家在未来的N个回合中进行随机移动(即:直到游戏结束时才模拟游戏,但模拟的回合数显著) 为了确保计算时间不是瓶颈,我为人工智能考虑了大量时间 我正在考虑用一些基于领域的启发式方法调整模拟步骤,但如果需要,我不知道如何开发评估函数 在这种情况下,你认为我怎样才能提高我

我使用流行的

我也受到了这个资源的启发

不幸的是,我的实施和该实施存在一个问题: 虽然AIs在游戏的早期和中期都表现得很好,但他们在游戏结束时处理得不太好:我发现他们最终只是在移动最后的棋子,而不是试图赢得比赛

我执行了模拟步骤为两名玩家在未来的N个回合中进行随机移动(即:直到游戏结束时才模拟游戏,但模拟的回合数显著

为了确保计算时间不是瓶颈,我为人工智能考虑了大量时间

我正在考虑用一些基于领域的启发式方法调整模拟步骤,但如果需要,我不知道如何开发评估函数


在这种情况下,你认为我怎样才能提高我的AI,使我的后期游戏更精彩?

在某种赢的情况下,你会奖励(如奖励功能)赢得游戏而不是玩无用的招式吗?@ziggystar你能补充更多细节吗?我将尝试更明确地说:模拟步骤做两件事——它将来模拟nTurns并返回一个获胜者——如果没有获胜者,它将在模拟结束时对棋盘进行静态评估并返回一个获胜者——如果没有获胜者,即使在这种情况下,模拟也不会返回任何获胜者。如果节点是获胜节点,则将其分数更新为+1,否则为-1。我的意思是,您应该添加一些激励以快速赢得游戏。通过改变招式生成器,或者给予一个小奖励。在某种赢的情况下,你会奖励赢得游戏而不是玩无用的招式吗?@ziggystar,你能补充更多细节吗?我将尝试更明确地说:模拟步骤做两件事——它将来模拟nTurns并返回一个获胜者——如果没有获胜者,它将在模拟结束时对棋盘进行静态评估并返回一个获胜者——如果没有获胜者,即使在这种情况下,模拟也不会返回任何获胜者。如果节点是获胜节点,则将其分数更新为+1,否则为-1。我的意思是,您应该添加一些激励以快速赢得游戏。要么通过改变移动生成器,要么通过给予小奖励。