随着我对计算机科学、人工智能和神经网络的了解越来越多,我不断地为计算机能做和学的酷东西感到惊讶。我对新的和旧的项目都很着迷,我对其他用户遇到的有趣的项目/应用程序很感兴趣。
-这个机器人能够与我们进行非常智能的对话。我自己最喜欢的是唐纳德·米奇1960年的项目:威胁-火柴盒教育零和交叉引擎。在这个项目中,米奇使用了一系列带彩色珠子的火柴盒,他教这些火柴盒玩井字游戏。这是为了证明机器在某种意义上可以从以前的成功和失败中学习
更多信息以及实验的计算机模拟在这里:。他们正在实现杰夫·霍金斯在《智能论》
我正在寻找关于基于瓷砖的游戏的文章,比如旧的ultima 6&7,甚至是益智海盗。具体而言:
它们如何跟踪地图上的对象。对象,例如其他角色、树或角色可以移动的对象
人物背后的AI。游戏如何处理角色的行为
地图上不在屏幕上的字符。特别是有非常大的地图和众多的字符
映射将是一个值数组。它可以分为不连续的部分。只有玩家范围内的部分才会被加载,并且这些部分中的对象和npc处于活动状态
由于旧硬件的内存和cpu非常有限,因此这些游戏只能加载和处理部分地图。您可以查看《游戏开发人员》杂志的后刊,看看是否有东
我在一家公共卫生部门工作,该部门每天接收并存储大量医疗数据。我编写了一个程序,它使用正则表达式来确定传入数据中的特定字段是否有效。例如:dob作为YYYYmmDD输入,因此它们应该匹配regex^[0-9]{8}$
我想分析“无效”数据,以帮助识别系统中的问题(我们获得的数据太多,无法逐行检查每个“坏”记录)。有人能推荐人工智能技术/机器学习技术来“监控”坏数据并找出错误模式吗?我认为用一堆正则表达式来解释数据无效的可能方式(例如,字符不够或太多),然后跟踪这些结果可能会奏效。但是,我没有想到数
我正在使用反向传播实现一个神经网络,但是在计算错误时遇到了问题。简而言之,我的sigmoid函数将所有节点输出压缩为1.0,这将导致错误计算返回0:
error = (expected - actual) * (1 - actual) * actual
^^ this term causes multiply by 0
所以我的误差总是0
我怀疑问题出在我的sigmoid实现上,它返回1.0,而不是渐进地限制在1.0以下:
我正在尝试构建一个定制的聊天机器人,但很难找到创建AIML的指南和资源。
我想要的是一本使用标记和谓词的手册。
任何建议!
真的好笑。从“马的嘴”或者更确切地说是爱丽丝的嘴上得到;-)在
您可能会发现这些标签与您的任务特别相关。如果您是aiml的完全初学者,请参阅的网站了解基本标签
如果现在完成了,您可以查看其他人的代码以供参考,并创建自己的聊天机器人。
你可以打个电话
转到免费aiml文件并引用它们
您可以使用以下命令开始构建bot
使用pyaiml解释器,您可以从sourceforge网站
我有一个简单的任务,就是使用神经网络,根据身高和头发长度将人分为男性或女性。还可以用一些例子教它这个模式,然后用它自己进行分类
我对神经网络有一个基本的了解,但在这里确实需要一些帮助
我知道每个神经元把这个区域分成两个亚区,这就是为什么p=w0+w1*x1+w2*x2+…+Wn*xn在这里被使用,如果我们考虑几何表示,权重只是移动线。
我知道每个epoche都应该修改权重,以便更接近正确的结果,但我从未对其进行编程,我对如何开始感到绝望
我应该如何继续,意思是:我应该如何确定阈值以及如何处理输入
我一直在研究一些基本的神经网络。到目前为止,我只知道前馈和反向传播类型。我想知道当某个输入有多个正确的输出时,如何计算误差。据我所知,有监督机器学习的一个基本假设是,某个输入向量只有一个正确的输出。然而,也有一些例外,例如Elman网络,其输出不仅取决于输入,而且还取决于先前输入的输出。此类网络通常用于处理时间序列。这就是你想知道的吗?或者你还想使用其他应用程序?尝试在AI专用论坛上提问。对它们进行加权,然后选择加权最高的一个。
因此,我被分配了以下任务:假设一个5x5版本的游戏中的所有灯光都已打开,请使用UCS/a*/BFS/Greedy best first search编写一个算法来找到解决方案
我首先意识到UCS是不必要的,因为从一个州移动到另一个州的成本是按下一个按钮,该按钮可以翻转自身和相邻的州。所以我写的是BFS。结果证明,它工作时间太长,并填满了一个队列,尽管我在处理完父节点时注意删除它们,以免内存溢出。它将工作大约5-6分钟,然后由于内存而崩溃。
接下来,我所做的是写DFS,尽管它没有被提到是一种可能性
我知道递归解,我读过关于迭代解的论文
有人能告诉我如何使用人工智能技术来解决像河内塔这样的问题吗 一种非常常见的方法是通过模式数据库生成启发式。以下是关于这一主题的一篇比较著名的论文:
对于这个网站来说,关于如何开始的问题通常太广泛了。一个更好的开始方法是使用google scholar之类的工具来查找与该主题相关的文章,然后询问您在使用特定解决方案时遇到的任何问题。另一个解决方案是使用分层规划器。在分层规划中,可以很容易地指定程序性知识。河内塔楼的获胜策略也可以很容易地被编码为这样一个问题,如
我想知道是否有任何系统/基础设施能够执行一些人工推理过程,例如:
上下文:A是一支笔
问题:是垂直的还是水平的
推理过程:
1.水平是指任何与地面平行的东西
2.A与地面平行
3.A是水平的
这个推理系统的最终目标是能够用一些预定义的规则生成事实
提前谢谢你 你可以通过本体论来实现这一点。您可以使用这是一个免费的本体编辑器,配备推理器来推断隐含知识。按以下方式指定本体将获得预期结果:
ObjectProperty: hasOrientation
Domain: Object
R
我开始学习一些AIML,现在我完全迷路了
我正在研究地图,但我想不出一个算法来解决这个问题。
比如说,我有一张地图,其中存储着我朋友的头发颜色。类似马库斯的东西:棕色
现在让我们假设我想得到所有头发颜色是棕色的名字。比如:
人类:你能告诉我棕色头发的朋友的名字吗
机器人:马克斯·凯文·托马斯
编辑:做了一些研究,我发现很多用户在网站上创建了一个地图,我的意思是,person:hair,hair:person。但是如果我有不同的人有相同的颜色,地图会返回第一个吗?我怎么能得到所有的
我怎么能这么做
我是PyTorch和AI的新手,但当我尝试训练我的模型时遇到了一些麻烦
我只需创建我的数据集和数据加载器
train_dataset = TensorDataset(tensor_train,tensor_label)
train_dataloader = DataLoader(train_dataset,batch_size=32,shuffle=True)
在这之后,我的标准和乐观主义者
criterion = nn.CrossEntropyLoss()
假设我们在一个房间里,我们的代理可以沿着xx和yy轴移动。在每一点上,他都可以上下左右移动。所以我们的状态空间可以用(x,y)来定义,我们在每个点上的动作可以用(上,下,右,左)来表示。让我们假设,无论我们的代理人做了什么会让他撞到墙的动作,我们都会给他-1的负奖励,并让他回到以前的状态。如果他在房间中央发现一个木偶,他将赢得+10奖励
当我们更新给定状态/动作对的Q值时,我们看到在新状态下可以执行哪些动作,并计算可能达到的最大Q值,因此我们可以更新当前状态/动作的Q(s,a)值。这意味着,如果
我们的大脑由数十亿个神经元组成,这些神经元基本上处理来自我们感官的所有传入数据,处理我们的意识、情绪、创造力以及我们的激素系统等
所以我对这个话题是完全陌生的,但是不是每个神经元都有固定的功能吗?例如:如果输入强度为x的信号,如果最后一个信号是x毫秒前的信号,则将其重定向
根据我在生物学中所学到的关于我们的神经系统的知识,包括我们的大脑,因为两者都由简单的神经元组成,在我看来,我们的大脑是一台巨大而复杂的计算机
也许如此复杂以至于像智力和认知这样的事情成为可能
由于神经元最复杂的事情是产生电信号
我正在尝试实现Pacman。它工作得很好,但到目前为止,幽灵没有使用任何寻路,而是在每个路径交叉点上随机决定要走哪条路径。所以你可以想象,对吃豆人来说赢得这场比赛并不难;)
因此,我在《Pacman》中读了一些关于路径查找算法的内容,在这里我找到了一个非常好的答案:
答案是指
这一切都很好,但在我的Pacman实现中,有两个Pacman由两个不同的玩家玩。所以我想知道如何调整寻路算法,这样鬼魂就不会总是追逐一个玩家了
有没有想过如何修改算法,使幽灵对两个玩家或多或少都公平?(没有看过,但是)我猜
我正在尝试创建一个简单的计划者。我已经完成了计算将达到目标的单独概率计划的基本功能,但现在我正试图确定如何根据初始行动聚合这些计划,以确定时间t0的“总体”最佳行动
考虑下面的例子。效用介于0和1之间,表示计划完成目标的程度。CF也限定在0和1之间,表示确定性因素,或执行计划将产生给定效用的概率
Plan1: CF=0.01, Utility=0.7
Plan2: CF=0.002, Utility=0.9
Plan3: CF=0.03, Utility=0.03
如果这三个相互排斥的计划都是
所以我被分配了一个问题,用遗传算法写一个5x5x5的tic-tac-toe播放器。我的方法是从3x3开始,开始工作,然后扩展到5x5,然后扩展到5x5
其工作方式如下:
> P>模拟一组游戏,在每次游戏的转弯中,在相应的表(X表或O表中实现为C++ STDLIB映射)中查找响应。如果没有板,请将板添加到表中。否则,做出随机响应
在我有了完整的表之后,我初始化了一堆玩家(每个玩家都有一份棋盘表的副本,用随机响应初始化),然后让他们互相比赛
用他们的胜负来评估身体状况,我保留了一定比例的最佳状态
我试图用一阶逻辑(谓词逻辑)将下面的句子转换成一个格式良好的公式
所有的塔都是同一种颜色
我定义了以下谓词:
塔(x)::x是一座塔
颜色(x,y)::x是y的颜色
我无法使用上述谓词将上述句子转换为格式良好的公式。是否可以使用上述谓词转换它,或者需要一些新的谓词。请告知
编辑:忘记添加详细信息。世界上只有三种颜色(红、绿、蓝)。这个细节可以用吗。这对解决方案有什么影响吗?存在一个Y1,因此对于所有的X塔(X)意味着颜色(X,Y1)我们不要假设存在任何塔或颜色
tower(x) ∧ tower(
下面是一张关于人工智能的讲座幻灯片。我认为这是关于某件事的伪代码。
但我不知道这些符号是什么意思。我甚至无法理解这张幻灯片的要点。
请帮帮我。谢谢:)
这不是伪代码。请查阅诺维格和罗素的《人工智能:现代方法》。这看起来像是反射剂动作的效果,但你至少需要上一张幻灯片,可能还需要前几张幻灯片来确定这一点。它还可以以某种方式处理框架问题
无论如何,假定给定一个具有前提p、效应e和状态s的动作,效应集是四个逻辑语句:x、not x、x和not x。当x的值为1时,前两个逻辑语句表示x,效果为e,以此类推
我正在阅读有关神经网络的书籍,但无法理解这一点——如果只是更新权重以适应特定的输入-输出对,它如何工作?
我的意思是,重量可以完全不同的另一套。它将根据具体情况进行调整,但需要根据另一种情况的输出比较进行重新调整。
我只是看不到“魔力”。一个简单的输入示例将非常感谢。一个容易理解的示例是简单的(看看这个维基百科页面上的动画)。这是一项也可以用神经网络完成的任务。“魔力”在于,您的网络建模了一个函数,该函数与您的训练数据(输入-输出对)近似。培训期间未看到的新案例可以可视化为培训数据点之间的点
现
stackoverflow中只有一个与此相关的问题,更多的是关于哪一个更好。我只是不太明白其中的区别。我的意思是,它们都使用随机分配给簇的向量,它们都使用不同簇的质心来确定获胜的输出节点。我的意思是,区别到底在哪里?在K-中,意味着节点(质心)彼此独立。获胜节点有机会调整每个自我,而且只有这样。在SOM中,节点(质心)被放置到一个网格上,因此每个节点被认为有一些邻居,节点在其附近的位置上或靠近它的位置。因此,获胜的节点不仅会适应自身,还会改变其邻居。K-均值可以看作是SOM的一种特例,因为在修改
我正在玩神经网络的游戏,试图了解基于您需要解决的问题设计其体系结构的最佳实践
我生成了一个由单个凸区域组成的非常简单的数据集,如下所示:
当我使用L=1或L=2隐藏层(加上输出层)的体系结构时,一切都正常,但一旦我添加第三个隐藏层(L=3),我的性能就会下降到略高于偶然值
我知道,网络越复杂(需要学习的权重和参数的数量),就越倾向于过度拟合数据,但我认为这不是我问题的本质,原因有二:
我在训练集上的表现也在60%左右(而过度拟合通常意味着训练误差很低,测试误差很高)
我有大量的数据示例(不要
在智能搜索问题中,最常见的用于估计距离的启发式算法是什么?特别是,我对可以(通常)用作*搜索的可接受启发式的指标感兴趣。我遇到了直线距离和曼哈顿距离,但还有其他距离吗?启发式是一种非常特定于给定问题的方法,因为它的思想是结合您可能对该问题拥有的其他知识。所以“一般启发法”不是一个很有用的类别。这就是说,听起来您是在专门讨论距离度量,这是一个定义更为明确的子集
就距离的可容许启发式而言,您已经提到的两种方法肯定是最常见的:
直线距离是空间中一般无约束运动的唯一可接受的启发式,因为任意两点之间的最
我使用流行的
我也受到了这个资源的启发
不幸的是,我的实施和该实施存在一个问题:
虽然AIs在游戏的早期和中期都表现得很好,但他们在游戏结束时处理得不太好:我发现他们最终只是在移动最后的棋子,而不是试图赢得比赛
我执行了模拟步骤为两名玩家在未来的N个回合中进行随机移动(即:直到游戏结束时才模拟游戏,但模拟的回合数显著)
为了确保计算时间不是瓶颈,我为人工智能考虑了大量时间
我正在考虑用一些基于领域的启发式方法调整模拟步骤,但如果需要,我不知道如何开发评估函数
在这种情况下,你认为我怎样才能提高我
我正试图在贝叶斯网络中进行抽样(目前是简单的未优化的事先抽样)。据我所知,这个想法是制作有限数量的样本,看看它们是如何通过网络传播的。我不明白,为什么这个过程需要一个随机数发生器
假设您有一个具有条件概率分布(CPD)的随机变量节点,如下所示:
| Color | P(Color) |
|------------------|
| Red | 0.1 |
| Green | 0.2 |
| Blue | 0.7 |
然后我可以找到的介绍说,对于您想要获取的每
假设我们有一个机器人,它有一些钱和一些股份。输入是过去30天的价格列表。它不使用RNN,同时输入所有价格。输出是一个连续的动作,其中正数表示买入,负数表示卖出股票的数量。我如何限制行动空间,使其在其拥有多少股份(下限)和拥有多少资金(上限)之间保持平衡
我应该剪掉它还是仅仅惩罚一个非法行为?哪种选择会产生最好的结果?人工智能不能出售其没有的股份金额,也不能购买价值超过其拥有金额的股份,因此您不应该允许此类交易。然而,如果你的人工智能关注趋势,并优先选择预计在不久的将来更有价值的股票,那么第二天总
我对人工智能还不熟悉,在电子游戏中对它有怀疑。我很难了解它的学习机制。视频游戏中的计算机引擎是通过根据输入改变权重来生成新算法(如果算法有新的权重,则该算法是新的),还是通过一组特定的输入来完全确定特定的算法。好吧,99%的游戏人工智能不是神经网络,它只是“普通人工智能”,好吧,当然,你可以有非常复杂的人工智能技术来适应玩家,但你(很可能)不会在其中看到机器学习
我面临着为我的数据挖掘任务选择正确分类器的问题
我用统计方法给网页贴标签,并用1-4分制给它们贴标签,1分是最差的,4分是最好的
以前,我使用SVM来训练系统,因为我当时使用的是二进制(1,0)标签。但现在,由于我切换到这个4类标签,我需要更改分类器,因为我认为SVM分类器只适用于两类分类(如果我错了,请纠正我)
因此,你能在这里提供一些建议,什么样的分类器最适合我的分类目的
提前感谢您的建议。存在多类支持向量机。它有一个实现,它也有一个实现
通常,最好用几个分类器进行实验,找出哪一个对数据最有
你知道一个工具的名字吗?从一组例子中,我最近听说它创造了一首伟大的古典歌曲,如巴赫的。至少有一次神经网络尝试,其中网络的输入是音乐样本,输出也是音乐样本。因此,如果网络接受巴赫音乐培训,它将输出巴赫音乐。您可以更具体地参考该文件:
本项目是一项尝试,旨在实现智能机器的协调
合唱团。目标是以巴赫的风格协调旋律;我们希望
第二,巴赫可能有意或无意遵循的倾向和规则
不知不觉地。
我们选择了遗传算法来构建新的和声。我们
讨论基于规则的评估的使用,并继续进行以下实验:
在一组巴赫合唱训练后,基于神经网络的
我正在用反向传播算法训练神经网络,这是总体误差图:
(我用以下公式计算总体误差:第6.3部分:总体训练误差)
我使用了电力趋势线,经过计算,我发现如果epoches=13000=>总体误差=0.2
这不是太高了吗
这个图表正常吗?看来培训过程会花太长时间。。。对吗?我该怎么办?没有更快的办法吗
编辑:我的神经网络有一个包含200个神经元的隐藏层。我的输入和输出层有10-12个神经元。我的问题是对字符进行聚类。(它通过有监督的训练将波斯语字符聚类到一些聚类中)因此,您使用的ANN有200个输入节
支持向量机和神经网络的区别是什么?
线性支持向量机是否与神经网络相同?对于非线性可分离问题,神经网络使用添加隐藏层,而支持向量机使用改变空间维度?这个问题有两个部分。第一部分是“通过这些方法学习的函数的形式是什么?”对于NN和SVM,这通常是相同的。例如,单隐层神经网络使用与SVM完全相同的模型形式。即:
给定输入向量x,输出为:
输出(x)=所有权重之和*非线性函数
一般来说,非线性函数也会有一些参数。因此,这些方法需要了解应该使用多少非线性函数,它们的参数是什么,以及所有权重的值应该是什么
我的问题是关于在强化学习中使用SARSA算法来解决一个未贴现的连续(非情节)问题(它能用于这样的问题吗?)
我一直在研究Sutton和Barto的教科书,他们展示了如何修改Q学习算法,使其可以用于未贴现的问题。他们在第6.7章中将新算法(针对未贴现问题)称为R-学习。基本上,在R-learning中,Q(s,a)在每次迭代中的更新规则是:
Q(s,a)=Q(s,a)+alpha*[r-rho+max_a{Q(s',a)}-Q(s,a)]
在这里,只有在状态s处选择贪婪操作时,才在每次迭代中更新r
我无法让Cryengine 3.5中的实体角色Human向标记点移动
请在下面找到我的标记点流图:
不幸的是,尽管生成人工智能并多次运行游戏,包括在人类看不到打破流程图的玩家的区域,但人工智能并没有向标记点移动
我提前感谢您的帮助。这似乎是Cry Engine中的一个缺陷,建议用户避免使用此功能,降级引擎或直接向开发人员请求帮助
在我将alpha-beta修剪应用于Connect-Four游戏之后,我的minimax算法返回了非常糟糕的移动选择
def get_next_move(board, player, depth, alpha, beta) :
score = get_score(board, depth)
if score is not None :
return score, board
if depth == 0 :
return 0, board
当我为各种问题执行代理时……我已经看到我的演员流失正如预期的那样减少。但我的批评损失不断增加,尽管所学到的政策非常重要。这种情况发生在DDPG、PPO等
你有没有想过为什么我的批评者越来越少
我尝试过使用超参数,这实际上使我的策略更糟。在强化学习中,你真的不应该特别注意损失值的精确值。例如,在监督学习中,它们的信息量并不相同。损失值只应用于计算RL方法的正确更新,但它们实际上并不能真正表明您做得有多好或有多差
这是因为在RL中,您的学习目标通常是非平稳的;它们通常是您正在修改的策略的功能(希望有
Negamax通常如下所示:
function negamax(node, depth, α, β, color) is
if depth = 0 or node is a terminal node then
return color × the heuristic value of node
childNodes := generateMoves(node)
childNodes := orderMoves(childNodes)
value
我的问题在某个时间间隔(0,1)上有一个单一的状态和无限多的动作。在谷歌搜索了一段时间后,我发现了一些关于一种称为缩放算法的论文,这种算法可以解决连续动作空间的问题。然而,我的实现不善于利用。因此,我考虑添加一种epsilon贪婪行为
结合不同的方法是否合理
你知道解决我问题的其他方法吗
代码示例:
import portion as P
def choose_action(self, i_ph):
# Activation rule
not_covered = P.closed
有人能说出人脸检测中使用的所有不同技术吗?神经网络、支持向量机、特征脸等技术
还有什么其他的呢?如果你需要的不仅仅是理论上的东西,而且你真的想做人脸检测,那么我建议你找到已经实现的解决方案
有许多针对不同语言的经过测试的库,它们被广泛用于此目的。查看此SO线程以了解更多信息:。如果您不仅需要理论知识,还需要进行人脸检测,那么我建议您找到已经实现的解决方案
有许多针对不同语言的经过测试的库,它们被广泛用于此目的。有关更多信息,请查看此SO线索:。一种新兴但相当有效的解决广泛类别视觉问题的方法,包括
我的字段由开放网格空间和填充网格空间组成。我的机器人只能在开放空间上移动。它只能检测其8个相邻网格(即上、下、左、右和对角空间)中是否有填充的网格空间。也就是说,它不能超出8个相邻的空间。在这样的网格中,什么是最好的搜索技术?比如说,我的目标是找出网格中的对象数量——一个对象是一组连通的填充空间
我试过以下方法,但都很糟糕:
通过将初始位置设置为0,0并存储所访问空间的相对位置来保留所访问空间的列表。也就是说,我最好去那些没有去过的地方
首先转到最底部和最左侧的点,然后开始彻底搜索底部的5行,然
对极大极小算法的描述是,两个玩家都必须玩最优,这样算法才是最优的。直觉上这是可以理解的。但是colud有人具体化了,或者证明了如果min打得不好会发生什么
thx最佳答案的定义是,你的游戏是为了最小化对手的最佳答案的“分数”(或任何你衡量的),这是由最小化你的最佳答案分数的游戏定义的,以此类推
因此,根据定义,如果你没有发挥最佳,你的对手至少有一条路径,将给他一个更高的分数比他的最佳分数,如果你发挥最佳
找出最佳方案的一种方法是对整个游戏树进行暴力攻击。对于不太重要的问题,您可以使用alpha-
我有两个描述神经网络结构的对象阵列,如何将它们组合起来产生真实的后代?“染色体”看起来像这样:
chromosome = [
[Node, Node, Node],
[Node, Node, Node, Node, Node],
[Node, Node, Node, Node],
[Node, Node, Node, Node, Node],
[Node, Node, Node, Node, Node, Node, Node],
[Node, No
我想使用minimax搜索(带有alpha-beta删减),或者更确切地说是negamax搜索,让计算机程序玩纸牌游戏
纸牌游戏实际上由4名玩家组成。因此,为了能够使用极小极大等,我简化了游戏,以“我”对抗“其他人”。在每次“移动”之后,你可以从游戏本身客观地读取当前状态的评估。当所有4名玩家都放置了这张牌时,最高的玩家将赢得所有的牌,并且牌的价值也会计算在内
由于你不知道其他3名玩家之间的牌的分布情况,我认为你必须用不是你的牌来模拟所有可能的分布(“世界”)。你有12张牌,其他3个玩家总共有3
我正在开发一个游戏,在概念上类似于风险或垄断(基本上是一个棋盘游戏,尽管我的问题可以外推)。因此,假设我想要电脑对手,我需要写一个人工智能
现在,我的问题是,我是否需要直接在程序中对人工智能进行编程(硬编码),或者我编写的程序是否有某种方式可以读取方向和行为规则列表,对人工智能进行软编码
我假设,如果我要像前面描述的那样编写软代码,我将需要对AI可以使用的所有可能的操作进行编程。我还假设我不能告诉一个软模式的AI做任何事情,除非编程(例如,一些依赖于多种因素的决策行为)。与特定于硬编码的人工智能
我有一些基本的遗传算法知识,我编写了一个简单的应用程序,找到某个函数的X最大值,但我现在正在努力解决的是,对于一些更复杂的问题,如移位规划,染色体、个体、种群等应该是什么样的。假设我们有一些员工,一些班次,我们想把他们分配给彼此。遗传算法的关键部分是什么样的,才能使其适用于这些数据?让我做一些假设,以展示一个示例,说明如何为这个问题建立遗传算法模型
假设
假设有n个员工被标记为e_1,e_2,…,e_n,n个班次被标记为s_1,s_2,…,s_n
为了便于解释,设n为偶数
个体染色体
让每个染色
我在学习人工智能
虚拟助理是如何分析问题的?
示例:当我说“从纽约市到华盛顿特区的路”时,va打开了谷歌地图?如果我自己开发这些东西,我可能会使用类似的模式
如果({a}{linker}{b})a和b在地图上的城市列表中或与之相关的东西,而linker是类似“from”或“to”的单词,我会运行谷歌地图,如果剩下的任何单词都会表示它是地图相关的东西,比如“location”、“map”、“route”等等
只是一个猜测,但我认为应该是这样的我不知道您更喜欢哪种编程语言来开发这个项目,但我强烈推荐
我计划做一个关于使用模拟的同步定位和映射(SLAM)的项目,因为我对机器人技术完全陌生,我不知道从哪里开始以及如何继续。请帮助我开始我的工作,我需要一些教程的参考资料 我建议您使用。它有很好的开发工具以及SLAM和规划算法。您可以从开始,然后是。我建议您使用。它有很好的开发工具以及SLAM和规划算法。您可以从开始,然后是
请解释传统逻辑和模糊逻辑(FLS)的区别
它将帮助初学者(如我)了解这些系统。模糊逻辑(FL)是一种类似于人类推理的推理方法。FL方法模仿人类的决策方式,涉及数字值是与否之间的所有中间可能性
计算机能够理解的常规逻辑块接受精确的输入,并产生确定的真或假输出,这相当于人的是或否
传统逻辑:一种形式逻辑系统,主要涉及以亚里士多德为基础的演绎三段论形式,包括斯多葛学派和经院学派的一些变化和阐述:亚里士多德逻辑-比较直接推理、对立、主谓、三段论,符号逻辑
有关模糊逻辑的更多信息,请参见:
我希望我能帮
简化游戏规则:
棋子每回合可以移动一次
棋子可以向四个方向移动。(上、下、左、右)
棋子像棋盘一样在格子上移动
到达另一排的棋子获胜
为了简单起见,可以忽略其他规则
评价职能:
如果达到目标,则返回100。
其他:返回对手距离目标的距离-自身距离目标的距离
我使用alpha-beta修剪实现了minimax,并指定了max-depth。我将我的实现与几个第三方实现进行了比较,结果看起来是一样的。因此,我不想粘贴我的实现,而是想直接问我的问题:
当2个AI相互竞争时。一旦他们发现有人赢得比
我试图定义两个反向对象属性
对象属性包括:
hasChild
hasParent
很明显,如果约翰有父母安娜,那么安娜有孩子约翰。
这似乎是通过使用Protege的倒数来实现的,但是如果我们假设ANNA是快乐的,
下面是DL查询:
hasChild only Happy
也返回JOHN。推理者解释说,hasChild与hasParent相反。
有人能帮我把事情弄清楚吗?提前谢谢 hasChild only Happy是一种普遍的限制,没有伴随存在的限制。在开放世界假设下,这些通用限制最终包
使用基于规则的系统和模糊专家系统的意义是什么?还有,它们之间有什么区别?我已经试着看了一遍课堂上的幻灯片,但是我仍然不明白。规则基本上是“如果……那么”
模糊基本上是“0……1”的不同程度
前者规模不大,许多人认为它年代久远。后者已经存在了几十年,而且往往过于模糊,难以在逻辑/决策路径上依赖
上一页 1 2 3 4 5 6 ...
下一页 最后一页 共 30 页