Machine learning 使用TextBlob进行文本分类

我是机器学习、NLP和数据分析方面的新手,但我很想更好地理解它。我正在阅读关于NLTK、scikit learn等的几本书。我发现了一个python模块“TextBlob”,并发现它非常容易入门。因此,我创建了一个示例演示python脚本,该脚本位于:。我试图找出最适合情感分析和文本分类的算法。我的问题如下: 为什么NaiveBayesClassifier中的情绪分析即使在如此小的训练集上也很慢?这是一个时间常数,还是会随着训练数据的增加而增加?此外,情绪分析也不正确(请参考脚本输出,输入文本“

Machine learning 从URL加载权重

我有CNN模型的权重文件(.h5)的URL。我想将该权重直接加载到Python文件中,并编译一个keras模型。这怎么办 有没有直接的方法,或者我应该下载权重文件并从磁盘加载它?有一个功能可以从URL下载权重并将其储存在~/.keras中/ 这是函数get_file from keras.utils.data_utils import get_file 例如: from keras.utils.data_utils import get_file weights_path = get_file

Machine learning 如何解释使用歌词生成单词嵌入/Word2Vec时拼写的差异(尤其是俚语)?

因此,我正在进行一个艺术家分类项目,该项目利用genius.com上的嘻哈歌词。问题是这些歌词是由用户生成的,所以同一个词可以用不同的方式拼写,特别是如果它是俚语,这在嘻哈音乐中是很常见的 我研究了使用hunspell/pyhunspell进行拼写更正,但问题是它不能修复俚语拼写错误。从技术上讲,我可以制作一本包含大量拼写错误变体的迷你字典,但这实际上是无用的,因为在我(不断增长的)6000首歌曲语料库中,同一个单词可能有十几种变体 有什么建议吗?你可以试着克制自己的言辞。有关词干分析的更多信息

Machine learning 是否有一个原因可以解释为什么只存在于给定类中的特性没有被强烈地预测到该类中? 摘要和问题

我使用的是liblinear 2.30——我注意到prod中有一个类似的问题,所以我尝试通过一个简单的简化训练来隔离它,包括2个类,每类1个训练文档,5个在我的词汇表中具有相同权重的特性,以及1个只包含一个特性的简单测试文档,该特性只存在于类2中 a) 特征值的用途是什么 b) 我想理解为什么这个测试文档包含一个只存在于一个类中的单一特性,却没有被强预测到该类中 c) 我不希望每个功能有不同的值。将每个特征值从1增加到其他值是否有其他含义?我如何确定这个数字 d) 我的改变是否会对其他更复杂的

Machine learning 神经网络模型中的隐藏层数

是否有人能向我解释或向我指出为什么(或在何种情况下)一个以上的隐藏层在神经网络中是必要的或有用的?每一层都以指数方式有效地提高了适应的潜在“复杂性”(与向单个层添加更多节点的乘法方式相反)。基本上,更多的层可以表示更多的功能。Russell和Norvig的AI课程标准书《人工智能,现代方法》在第20章中详细介绍了为什么多个层很重要 重要的一点是,使用足够大的单个隐藏层,可以表示每个连续函数,但至少需要2层才能表示每个不连续函数 然而,在实践中,至少99%的时间一层就足够了 这与大脑的工作方式更为

Machine learning 培训和培训中心的作用;在构建决策树并使用它进行分类时测试集合

我已经在weka工作了几个月了。 目前,我正在奥斯特福德大学学院学习机器学习课程。 我需要一种更好的方法来构建基于分离训练集和测试集的决策树。 任何想出好主意的人都会松一口气。 提前准备好 -Neo你可能会要求更具体的东西,但一般来说: 使用训练集构建决策树,并使用测试集评估该树的性能。换句话说,在测试数据上,调用一个通常命名为c*classify*之类的函数,传入新构建的树和一个要分类的数据点(在测试集中) 该函数从树中返回该数据点所属的叶(终端)节点——假设该叶的内容是同质的(由单个类的数据

Machine learning 基于隐马尔可夫模型的分类器中状态数的影响

在隐马尔可夫模型中,簇数/码本数,状态数之间的关系是什么 状态数是如何影响基于隐马尔可夫模型的分类器性能的?一般来说,如果状态数不是很大,则分类精度会随着隐状态数的增加而提高。如果状态数很大,则精度将不再增加。隐态数的增加将导致更多的计算量 设N为状态数,T为状态和观察序列的长度: 如果要直接计算p(观测值(最多t),状态(t)=S |模型),则需要2*t*(N^t)的计算顺序。因此,试图直接计算这种概率是个坏主意 相反,如果您希望使用前向-后向算法,则需要(N^2)*T级计算,大大快于直接法

Machine learning 如何对多类k-NN进行加权求和?

我有很多数据点(x,y),我试图用k-NN来预测未来的y’ 如果y只有两个可能的值,那么我可以处理y=+1或-1。 每次我有一个输入x',找到最近的k个元素,并将它们的y乘以距离的倒数(x,x')。 如果总和大于0,那么我将预测y'=+1,否则y'=-1 但是,我知道我的y有10个不同的可能值。 在这种情况下,我如何做类似的加权和?你可以为每个班级保留不同的分数,这些分数总是正值,正值越高,关联性越强。那就拿全班最高分吧

Machine learning 基于Weka的句子分类

我想用Weka对句子进行分类。我的特征是句子术语(单词)和每个术语的词性标记。我不知道图形的属性是什么,因为如果每个术语都作为一个特征来表示,那么每个实例(句子)的特征数量就不同了。而且,若句子中的所有单词都作为一个特征呈现,那个么单词和它们的词性标签之间的关系又是怎样的呢 如果我正确理解了这个问题,答案如下:最常见的做法是独立于单词在句子中的位置来处理单词,并根据每个已知单词在句子中出现的次数在特征空间中表示一个句子。也就是说,训练数据中的每个单词通常都有一个单独的数字特征。或者,如果您愿意使

Machine learning weka是否使用数字属性进行自动预处理

weka是否在分类前预处理速度(米/秒)等数字属性 我想使用weka工具包对数字速度和步长数据进行分类。在相关工作中,经常使用weka,并且提到相关工作的作者使用了平均值、标准偏差、最大值和平均值进行分类。weka是自动进行预处理还是在分类前我必须进行预处理?weka不会自动进行预处理,但它确实有过滤器。使用该过滤器,您可以计算许多属性的平均值、标准偏差、最大值和平均值,正如您所描述的。Weka不会自动这样做,但它确实有过滤器。使用过滤器,您可以计算许多属性的平均值、标准偏差、最大值和平均值,正

Machine learning 多层感知器的激活函数

我尝试用xor函数训练简单的反向传播神经网络。当我使用tanh(x)作为激活函数时,通过导数1-tanh(x)^2,我在大约1000次迭代后得到了正确的结果。然而,当我使用g(x)=1/(1+e^(-x))作为激活函数时,使用导数g(x)*(1-g(x)),我需要大约50000次迭代才能得到正确的结果。原因可能是什么 谢谢。是的,你所观察到的是真实的。我在使用反向传播训练神经网络时也有类似的观察结果。对于XOR问题,我曾经设置过2x20x2网络,逻辑函数需要3000多次才能得到以下结果: [0,

Machine learning 通过任意文本体确定地理位置

我正在做一个项目,我不知道该怎么做。问题可概括如下: 给定任意文本体(有点像报告),确定报告的每个部分所指的地理位置 地理位置从州到县(都在美国境内),因此其数量有限,但每个报告通常包含多个位置的参考。例如,报告的前5段可能是关于一个州的整体,然后接下来的5段可能是关于该州内的各个县,或者类似的内容 我很好奇,解决这样一个问题的最佳方法是什么,也许是在NLP或ML框架(Python或Java)方面提出具体建议?我在这里可能真的能帮上一点忙(我的研究是在地名解析方面) 如果我理解正确,您正在寻

Machine learning 解读自组织映射

我一直在读关于自组织映射的书,我理解这个算法(我想),但是有些东西我还是不明白 您如何解释经过培训的网络 然后,您将如何实际使用它来执行分类任务(一旦您使用培训数据进行了聚类) 我找到的所有材料(印刷和数字)都集中在算法的训练上。我相信我可能错过了一些重要的东西 SOM主要是一种降维算法,而不是一种分类工具。它们用于降维,就像PCA和类似的方法一样(一旦训练,你可以检查哪个神经元被你的输入激活,并使用这个神经元的位置作为值),唯一的实际区别是它们保持输出表示的给定拓扑的能力 因此,SOM实际生成

Machine learning 贝叶斯学习-映射映射

假设我有一组hypotesys H={h1,h2}互斥。对于它们,P(h1)=0.2,P(h3)=0.3(先验分布)。 假设我们也知道 p(Y=0 | h1)=0.2 P(Y=0 | h2)=0.4 其中Y是一个属性(目标),可以有两个值{1,0}。 最后假设您观察到事件Y=0 哪一个是地图(最大后验概率)hipotesys 地图是h1 地图是h2 没有足够的元素来查找地图 映射h1=映射h2 没有人知道上面可能的答案 应在math.stackexchange.com或stats.stacke

Machine learning 是什么使k-medoid中的距离度量“更精确?”;“更好”;比k-means好?

我正在阅读关于k-means聚类和k-medoid聚类之间的区别的文章 假设在k-medoid算法中使用成对距离度量,而不是更熟悉的平方欧几里德距离类型度量之和来评估我们用k-means发现的方差,有一个优势。显然,这种不同的距离度量某种程度上减少了噪音和异常值 我见过这种说法,但对于这种说法背后的数学原理,我还没有看到任何好的理由 是什么使k-medoid中常用的成对距离度量更好?更确切地说,缺少平方项如何使k-中值具有与取中值概念相关的理想性质?我认为这与簇中心的选择有关。k-means将选

Machine learning 当精确性比回忆更重要时,如何调整模型以提高精确性?

机器学习分类器的性能可以通过多种度量标准来衡量,如精度、召回率和分类精度等 给定如下代码: clf = svm.SVC(kernel='rbf') clf.fit(X_train, y_train) fit函数试图优化的指标是什么 当精确性比回忆更重要时,如何调整模型以提高精确性 据我所知,支持向量机使铰链损失最小化 我不知道有什么通用的方法可以让支持向量分类器优先于查全率。一如既往,您可以使用交叉验证,然后使用hyperparameters查看是否有任何帮助。或者,您可以训练回归器输出[0,

Machine learning 最大化具有对象属于类的一组概率的分类器的AUC

考虑一个具有两个目标类的二元分类任务——{men,women}。对于每个人,你都有一组他们的动作,对于每个动作,你都有一组实值特征。目标是将具有最高AUC的人分为男性/女性 最简单的方法是训练一个分类器来预测特定动作是属于男人还是女人(事实上,由于我们有动作的特征,我们可以训练一个分类器而无需任何额外的工作) 问题是如何根据您的每个动作属于男性或女性的概率推导出男性或女性的概率?您还可以计算每个用户动作的不同统计信息,并将其用作分类器中的固定大小特征向量。

Machine learning 训练神经网络确定彩色图像质量

我正在寻找一个知道是否有可能训练神经网络来判断提供的图像是否符合训练的期望的人 假设我们有一个神经网络,经过训练可以读取800x800像素的彩色图像。因此,我将有1920000个输入、许多隐藏层和一个输出。我计划准备2000张照片,其中包括1000张坏照片(模糊、太暗、太亮等)和1000张好照片,并训练神经网络以确定这张照片是否被视为“好”。如果它是好的,那么输出将是真的(或任何>0.5),任何不好的将输出假的(或任何这是卷积神经网络的一个很好的应用。有许多库和服务可用于此 是一个做这件事的工具

Machine learning 从设备日志数据中提取模式

我正在做一个项目,在这个项目中,我们必须从设备日志数据中提取模式(用户行为)。设备日志包含具有时间戳的不同设备操作,如设备打开或关闭时 For example: When a person enters a room. He first switches on the light and then he switches on the fan or Whenever the temp is less than 20 C, he switches off the AC. 我正在考虑使用贝叶斯网

Machine learning “的含义;“每个窗口的误报”;

在论文《人类检测的定向梯度直方图》(Navneet Dalal和Bill Triggs)(见下面的链接)中,为了可视化其结果,他们使用ROC曲线,Y轴为TP,X轴为FPPW(每个窗口的假阳性) 这个短语的意思是什么 我考虑了三种可能的选择。。。我不知道——也许他们都错了。我们将感谢您的帮助: 可能是分类错误的阴性样本的比率,即:(假阳性样本数/阴性样本数) 或者可能是每一个真报警的假报警率,即:(假阳性数/真阳性数) 或者可能是whle图像中每个真实窗口的错误报警率, 这就是:(假阳性样本数/真

Machine learning Cifar10中的粗标签和细标签是什么?

我发现了二进制的CIFAR10数据集。它说有两个标签,一个粗糙的标签和一个精细的标签。有人能解释这两种格式的区别吗 谢谢大家!! Zan,我相当肯定,只有CIFAR100既有粗糙的标签,也有精细的标签。 CIFAR10只有一套标签:飞机、汽车、鸟、猫、鹿、狗、青蛙、马、船、卡车 对于CIFAR100,粗糙标签是图像所属的超类,例如:鱼、花或昆虫。精细标签是子类,如: 蜜蜂,甲虫,蝴蝶,毛毛虫 有关完整列表,请参阅

Machine learning 我试图理解一些机器学习术语。学习参数、超参数和结构之间有什么区别?

我试图理解一些机器学习术语:参数、超参数和结构——所有这些都在贝叶斯网络环境中使用。1) 特别是,结构与参数或超参数有何不同。2) 参数化是什么意思?谢谢。一般来说(但确切的定义可能因作者/论文/模型而异): 结构-描述图形/模型的元素是如何连接/组织的,因此它通常是信息如何流动的一般描述。它通常表示为有向图。在结构层次上,你经常忽略细节,比如模型细节。示例:逻辑回归模型由输入节点和输出节点组成,其中输出节点产生P(y | x) 参数化-由于贝叶斯(和整个ML)方法中的一种通用语言是概率语言,

Machine learning 如何在Python中组合不同的稀疏矩阵?

我正在使用sci工具包构建机器学习模型。我的数据集是svm文件的数量。我已经用sklearn加载了这些文件。它以稀疏矩阵的形式返回数据,以numpy数组的形式返回目标。现在的问题是,不同的文件有不同的维度,因此不能连接在一起形成一个大矩阵 例如 对于一个文件-X是 对于其他文件(来自同一数据集)-X为 此数据集中有100多个文件。它们有不同数量的功能,该怎么办 谢谢。没有更多信息,无法回答此问题。它与稀疏数据结构也没有多大关系。您的任务是了解功能差异是如何存在的,以及这到底意味着什么。我们猜不到

Machine learning Caffe-如何平衡Cifar10数据

我正在用caffe框架研究不平衡数据的影响。现在,我试图通过从指定的类中删除一些数据来创建一个新的cifar10发行版。我读了cifar10的文件。它说.bin文件的数据结构如下 1*8 bit label data | 3*1024 for RGB pixel 所以我写了一个脚本来过滤这些类的数据。并创建一个新的.bin文件 现在我在caffe上运行脚本,并尝试创建LMDB数据集 #!/usr/bin/env sh # This script converts the cifar dat

Machine learning vowpal wabbit中使用了什么样的特征提取器?

当我们将句子传递给算法时,我们可以使用文本特征提取器,如。。。我们得到了一组浮点数 但是当我们像这样传递到输入文件时得到的是: -1 |Words The sun is blue 1 |Words The sun is yellow vowpal wabbit的内部实现中使用了什么?此文本如何转换?这里有两个独立的问题: Q1:为什么在使用vowpal wabbit时不能(也不应该)使用像tf idf这样的转换 A1:vowpal wabbit不是批量学习系统,而是在线学习系统。为了计算像tf

Machine learning 使用caffe创建内部产品层时出错 E0426 16:55:44.986892 4273 io.cpp:80]无法打开或找到文件 F0426 16:55:45.023268 4273图像\u数据\u层。cpp:129]检查失败:cv\u img.data无法加载 ***检查故障堆栈跟踪:*** @0x7f2f16c335cd谷歌::日志消息::失败() @0x7f2f16c35433 google::LogMessage::SendToLog() @0x7f2f16c3315b google::LogMessage::Flush() @0x7f2f16c35e1e谷歌::LogMessageFatal::~LogMessageFatal() @0x7f2f1714491d caffe::ImageDataLayer::load_batch() @0x7f2f171470fa caffe::BasePrefetchingDataLayer::InternalThreadEntry() @0x7f2f16fbfe7e boost::detail::thread_data::run() @0x7f2f143455d5(未知) @0x7f2f13bf36fa起始螺纹 @0x7f2f15c8ab5d克隆 @(无)(未知) 中止(堆芯转储)

查看您收到的错误消息: 首先,错误来自于,$CAFFE\u ROOT/src/CAFFE/layers/image\u data\u layer.cpp第129行。看看这条线。您将看到,当caffe无法加载由“ImageData”层提供的输入图像文件时,会发生此错误。 检查所有输入图像是否存在,文件是否损坏 此错误与“InnerProduct”层无关 E0426 16:55:44.986892 4273 io.cpp:80] Could not open or find file F0426

Machine learning 我们如何从scikit学习和Spark ML的准确性方面比较决策树算法的性能?

我正在比较使用sklearn DT和Spark ML DT在相同特征和数据集下获得的文本分类精度。甚至比较它们是否合适?原因是,两者的参数列表不同,因此我认为结果会有所不同,我不确定我们可以在什么基础上进行比较?在默认设置中,哪一项应该提高准确性和性能?我知道它取决于不同的用例,但我们能否至少对相同的用例进行概括?您可以比较两种算法,使用不同的超参数。但精度度量(用于比较的度量)必须完全相同。例如,您可以对Sickit和Mlib使用AUC(曲线下面积)度量。请注意,数据集和功能也必须相同 我担

Machine learning 如何计算逻辑规则之间的相似性

我这里有一个相似性问题。我想使用历史数据(过去实施的规则流量)预测新规则的流量。这里的流量是指一条规则与一个人匹配的次数。以下是一个规则示例: Person.Age<20 and (Person.number_of_children==3 or Person.married==True) and Person.Work==student and Person.Car.isSportCar==False and Person.Car.Color in [blue,pink,red]

Machine learning 判断两幅图像是否相似的最佳模型

我的数据集是成对的图像,评级为1或0。1表示相似,0表示不相似。该模型必须以这样一种方式进行训练,即在训练中不存在的两个输入图像之间提供相似性。类的数量也是不确定的 我使用了ITML(信息论度量学习)、LSML(最小二乘度量学习)和CSML(余弦相似性度量学习)。所以我把这个问题解释为一个度量学习问题 有没有其他方法来看待这个问题或我可以使用的任何其他度量学习模型?根据您的描述,我认为您的问题的关键是从图像中提取特征,您可以从中计算出适合当前问题的度量。当您有足够的描述性特征时,您所陈述的大多数

Machine learning 在输入fn中实现minibatch

我目前正在Tensorflow中试用新的高级tf.contrib.learn API,方法是移植inception-v3再培训脚本中的以下功能: 我可以知道如何在每次迭代中复制验证和培训输入的小批量采样,如原始retain.py中所示吗 目前我尝试在input\u fn函数中使用tf.train.shuffle\u batch,但我不确定它是否有效 为清晰起见,请参阅一些代码片段 def train_input_fn(): # Get a batch of input bottlenec

Machine learning 分类器predict_proba仅返回1和0

我正在尝试为数据集构建一个多标签分类模型,该数据集还包括文本字段(描述)。 对于文本字段,我使用TfIdfVectorizer并为每个单词创建一列。即使在词干和使用停止词之后,我仍有数千行(对于每个文本字段,我创建一个新的TFIDFvectorier) 由于有这么多列,使用DecisionTreeClassifier模型,我的predict_proba函数只返回1和0作为概率分数。 我构建向量的代码部分如下 descVectorizer = TfidfVectorizer(analyzer='w

Machine learning AlphaGo零损失函数如何衡量MCTS概率和NN概率之间的相似性?

如图所示,AlphaGo Zero神经网络使用损失函数,该函数使用MCTS概率和值作为基本真值标签。我试图了解神经网络的输出是否被视为logit(例如实值)或原始概率([0,1])。在损失函数中,MCTS概率(我确信位于[0,1])是向量乘以NN概率的对数。这是损失中的一个负项,但是这个项的大小表明了两个向量的相似性吗?为什么值越大表示相似性越大?正如所解释的,这是交叉熵损失的蒙特卡罗估计

Machine learning 如何校正传感器与外部环境的偏差?

我有一个电磁传感器,它可以报告它在太空中读取的电磁场强度。 我还有一个发射电磁场的装置。它占地1米 所以我想用它的读数来预测传感器的位置。 但由于传感器受金属的影响,使得位置预测漂移 就像读数是1,你把它放在金属附近,你得到2。 差不多吧。这不仅仅是噪音,这是一个永久的漂移。除非移除金属,否则读数始终为2 一般来说,我需要学习哪些技巧或主题来恢复阅读1和阅读2? 假设金属被固定在空间的某个地方,我可以先把它放在金属附近来校准传感器 一般来说,你可以提出任何关于消除漂移的建议。另外,请考虑我可以让

Machine learning 如何修复HPCC ECL学习树错误:对象';类型';没有名为'的成员;t#u工作项';?

我正在尝试使用HPCC ML_Core和LearningTree库对一些数据进行分类。数据都是数字,因变量是无符号整数。无论我做什么,我都会收到相同的错误“对象“类型”没有名为“t_Work_Item”的成员” 错误的位置甚至不在我的文件中。它在一个名为RF_Base.ecl的文件中 我不知道如何修复这个错误 我使用本教程设置代码: 以下是我收到的错误消息: 图像链接: 我已将正在处理的文件移动到与我安装的捆绑包相同的文件中,以查看将文件放在与库相同的位置是否会有所帮助,但事实并非如此 错误发生

Machine learning 机器学习中多项式回归和多项式回归的区别是什么?

我目前正在努力掌握回归,我遇到过一些人用多项式和多项式这两个词,但我也听到有人说多项式回归是多项式回归的一部分。我显然很困惑 我知道多项式函数是这样的:f(x)=ax^2+bx+c,但据我所知,它也是一个多项式函数 “多边形”和“多重”的意思是一样的吗?或者有实际差异吗?多项式是包含多个项的多项式。单项式是多项式的一种,但不是多项式的一种。多项式是包含多个项的多项式。单项式是多项式的一种,但它们不是多项式的一种。那么单项式也是线性的吗?不,x^2是一个单项式,因为它只包含一个项那么单项式也是线性

Machine learning 如何使用数百个类和每个类中较少的样本量对文本数据进行分类

我有一个包含大约10000个小段落的数据集,这些段落属于类。大约有80-100个班。段落可以按层次结构组织。我想建立一个分类器模型,预测看不见段落的类别 目前我所做的是,我使用FastText实现了两步分类。首先,我将看不见的文本分类为顶级类,然后使用另一个分类器将其分类为已识别顶级类的子类。这帮助我提高了准确性 有更好的方法吗?有没有像文本分类那样好的分级分类器?或者,使用FastText本身可以以某种方式改进这一点吗

Machine learning 即使在过采样数据集之后,性能也非常低

我正在使用mlpclassizer对心脏病进行分类。我使用imblearn.SMOTE来平衡每个类的对象。我得到了非常好的结果(85%的平衡acc),但有人建议我不会对测试数据使用SMOTE,只对列车数据使用。在我做了这些更改之后,我的分类器的性能下降了太多(~35%的平衡精度),我不知道会出什么问题 以下是一个简单的基准,训练数据平衡,但测试数据不平衡: 这是代码: def改造样本SMOTE(X,y): 从IMBRearn.over_采样导入SMOTE sm=SMOTE(采样策略='all'

Machine learning 特征嵌入和图像特征有什么区别?

我必须计算两幅图像之间的相似性,我被引导使用自动编码器提取的图像的特征嵌入,而不是CNN提取的特征 我能知道特征嵌入的确切区别是什么吗?为什么它可以用来计算相似度,而不是CNN提取的图像特征 我对图像特征有一个高层次的想法,即它是通过在预先训练的网络(N-1)第层(而不是预测层(softmax或sigmoid)上运行单个前移道具生成的数据 我知道单词嵌入是将给定单词的一个维度投影到更方便的特征维空间 但嵌入图像的直觉是什么 什么时候使用一个而不是另一个?谁告诉你CNN提取的图像特征不能用于计算相

Machine learning 如何方便地控制Nvidia StyleGAN中的功能?

在Nvidia的StyleGAN视频演示中,他们展示了各种各样的UI滑块(很可能只是为了演示目的,而不是因为开发StyleGAN时他们实际上有完全相同的控件),以控制功能的混合: 然而,这里的GitHub repsoitory似乎缺少任何控制特性的简单方法 是否有任何Jupyter(或Kaggle)笔记本电脑具有通过滑块和上传的源照片进行功能控制的UI控件,或者一些简单的解决方案如何添加控件?我如何真正使用StyleGAN项目来做更多的事情,而不仅仅是生成一个随机图像?以防其他人也在寻找同样的

Machine learning 如何在ML中保存特征工程模型

建立模型后,我们保存模型以进行实时预测。但是,如果没有特征工程,保存模型将很简单,比如说,我做了一些chisquare、Randomforest来获得一些有助于模型准确性的特征。但当我保存此模型时,用于构建此模型的功能将与训练模型期间传递的原始数据完全不同 提前tnx。TL DR:在通过模型之前,您还必须对看不见的数据运行特征生成管道 长版本:功能不保存在模型中,而是保存参数。例如,在笛卡尔平面上有10个不同的点(x和y坐标是特征),然后将它们转换为极坐标,例如r和theta。此后,您将其建模为

Machine learning 如何为KubeFlow管道构建映像?

我最近发现了kubeflow和kubeflow管道,但我不清楚如何从python程序构建映像 假设我有一个简单的python函数来裁剪图像: class Image_Proc: def crop_image(self, image, start_pixel, end_pixel): # crop return cropped_image 我该如何将其装箱并在KubeFlow管道中使用?我是否需要将其包装在API中(例如使用Flask),或者需要连接到某个

Machine learning 不应该';t skimage.filters.threshold的返回类型\u是否介于0-255之间?

问题是为什么我的平均值是0.386。我不应该得到0-255左右的值吗。skimage.color.rgb2gray函数应返回像素范围为0-255的图像。但当我打印像素时,我看到的值介于0到1之间 对于这种混乱,我很难理解如何找到二进制图像。检查了skimage.color的文档,但没有发现任何有用的内容。skimage.color.rgb2gray(图像)方法在规格化后返回值,这就是为什么所有值都在0-1之间。答案很简单。skimage.color.rgb2gray(图像)方法在标准化后返回值,

Machine learning 如何实现考虑网络多个预测的自定义损耗函数?

我目前正在实现一个带有自定义错误函数的CNN。 我试图解决的问题是基于物理的,因此我可以计算出最大可实现的精度,或者换句话说,我知道我可以实现的最佳(即最小)标准偏差。在使用Cramer-Rao下限(CRLB)生成训练数据的过程中计算这些最佳可能精度 现在,我的错误函数看起来像这样(在Keras中): 在本例中,我有10个参数,所以我想用10个CRLB进行估计。我将CRLB放在目标向量中,只是为了能够处理错误函数中的错误 回答我的问题。这个方法有效,但它不是我想要的。问题是,计算误差时考虑了对网

Machine learning Keras Adam optimizer学习率超参数与单独计算的网络参数学习率之间的关系如何?

因此,通过我对Adam的有限理解(主要是通过这篇文章:),我收集到Adam优化器计算网络中每个参数的个体学习率 但是在Keras文档()中,Adam优化器采用了一个学习率参数 我的问题是Adam对象采用的学习速率参数与这些计算的学习速率有何关联?据我所知,这篇文章并没有涉及到(或者说是的,但它超出了我的理解范围)。因为这是一个非常具体的问题,我不会谈论亚当的任何数学细节。我猜在这篇文章中,这一行计算了不同参数的个人学习率 这是本文提出的实际Adam算法的屏幕截图 Adam保持过去梯度的指数衰减

Machine learning 空间变压器网络中的RoI裁剪

TL;DR:空间变压器网络的RoI裁剪方法是如何工作的 阅读PyTorch,我看到该网络使用了一种我以前从未见过的特殊RoI池,称为RoI裁剪。 阅读F.affine_grid和F.grid_样本的文档并没有解释太多那里发生的事情,因此我尝试阅读网络的,希望能够理解以及一些关于快速RCNN的,用图片详细说明方法的文档,但仍然没有帮助。 我觉得每一个来源都有不同的细节,无法了解那里到底发生了什么,因为我了解正常的RoI池和对齐方法 现在,这是我脑海中的大画面: 1.通常,将建议的RoI坐标映射到特

Machine learning 一种确定性在线算法的性能

我试图解决教科书中的以下问题: 亚历山德斯·斯里夫金斯的《多武装匪徒导论》 问题: 证明了专家问题的任何确定性算法都有N个专家和0个专家−1对于某些确定的、不经意的对手,成本可能遭受总成本T,即使事后看来最好的专家所产生的成本最多为T/N” 提示:修正算法。通过在roundt上归纳构建问题实例,使所选手臂的成本为1,所有其他手臂的成本为0 有人能建议如何解决这个问题吗

Machine learning 我应该使用哪种机器学习算法来预测特定停车位是否会被占用?

我正在研究硕士论文题目的想法。 我得到了一个包含数百万条记录的数据集,这些记录描述了街道上的停车传感器 我拥有的数据: -特定传感器上存在车辆(正确或错误) 正常情况下,很少有停车事件,其中存在具有不同持续时间的错误值 -到达时间和离开时间(月、日、小时、分钟甚至秒) -持续时间(分钟) 还有一些专栏,但我不知道如何在我的分析中显示“时间的连续性”和 根据停车位通常空闲或占用的时间,在未来某个时间的计算中反映这一点 有什么想法吗?您可以采取两种方法: 若你们想预测一个特定的空间是否会被占用,若你

上一页 1 2  3   4   5   6    7   8   9  ... 下一页 最后一页 共 267 页