Data structures 模糊逻辑真的能改进简单的机器学习算法吗?

Data structures 模糊逻辑真的能改进简单的机器学习算法吗?,data-structures,machine-learning,computer-science,fuzzy-logic,Data Structures,Machine Learning,Computer Science,Fuzzy Logic,我正在阅读有关模糊逻辑的书籍,但我不知道它在大多数情况下如何改进机器学习算法(它似乎经常应用于机器学习) 以k最近邻为例。如果你有一堆属性,比如颜色:[红、蓝、绿、橙]、温度:[实数]、形状:[圆、方、三角形],除了实数属性之外,你不能真正模糊化任何属性(如果我错了,请纠正我),我不认为这能比把东西拼凑在一起更好 如何使用机器模糊逻辑来改进机器学习?大多数情况下,你在大多数网站上看到的玩具示例似乎并不完全适用。当变量具有自然形状解释时,模糊逻辑是可取的。例如,[很少,很少,很多,很多]对值有一个

我正在阅读有关模糊逻辑的书籍,但我不知道它在大多数情况下如何改进机器学习算法(它似乎经常应用于机器学习)

以k最近邻为例。如果你有一堆属性,比如
颜色:[红、蓝、绿、橙]、温度:[实数]、形状:[圆、方、三角形]
,除了实数属性之外,你不能真正模糊化任何属性(如果我错了,请纠正我),我不认为这能比把东西拼凑在一起更好


如何使用机器模糊逻辑来改进机器学习?大多数情况下,你在大多数网站上看到的玩具示例似乎并不完全适用。

当变量具有自然形状解释时,模糊逻辑是可取的。例如,[很少,很少,很多,很多]对值有一个很好的重叠梯形解释

像颜色这样的变量可能不会。模糊变量表示隶属度,这是它们变得有用的时候


关于机器学习,这取决于您希望应用模糊逻辑的算法的哪个阶段。在我看来,在发现集群后(使用传统的学习技术)更好地应用它来确定每个集群上搜索空间中某个点的隶属度,但这并不能改善每次see的学习,但是学习之后再分类。

我不清楚您在给出的示例(形状、颜色等)中试图实现什么。模糊逻辑已经成功地用于机器学习,但我个人认为它在构建策略时可能更有用。我不想继续讲下去,而是让大家看我在2002年3月/4月出版的《PC AI》杂志上发表的一篇文章,希望这篇文章能清楚地表达我的想法:


[圆形、方形、三角形]是最理想的类别,主要存在于几何学(即理论)中。在现实世界中,某些形状可能几乎是正方形,也可能或多或少是圆形(圆形)。红色有很多细微差别,有些颜色与其他颜色更接近(例如,请一位女士解释绿松石色)。因此,抽象类别和某些特定值也可用作参考,在现实世界中,对象或值不一定等于这些对象或值


模糊隶属度允许您测量某些特定对象与某个理想对象的距离。使用此度量可以避免“不,它不是循环的”(这可能会导致信息丢失),并利用给定对象是(不是)循环的度量

在我看来,模糊逻辑不是一种实际可行的方法,除非您正在构建一个专门构建的模糊化控制器或一些基于规则的结构,如法规遵从性/策略。尽管如此,fuzzy意味着处理0和1之间的所有内容。然而,我发现当你处理更复杂的问题,需要在三维空间中应用模糊逻辑时,它有点缺陷。你仍然可以在不看模糊逻辑的情况下处理多变量问题。不幸的是,对于我研究过模糊逻辑的人来说,我发现自己不同意在大维空间的模糊集合中处理的原理,它似乎不可行,不实用,逻辑上也不太合理。在模糊集解决方案中应用的自然语言基础也是非常特殊的,确切地说是[非常、很少、很多],这就是您在应用程序中定义的所有内容。
在很多机器学习方面,你会发现你甚至不必在模型中构建自然语言基础。事实上,您会发现您可以获得更好的结果,而无需将模糊逻辑应用到模型的任何方面

强行给它添加模糊性会让你有点恼火。如果不是“形状”属性,而是“边数”属性,它将进一步分为“较少”、“中等”、“较多”和“不可数”。在适当的隶属函数下,正方形可以是“较少”和“中等”的一部分。如果您有“红色”属性,则可以使用RGB代码来代替“颜色”属性,创建成员函数。因此,正如我在数据挖掘方面的经验所说,每种方法都可以应用于每一个数据集,什么有效,什么有效。一个人不能将离散集转换为连续集,并获得与模糊性相同的效果,同时能够使用概率论的所有技术吗


例如,size['small'、'medium'、'big']==>[0,1]

这是一个语义问题。如果您不是在谈论红/蓝/绿/橙的文字RGB值,那么它们可能是“模糊”术语。圆形/方形/三角形的术语也类似。