Machine learning 机器学习-亥姆霍兹机器实现

Machine learning 机器学习-亥姆霍兹机器实现,machine-learning,artificial-intelligence,Machine Learning,Artificial Intelligence,我正在寻找亥姆霍兹机器的实现 参考资料: 我正在寻找开源或免费的实现。我对java实现有偏好,但是其他语言(C、C++、C或Python)的实现将帮助我。 在我的网上搜索中,我只找到了abstrac对这种方法的描述,没有任何具体的实现。我希望这方面的任何专家都能提供更多信息。我已经在您提供的链接上快速浏览了一下 我一直在“与一个人工智能感知小团队一起工作”。。。。。从1968年开始 我的想法如下: 所有事件都发生在“时间序列”中 就有知觉的观察者而言,过去的时间序列具有“高”概率 有知觉

我正在寻找亥姆霍兹机器的实现

参考资料:

我正在寻找开源或免费的实现。我对java实现有偏好,但是其他语言(C、C++、C或Python)的实现将帮助我。
在我的网上搜索中,我只找到了abstrac对这种方法的描述,没有任何具体的实现。我希望这方面的任何专家都能提供更多信息。

我已经在您提供的链接上快速浏览了一下

我一直在“与一个人工智能感知小团队一起工作”。。。。。从1968年开始

我的想法如下:

  • 所有事件都发生在“时间序列”中

  • 就有知觉的观察者而言,过去的时间序列具有“高”概率

  • 有知觉的观察者可以在“最佳”(时间序列)模型上预测未来的“预测”时间序列,当时间序列消失在未来时,该时间序列“成为过去时间序列”的概率减小到零,这可能发生在毫秒或数十亿年内-取决于模型动力学

  • 我认为从来没有“现在”

  • 不幸的是,在研究了卡尔曼滤波器和预测器并将其用于导弹瞄准后,我得出结论,人类能够提出的“数学表示”最佳算法(即模型)的整个“主题”是浪费时间,即使是最简单的“程序”正在做一项无法用数学符号表示的任务。。。所以我得出结论,“计算机算法”是“数学公式。。。i、 e.普通符号数学无法描述的公式(即程序优于复杂的数学符号系统)

  • 数学对于“证明”和“大的统计思想”来说是很好的,但是。。。(我现在快结束了)。。。我会“相信”你自己的直觉,创造一个“模型”,预测未来最好的。。。。i、 它可能必须有“在美国每隔一个星期三”的概念,在它里面。。。还有成千上万的其他非数学“状态”或各种“公理”。。。这很好

  • 那么你怎么问这在数学上是正确的呢

    答案很简单,真的>>最好的模型-是预测未来的最好模型

    未来总是出人意料地频繁出现——因此很容易测试——并不断测试

    你所需要知道的是,你有最好的“数学”(即程序)是看有多少“噪音”或“预测偏差”存在于预测与时间序列中的实际结果之间

    “状态空间”是用于此的最佳“数学”。。。i、 e.假设存在“基本状态”,然后假设您的“观察”只是该基本状态的有缺陷的“嘈杂或错误”观察-即系统输出信号“以某种方式”基于这些“不可见”的内部系统状态

    我们(主要在20世纪80年代)创建了一种称为MTR的人工智能感知“计算机语言”,它是为这种动态模型创建而设计的——但对我们(人类)来说,不利的一面是,它是为IA实体设计的,而不是为人类,尽管我们将使用“类似帕斯卡的语言”它的前端很快就可以让正常人使用了。IBM、英特尔、GCHQ、国防部、国防部等都有许可证,但我们随后搁置了它

    我们打算很快重新开始这个项目

    无论如何,这就是我的想法——我希望它对你的目的来说不是太抽象

    我们可以说。。。(我在开玩笑)。。。。那些试图用“纯数学”来编写程序的程序员们“有点胆小鬼”

    因此,希望程序员在不理解全部数学知识的情况下能够更加放松


    我希望这个想法也能帮助任何“非数学”的读者。。。。这一反应的重要性

    Deeplearning4j是Hinton可能归类为“Helmholtz”的各种深度学习机器的开源实现。

    有任何限制,如商业或F/OSS?语言/操作系统约束?到目前为止,你在彻底的网络搜索中发现了什么?提示:快速改进这个问题;它正在关闭的过程中。你应该让它更具体,指出你迄今为止发现/尝试了什么,通常提供你需要的上下文。(尽管如此,对于StackOverflow的格式来说,它可能被认为太宽了)。我想为我对这个社区的规范缺乏了解而道歉。我编辑这篇文章时把自己弄糊涂了。该版本难以获得。我认为现在的职位是好的。