Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/image-processing/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
 Image Processing_IT技术博客_编程技术问答 - 「Fatal编程技术网」

Image processing 确定摄像机参数

给定一张由一个简单的数码相机拍摄的照片,其中包含一个已知尺寸的矩形图像。在某种程度上,我怎样才能确定这个相机的参数 我最感兴趣的是平移、倾斜和摆动角度。 可以选择到矩形的距离 我承认相机的焦距和分辨率应该是已知的,但可以假设它们是可用的(例如通过exif元数据) 有什么简单的算法可以解决这个问题吗?您需要的是摄像机校准算法。一个常用的是 有关校准摄像机的更多信息,请参阅一个比较简单的介绍和示例代码(第12章IIRC) +1:Zhang的方法效果很好,必须阅读多视图几何!我以前看过张的论文,因为数

Image processing 在两个值之间缩放数字

如果给我一个浮点数,但事先不知道该数字将在什么范围内,是否可以以某种有意义的方式将该数字缩放到另一个范围内?我正在考虑检查数字是否在0范围内。如果不知道范围,则无法缩放范围内的数字 也许你要找的是模运算符。模基本上是除法的余数,大多数语言中的运算符是is% 0 % 5 == 0 1 % 5 == 1 2 % 5 == 2 3 % 5 == 3 4 % 5 == 4 5 % 5 == 0 6 % 5 == 1 7 % 5 == 2 ... 当然不可能。可以定义范围并忽略所有外部值。或者,您可以收

Image processing 确定岩石高于水面的高度

我目前正在帮助一位从事地球物理项目的朋友,我绝对不是图像处理专业人士,但玩起来很有趣 围绕着这些问题 目的是估算从表面到顶部伸出水面的小岩石的高度 实验设备将是一个安装在测距仪上的10MP摄像机,带有内置激光指针。 “操作员”会将其指向岩石,按下触发器,该触发器将记录岩石照片的一段距离,该距离 将位于图像的中心 可以假设设备始终保持在水面以上的固定距离 在我看来,有许多问题需要克服: 照明条件 根据一天中的时间等,岩石可能比水亮或比水亮 有时岩石的颜色会非常接近水 遮阳帘的位置将在一天中移动

Image processing 视频投影仪可以接收输入吗?

视频投影仪可以接收输入吗?。。我想创建一个增强现实应用程序,用户可以点击屏幕上的按钮。 只有投影仪才能做到这一点吗?还是还需要一台照相机 我知道没有照相机是不可能的。但我对投影仪了解不多,这就是我为什么要问这个问题的原因你需要像照相机(也可以是kinect或类似的东西)或像“可触摸的墙纸”(不知道市场上是否有东西) 再见! Stefan投影仪只能投影。。。他们使用一个强大的灯泡将图像投射到屏幕/墙上 如果你想要某种输入,你需要一个摄像头或另一个传感器。这甚至可能是任天堂Wii遥控器: (请看第二

Image processing 单纯形噪声与柏林噪声

我想知道为什么柏林噪音在单纯形问世后的今天仍然如此流行。单纯形噪声是由Ken Perlin自己制造的,它被认为将取代他的旧算法,该算法对于更高维度和更好的质量(没有可见的伪影)来说速度较慢 Simplex noise于2001年问世,在这10年中,我只看到人们在为地形生成高度贴图、创建程序纹理等方面谈论柏林噪音 谁能帮我一下吗,单工噪音有什么坏处吗?我听说柏林噪声在一维和二维噪声中更快,但我不知道这是真是假 谢谢 我还没有使用过单纯形噪声,但我可以考虑以下几个原因: 也许是因为我们习惯了正方形

Image processing 批处理photoshop层,每个保存的层都有一个特定的文件名

我有一个层,是一个250x250px的圆 我设置了一个动作来复制这个圆层,并将大小减少99.2%(-2px) 我现在需要能够将该层保存为png文件,文件名特定于每个层的尺寸-即circle_248x248.png、circle_246x246.png等等 我可以批量保存,但需要技巧的是使用特定于层维度的文件名保存 有什么建议吗 提前谢谢 您可以使用来对脚本进行更多控制,并以编程方式命名文件。用行动是无法做到这一点的 如果您可以访问PHP服务器并编写一个简单的脚本来创建所有图像,那么就可以使用GD

Image processing 如何使用OpenCV在角点检测中指定阈值角度?

我试图得到由两条近似垂直的线段组成的角点,而不是由Shi Tomasi或OpenCV中提供的Harris角点检测器检测到的所有可能的角点 例如: 像上面这样的东西会根据需要生成一个角-这两条线足够接近垂直 然而,以下是我试图避免的: 000000000000000000 000000000000001111 000000000011110000 111111111100000000 000000000000000000 这里的线肯定不是几乎垂直的,但是没有参数指定探测器的阈值角度。有没有办法用

Image processing 专业目标跟踪解决方案

我想建立一个基于视频的跟踪软件。我可以很容易地管理控制和显示,但视频流中的实际对象跟踪非常困难(颜色跟踪不是选项)。 像openCV这样的解决方案可能需要很长的学习曲线,这是我买不起的。 是否有专业的软件包公开了一个简单的对象跟踪API?C语言和C++是首选语言,但其他语言也很好。价格也不是什么问题。使用。它几乎可以跟踪任何东西,但一次只能跟踪一件事。代码在matlab中。使用。它几乎可以跟踪任何东西,但一次只能跟踪一件事。代码在matlab中。matlab计算机视觉系统工具箱提供跟踪功能。请查

Image processing 混淆HSI和HSL颜色空间

我正在读一本关于图像处理算法和对比度的书 算法它说我可以先去RGB->HSL或RGB->HSI,然后 然后在“亮度”组件上为灰度图像应用对比度技术 那么它只给出了这个公式,没有给出其他颜色转换公式: L(x,y)=0.299*R(x,y)+0.587*G(x,y)+0.114*B(x,y) 该公式既不适用于HSL中的L,也不适用于HSI中的I,即 什么使我困惑 谢谢这是第四个项目符号中提到的luma值:这些模型之间有很多混淆。我猜它是取自HSB的model

Image processing 如何从直方图中获取阈值?

我正在OpenCV中编写一个Android应用程序来检测斑点。一项任务是对图像设置阈值,以区分前景对象和背景(参见图) 只要图像已知,它就可以正常工作,我可以手动将阈值传递给threshold()——在这个特定的图像中,比如200。但是假设图像不是已知的,只知道会有暗的固体背景和较亮的前景对象,我如何动态地计算出阈值呢 我遇到了直方图,在这里我可以计算灰度图像的强度分布。但是我找不到一种方法来分析直方图并选择感兴趣的对象(较轻的)所在的值。就是,;我想区分明显较暗的背景尖峰和较亮的前景尖峰——在

Image processing 使用DirectX HLSL像素着色器为照片创建图像效果

是否可以使用DirectX像素着色器为照片创建图像效果?我有一个C++应用程序,包括照片数据库管理器的一种。它利用GDI+进行图像处理,我想为用户提供一些奇特的图像效果——我想通过DirectX像素着色器来实现。我希望实现类似的效果,就像Shazzam工具提供的开箱即用的示例库一样——不幸的是,我使用的是纯GDI+而不是WPF 为了在GDI+位图中创建图像效果,我考虑了以下步骤: 1) 通过GDI加载图像+ 2) 初始化DirectX,加载/编译着色器,将GDI+图像转换为DirectX中的纹理

Image processing 找到条形码和摄像头之间的距离?

如果实际条码的大小和摄像头检测到的条码所有角的(x,y)已知,是否可以找到检测到的qr条码(正方形)和摄像头之间的距离 我希望该方法能够工作,即使相机与条形码成一定角度 我尝试使用一个简单的方程,如f=d*z/d,其中f是相机的局部长度,d是物体的大小,d是检测到的物体的宽度(以像素为单位),z是相机和条形码之间的距离。首先,我使用已知距离的数据计算焦距,然后得到相应的z值 虽然上述方法工作得很好,但如果相机处于某个角度,则会产生很大的误差 有没有更好的方法 另外,我只能使用一个摄像头,不能使用

Image processing 检测窗口上的非最大抑制

在目标检测文献中,通常使用分类器和滑动窗口方法来检测图像中是否存在目标,该方法返回一组检测窗口,并使用非最大抑制来解决检测重叠 有人能解释一下在这些检测窗口上执行非最大值抑制的算法吗 谢谢你引用我的话 图像面片的扫描窗口样式分类通常会导致目标对象周围出现多个响应。处理这一问题的标准做法是移除具有局部最大置信度得分(非最大值抑制或NMS)的检测附近的任何检测器响应。NMS通常应用于图像中的所有检测,置信度高于某一阈值。在不同的阈值和图像中尝试NMS人脸检测: 在这里,您还可以找到一个matlab程

Image processing 如何推断出一个3D对象的任何视图,知道所有这些';s二维视图(上、下、前、后…)

嗯,这个标题是不言自明的。我在问一种计算3D对象任意视图的方法,知道它的旋转和所有6个视图(投影在立方体上;顶部、底部、前部、后部…)。甚至可能吗 (对第一条评论的答复) 我想问的是一种从多个2D视图创建3D对象的任意2D投影的方法。不必先创建三维对象,然后再将其投影到二维中。不,这是不可能的。即使您的3D视图比您的情况多得多,通常也不可能 在文献中,潜在的问题被称为轮廓形状或视觉外壳。这是从多个2D投影中查找3D形状的问题,了解3D形状是您想要了解的内容(新2D投影)的先决条件 如果你搜索这两

Image processing 如何创建视频OCR?

我在win form C#申请中工作。 应用程序从视频设备(如电视/摄像机或输入视频文件)抓取图像。 然后处理它并将其保存在文本文档中 我的问题是,“如何创建数字视频OCR?” 请向我推荐任何教程/链接/源代码。从OCR部分和相机方法的开始。祝你好运。因为视频OCR仍然是一个活跃的研究课题,你可能需要付出更多的努力来开发自己的视频OCR引擎。基本上可以基于视频场景剪切检测、文本检测和视频剪切识别来构建视频OCR框架 使用场景切分检测作为预处理步骤,以降低计算成本;然后定位视频剪切帧中文本内容的位

Image processing CUDA:减轻多媒体数据主机到设备传输带来的开销?

我正在从主机上的多媒体数据集中提取特征,我想在从所有图像中提取特征后执行一些处理任务 特别是,我想执行一系列操作,如距离计算和数据库索引或哈希的预处理,可能在GPU上加速。但是,与顺序处理相比,传输大型特征阵列的成本太高,并且降低了性能 有人能提出一种方法来处理需要传输大型数据集的大型数据密集型任务吗 通过使用异步内存拷贝和流,尝试重叠内存传输和计算,可以隐藏传输大型阵列的成本 要完全理解如何使用,请查看simpleStreams CUDA SDK示例。在这里,这只是一个大概的想法 让我们假设G

Image processing 在java中将jpeg/png转换为tiff

我正在使用蜡染库进行图像转换,我需要将jpeg/png转换为tiff格式。 有谁能帮助我如何使用蜡染进行转换(更好),因为我正在使用相同的库进行其他SVG转换。您可能可以进行PNG->SVG->TIFF转换 此链接应为您指明正确的方向: 检查“使用光栅化器任务的示例”部分 希望这有帮助

Image processing 低质量扫描电镜图像的图像处理

我对图像处理不是很在行……但我已经获得了一些非常嘈杂的SEM图像,很难区分我想从背景中分割的粒子。我知道这是一个一般性的问题,但是……你能告诉我该怎么做吗 先谢谢你 Adi如果不知道自己想要实现什么,就很难过于具体。如果这只是改善图像的视觉效果,我的第一个建议就是使用中值滤波器。使用较小的内核大小以避免过多地腐蚀边缘 例如,以下是原始未处理图像的一部分: 下面是应用半径为2像素的中值滤波器后的相同部分: 在我看来,图像也有轻微的散焦,你可以尝试一些反褶积算法,比如维纳滤波器 如果要以某种方

Image processing 多维内核执行的CUDA动机

CUDA将工作划分为块是合乎逻辑的,因为它反映了硬件(单个执行单元中的一些执行线程,都在同一个“块”中) 然而,在我研究图像处理算法的实现时,还不完全清楚为什么我应该有块的二维网格,每个块都是线程的二维网格。为什么1D不行?毕竟,内核调用通常只将图像视为像素的线性一维数组,并且必须通过乘以通常的行*列+列中的偏移量来计算其全局索引 我的一个猜测是空间位置。我们通常根据像素周围的像素计算像素的内容,因此2D线程网格确保所有相邻像素在同一执行单元内运行,从而可以共享本地内存等。这是否正确?我还缺什么

Image processing 如何让filepicker.stat()返回旋转图像的尺寸?

我们正在从filepicker.pickAndStore()获取图像元数据并将其存储在成功回调中。现在,我们正在使用filepicker.stat()获取维度: 我们希望宽度和高度返回旋转图像的尺寸(使用rotate=exif)。做这件事最简单的方法是什么?你有没有碰巧得到什么解决方案? // file is an object returned from the success callback filepicker.stat(file, { width: true, height: true

Image processing 分配卤化物生成功能的推荐方法?

我目前正在试验,初步测试显示性能有了很大的提高 我现在想知道分发卤化物代码的最佳策略是什么。此时要求用户安装卤化物似乎是一个沉重的障碍(因为没有自动安装选项) 一个选项是使用将_编译为_c,将生成的c代码添加到存储库中,并分发此类c代码的编译脚本。对Cython生成的代码使用类似的策略。对于Halide来说,这似乎是不可能的,因为生成的C代码丢失了所有的优化,从而破坏了Halide的用途 我现在的想法是使用 ,将生成的位代码与调用以生成所需机器代码的编译脚本一起分发。用户的唯一要求是安装llc(

Image processing 从隐写分析测试中获得检测概率

阅读本文,更具体地说,在第8.1节中,他对其提出的方法图像与LSB图像使用加权隐写分析,以生成一张图表来比较检测概率 根据我对WS输出字符串估计(p hat)的理解,我的问题是他是如何得出这样的图表的 换句话说,他是如何使用p='Estimation of payload'来推导探测概率图的 任何帮助都将不胜感激我想您是指图7和图8。你到底在问什么?您是否需要进行必要计算的代码来输出这样的图形?如果您想了解其背后的数学/原理,而不是编写算法,那么另一个Stackexchange站点可能更合适。为

Image processing 当不知道物体与相机之间的距离时,如何从图像中获得物体的真实尺寸?

我必须制作一个移动应用程序来计算图像中物体的真实尺寸 我对此做了一些研究,发现有帮助的[问题]: 摄像机的距离和物体的真实尺寸之间的关系实际上并没有那么复杂,传感器上物体的尺寸与现实中物体的尺寸之比与焦距和物体距离之比相同 distance to object (mm) = focal length (mm) * real height of the object (mm) * image height (pixels) -----------

Image processing 基于FSL的fMRI图像下采样

我有一组功能磁共振图像。一组具有90 x 60 x 12 x 350的维度,体素维度为1 x 1 x 1 mm(350个体积)。另一组的维度为80 x 35 x 12 x 350,体素维度为0.2 x 0.2 x 0.5 mm。我正在使用其中一个图像作为注册的参考图像。由于分辨率不同,注册失败(使用调情)。所以我必须先降低采样或升高采样。我尝试过以下方法: 调情-输入图像\ -参考良好的尺寸图像\ -输出图像\ -applyxfm\ -init/usr/share/fsl/5.0/etc/stc

Image processing 打印机控制语言-打印图像x y坐标

我试图在Windows命令行中使用LPR打印图像,但无法更改x y坐标。我已经阅读了HP文档,它的语法似乎是*p#X*p#Y。我用文本来尝试这个方法,效果很好,但只要我用图像来尝试,无论我输入什么数字,它都不会从0,0改变。以下是内容的外观 %-12345X@PJL USTATUS DEVICE CODE=40020@PJL COMMENT Source Technologies ST-912@PJL SET PAGEPROTECT = AUTO@PJL SET LIMAGEENHANCE

Image processing 基于map-reduce的图像平滑

我有一个图像,每个像素的RGB值存储在一个二维数组中。假设我想应用,一个用于平滑图像的基本3X3平均算法。如何使用map-reduce范式实现这样的算法 提前感谢。我花了一段时间在map reduce范例中思考,但无论如何,它在这里- 映射任务 输入-(x坐标、y坐标、RGB值) 输出-9个元组,它们是{(x,y,RGB),(x-1,y,RGB),(x-1,y-1,RGB),(x+1,y-1,RGB),(x+1,y,RGB),(x-1,y+1,RGB),(x,y+1,RGB),(x,y+1,RG

Image processing 鱼眼修正公式,需要解释吗

经过广泛的搜索,我还没有找到一个像样的解释公式WebGL鱼眼图像校正。一个Shadertoy at显示一个公式 uv=m+normalize(d)*atan(r*-power*10.0)*bind/atan(-power*bind*10.0) 这被字面上描述为“奇怪的公式”。它在某种程度上遵循了保罗·伯克(Paul Burke)关于镜头畸变校正的工作,但我看不出两者之间的联系。在我的应用程序中,公式归结为(值通过我的镜头和网络摄像头手动调整): 其中,r是像素到图像中心的距离,d是该方向上的单位

Image processing 非凸均匀网格三角剖分

我试图在2D中三角化一个非凸的均匀点网格。我只需要在每个点的8-邻域中使用三角形。问题是,当使用vtkDelaunay2D时,我获得了违反此条件的三角形,从而(在某些配置中)产生了凸平面图形三角剖分,即使存在非凸三角剖分 我可以实现这种三角测量,但我不想重新发明轮子。我可以使用哪种算法来实现这一点 提前谢谢 Delaunay三角剖分的边界必然是点集的凸包。但是如果你的点在一个规则的网格上,并且你只想承认跨越一个网格步的三角形,为什么还要费心费心费心费心费心费心费心费心费心费心费心费心费心费心费

Image processing 计算机视觉:计算描述符的标准化值

我正在做图像分类项目,我已经制作了特征语料库 我想为-1到1之间的PyBrain输入规范化我的特征,我使用以下公式规范化特征 Normalized value = (Value - Mean ) / Standard Deviation 但是它给了我一些-3到3之间的标准值,这是非常不准确的 我在pybrain中有100个输入,pybrain有1个输出。如果您有正的数据集,您可以使用此公式规范化您的值 Normalized value = (Value / (0.5*Max_Value) )

Image processing 如何创建自定义带通滤波器?

在第4.1节(预处理)中,给出了带通滤波器的方程: 在哪里, 现在,我实现了如下内容: 但是,此代码不会产生任何结果。您需要创建内核的映像,然后将其与映像进行卷积。fft用于优化大图像的卷积。您可以使用filter2D函数让opencv为您做任何事情 内核映像: 源图像: 应用的卷积: 尝试控股: 请参阅下面的代码: import cv2 import math import numpy as np class Kernel(object): def H_Function

Image processing 从摄像机图像中检测圆心

因此,我正在开发一款Ionic应用程序,它使用手机摄像头检测织物上的圆圈,如下图所示: 其中最大尺寸为3x3网格,有4种不同颜色(浅蓝色、深蓝色、浅绿色和深绿色)。基本上,我将问题分为三个步骤: 得到每个圆的中心 获取每个圆中心的颜色 使用每个圆中心的位置,创建阵列的二维阵列表示 我的问题是找出实现第一步的最佳方法。我已经研究了Hough转换,但找不到非常好的Javascript资源。如果有比使用Hough变换更简单或更好的方法,我将非常感激。您可以使用分水岭算法进行图像分割,如中所述 在这种

Image processing Kullback-Leibler可以用来比较两幅图像吗?

我知道KL不是一个指标,也不能被视为一个指标。但是,是否可以使用KL来测量一幅图像与另一幅图像之间的差异?我试图从中获得一种直观的感觉。提前感谢所有回复。KL测量两个概率分布之间的差异 为了在图像中应用它,您需要将图像转换为概率分布 一个简单的例子是,获取图像的直方图(灰度),然后将直方图值除以图像中的像素总数。这将导致在图像中找到灰度值的概率 将其应用于两个图像,然后使用KL测量图像之间的差异 这不是测量图像之间差异的真正好方法,因为它没有考虑图像的空间信息,只考虑灰度值信息 因此,您需要找到

Image processing 如何在二维图像堆栈上可视化三维结构张量?

我在模拟我读过的一篇论文。他们可视化了膝关节MRI的3D结构张量,如下图所示: 我经常上网,但我找不到合适的答案回答我的问题。我计算了三维结构张量的特征值和特征向量,如下所示: function [mu3,mu2,mu1,v3x,v3y,v3z,v2x,v2y,v2z,v1x,v1y,v1z]=EigenVectors3DTensor(G1x.^2, G1x.*G1y, G1x.*G1z, G1y.^2, G1y.*G1z, G1z.^2) % first derivative of eac

Image processing 使用scipy.ndimage.uniform_过滤器在天文照片中查找恒星,但对结果感到困惑

我正在夜空中寻找星星,在制作了一个面具后,我使用不同大小的scipy.ndimage.uniform_过滤器来寻找星星。它看起来工作得相当好,但我预计一旦我使用了足够小的尺寸,我会得到更多的点击,因为我进一步缩小了尺寸,但它并没有一直这样做,我只是对此有点困惑 在底部的一个受灾地区附近有一个摘录 下面的代码告诉我: size: 3, len: 621 size: 4, len: 340 size: 5, len: 200 size: 6, len: 0 size: 7, len: 0 size:

Image processing 定义矩形时坐标顺序的约定

给定一个坐标系(例如像素网格),可以用四个数字定义一个矩形:两个x轴值(矩形的侧面)和两个y轴值(矩形的顶部/底部)。我的问题是,对于这些值的顺序,是否有一个广泛使用和/或接受的约定?图像处理界最熟悉的顺序是什么?没有“约定”,因为不同的用途可能需要不同的表示方式。 FWIW,矩形通常以两种方式之一定义: 原点(x,y)+尺寸(宽x高) 左上角(x0,y0)+右下角(x1,y1) 也就是说,这些方法有很多种排列方式,通常类方法会提供转换,多个构造函数可能支持多个初始化。出于好奇,您对“约定”和“

Image processing 如何检测单个像素宽度线的两条相邻线

假设有一个二值图像,0像素为背景,255像素为单像素宽度线。现在我尝试检测单像素宽度线的两条相邻线 例如,下面的图片中有两种线条。黑色的是单像素宽度线,两条红线是我要找的。是否有任何算法来检测两条相邻的线 我想你是在问,它是否a)对于具有3x3结构元素的形态开口不变量,以及b)对于具有5x5结构元素的形态开口,它是否会碎裂 然后,您需要使用3x3元素进行腐蚀,并从原始图像中减去。您真的想检测它们吗?它们真的符合你的形象吗?或者你有黑色的,并且想要得到红色的在哪里?你的照片里还有什么?这些线条实际

Image processing 在Swift 3/4中获取EXIF信息时出错

我想从照片库中的图像获取EXIF数据,但找不到正确的方法。我使用了和的答案。我将获得以下控制台输出: imageSource: <UIImage: 0x6080000b8a20> size {3000, 2002} orientation 0 scale 1.000000 2017-09-18 11:24:28.513567+0300 PhotoTest[10581:6526935] CGImageSourceCopyPropertiesAtIndex:3517: *** ERRO

Image processing Tensorflow对象检测API-重新训练以使用来自不同颜色空间的图像?

我已经能够重新训练对象检测模型,以便与我的自定义类一起工作。但我现在想做的是在推断过程中修改输入到不同的颜色空间(最好是YUV) 我需要修改网络吗?可以使用相同的API来完成吗?我仍然能够使用转移学习还是必须从头开始训练?转换为RGB可能是最简单的,但使用转移学习训练绝对是可能的。您仍然需要将YUV值保存为JPEG的RGB通道,并且不清楚这样做而不是简单地转换为RGB是否有任何显著的优势 一个可能的小速度优势是,如果您希望以较低的空间分辨率表示色度(U,V)通道(通常是这样),但这可能需要设计一

Image processing 使用YOLO制作应用程序

我是YOLO的新手,正在尝试使用YOLO制作汽车计数应用程序。这些车来自视频文件。有参考资料吗?谢谢我建议您尝试从多个地方学习: 1) 来自coursera的CNN课程 本课程对YLO有很好的解释(还有关于车辆检测的作业,可以很容易地扩展到车辆计数),本课程的其余部分也很好 (二) 这篇文章重点介绍了一些实现细节,并讨论了yolo和yolov2文件,帮助我解决了在尝试实现yolo时遇到的一些问题 3) 原始文件(尽管这可能太高级): 4) keras实施: 如果您希望简单地获得代码,可以使用一个

Image processing 从jpeg中删除文本

我有一个包含alpha混合文本的jpeg。知道了字体和大小,我推断出一个代表文本的png文件 使用ImageMagick,我可以得到原始图片的近似值吗?一种方法是使用一种称为修复的技术。你可以在Python Skipage的 或者在OpenCV中 以下是Python Skipage修复处理: 基蒂形象: 水印图像: 略读修复需要一个二值掩模图像。因此,我可以通过以下方式将您的水印转换为此类掩码: convert watermark.png -alpha extract -thresho

Image processing 受损QR码重构

编辑 下图是原始图像上的预处理序列。 1.原始图像->2。模糊x n次以使qrcode位置有效->3。裁剪原始图像,使用blob->4从第二步提取位置。锐化和阈值->5。检查三个方块的qrcode->6。要执行其他变换,如旋转->(最终图像)(具有调整大小分辨率的裁剪图像) 老问题 我试图从原始图像重建QR码。正如你所看到的,这张照片已经损坏了QR码,所以我使用了一个RGE库,使用blob从图像中检测出3个正方形。现在我不明白的是从这些信息生成qrcode的逻辑。在技术上是否可以用给定的信息重建

Image processing 检测旋转车辆图像

我想将车辆图像(90度、180度或270度)旋转到正确的位置。 我使用了一个假设,即:以4个角度(0、90、180、270)旋转图像,并将每个角度赋予对象检测神经网络,给出最大汽车对象可信度分数的角度将是我旋转图像时必须使用的角度。 问题是:一些旋转180度的图像比原始图像的分数高,因为神经网络错误地检测到两个车轮的道路就是汽车。例如: 我怎样才能防止这种情况发生? 我的型号:ssd\u resnet\u 50\u fpn\u coco from 以下是一些其他失败案例: 在图片中搜索车轮并

Image processing 我可以从我的kinect传感器获得物体的真实世界距离(以米为单位)?

我有一个kinect(v2)可以捕获深度图像。在深度图像中,我在桌子上有一些对象;我想知道kinect传感器到桌子上物体的距离 如何计算工作台上物体到kinect传感器的距离(m或cm) 我不知道我是否可以使用图像像素的强度值来进行一些图像处理。感谢您的帮助 Kinect v2的深度图像可以是8位(0-255)或16位(0-65535)PNG图像,深度数据以毫米为单位,最大可达4500或8000毫米,具体取决于数据的保存方式。(Kinect SDK中提供的“深度基础”示例以8位PNG格式保存图像

Image processing 将图像的像素从给定的一组颜色更改为最接近的颜色

我没有任何编码经验,考虑到我的知识,我正在承担一个可能有点雄心勃勃的项目,所以我需要一些帮助 我正在尝试将地球上两幅图像的像素从16种不同颜色的托盘转换成最接近的颜色。图像为160x160像素。我的目标是拍摄这些图像,并将它们转换为相同的160x160图像,但仅包含所选颜色的像素 我有十六进制格式的16种颜色的值 -黑色:1D1D21 -红色:B02E26 -绿色:5E7C16 -布朗:835432 -蓝色:3C44AA -紫色:8932B8 -青色:169C9C -浅灰色:9D9D97 -灰色

Image processing 自适应傅里叶滤波器

主要问题 是否有人已经为数字显微照片(或者ImageJ)创建了一个免费的自适应傅里叶滤波器 关于自适应傅里叶滤波器 我想为我的TEM图像处理使用一些有效的过滤过程。我在1993年遇到了Möbus等人提出的自适应傅里叶滤波技术[1]。简而言之,这是一种与工作流交互的空间过滤技术: FFT(图像)-->掩码*FFT(图像)-->iFFT(掩码*FFT(图像)) 该滤波器的新特性是,滤波器的形状与图像的光谱相适应,并且遮罩的窗口自动放置在允许的所有位置 信号与噪声的最佳分离[2] 我已经试过什么了?

Image processing Can';我不知道如何解决这个图像分割问题

我的训练图像是由从一些拼接图像的ELAs(误差水平分析)中提取的蓝色通道组成的,标签只是由它们相应的地面真值掩码组成 我已经构建了一个简单的编码器-解码器CNN,如下所示,用于进行分割,并在细胞膜分割任务中进行了测试。在那里,它表现得很好,可以创建接近地面的真实图像,所以我想我创建的神经网络足够强大 但是,它无法处理CASIA1+CASIA1GroundTruth数据集上的拼接图像。请帮助我修复它,我花了太多的时间尝试不同的架构和图像预处理,但没有运气 输入图像 基本事实 输出/生成图像

Image processing 如何使用opencv python查找轮廓外的点

我有cv2.findContours获得的轮廓坐标。但是我想得到轮廓外一个像素的点,我怎么能做到呢?你的问题对我来说并不清楚。请提供更多详细信息或提供图像或图表。欢迎来到堆栈溢出。请阅读帮助中心()中的信息指南,特别是“如何提出一个好问题”和“如何创建一个最小的、可重复的示例”。好的,您可以尝试这两种方法,看看哪一种方法可以提供所需的结果。首先,在轮廓顶部绘制1像素宽的轮廓,然后在生成的图像上执行“查找轮廓”。结果图像应向外偏移1像素。其次,您可以尝试通过2x2内核来扩展图像,然后获得轮廓。这一

Image processing 跨浏览器的图像解压缩的一致性如何?

我一直认为jpg压缩图像中的失真是由压缩过程本身引起的,并且对同一源图像进行解压缩会产生相同的像素,而不管使用的是什么解压缩库。我最近在这一点上受到了挑战。我做了一些测试,并没有观察到变化,但我的测试绝不是详尽无遗的。我对这一主题的研究产生的文章真的超出了我的理解,所以我正在联系专家。如果输入相同的jpg,两个不同的解压器是否可能生成不同的像素数据 理论上 简短回答:没有 长答覆: 甚至根据维基百科()的说法,JPEG是“连续色调静态图像的数字压缩和编码”的标准。它在人类语言中的意思是,经过标准

  1    2   3   4   5   6  ... 下一页 最后一页 共 101 页