我正在编写一个应用程序,它获取一个输入图像,并在其他图像库中查找“类似”图像
挑战的一部分是,我不想做一个完整的图像匹配,但我是
图像的大小可能不同(占页面的百分比不同)
图像可能会被旋转
这些图像可能具有不同的比例(有些图像可能会放大相似对象的部分)
想象一下看一个链式围栏。其中一幅图像可能是缩小的视图——比如说100个“链接”(10x10)。另一个图像可能只显示4个链接(2x2)。我想说“啊哈——这些栅栏是由同一家公司制造的,因为它们的设计相似
我可以接受误报,因为我可以手动查看结果,但
假设我们有这样一个图像
(来源:)
假设我们已经在这张图片中使用了滤波器和边缘检测算法。现在我的目标是测量距离(不是实际距离,距离可以是任意单位)。
我怎么计算大厅的长度?(直到窗户)
还是书架的高度?如何准确地放置“标尺”和测量。我在找主意。不过,如果答案是用OpenCV的话,那会有所帮助。这取决于你想做什么
你提到你想测量书架的高度。如果你能考虑到书架的紧邻区域比书架的结尾处的书架的高度要短,你所要找的就是测量距离。选择一个“像素”单位,然后使用毕达哥拉斯定理测量距离。(x^2+y^2=z
我遇到了一个问题,那就是一架无人机在下面安装了摄像头。提供了以下信息:
Lat/Long中无人机的GPS定位
无人机的GPS高度(米)
无人机的姿态,即以度为单位的横滚、俯仰和偏航
摄像机的视野(FOV),以度为单位
摄像机w.r.t UAV的仰角(以度为单位)
摄像机w.r.t UAV的方位角(度)
我有一些在飞行期间从该相机拍摄的图像,我的任务是计算4个角点和图像中心点的位置(以Lat/Long为单位),以便将图像放置在地图上的适当位置
我在搜索internet时发现一个文档,可以通过以
我有一组可以识别的图像文件。我只想搜索集合中的匹配项,而不是OCR。快速查找匹配项的理想平台是什么?是一个高级计算机视觉库。它可以识别文本块、颜色、形状等,因此可能有用
可以被训练来处理语言,但我看不出你为什么不能用形状来训练它。这是一个令人困惑的问题
也可能是有用的。这是一个非常核心的无休止的参数链接,但是你可以找到图片。对于这个应用程序来说,它不是完美的,但是以前已经做过了。文档非常庞大,但它的完整性和说明性与我所希望的一样(我是一个经常使用的用户,因为它有助于通过CLI进行快速映像操作)。
我需要获得一组具有亚像素精度的二值图像中组件的质心
Mathematica 8附带了一个不错的补充:
i = Import@"http://i.stack.imgur.com/2pxrN.png";
m1 = ComponentMeasurements[MorphologicalComponents[i], "Centroid"] /.
Rule[_, x_]
我想均衡同一主题的两个半边脸彩色图像,然后合并它们。每幅图像都有不同的色调饱和度和亮度值……使用opencv如何对每幅半图像进行规格化/均衡
我试着表演CVHist(v,v);在转换后的HSV图像的v值上,但两个图像仍然存在显著差异,并且在合并后,两半的颜色之间仍然有一条线…谢谢我不确定,因为我现在面临相同的问题,
但也许尝试平衡H&S值而不是V
还可以尝试使用Photoshop手动调整它,看看什么效果最好,然后尝试使用代码复制它。您尝试过阅读此链接吗
void Utils::Brightnes
我正在开发一个使用kinect进行图像处理的系统。系统需要根据颜色(从kinect图像)检测某些对象
我目前的解决方案是使用一个窗口(固定大小)并在整个图像中滑动它。然后我计算(在窗口中)绿色像素的数量,并将其与一些树状图进行比较。要检查像素是否为绿色,我使用参考颜色(0x00FF00),然后计算当前像素到参考颜色的距离
算法如下所示:
referenceColor = 0x00FF00;
window_width = 10;
window_height = 10;
colorSum = 0;
我正在寻找一种计算矢量形状骨架的算法。限制如下:形状是闭合路径减去的结果,由三次/二次样条曲线、贝塞尔曲线和线段表示,这就是为什么可以包含孔的原因
如果形状表示为光栅连接组件,则有许多现成的算法和实现,如Zhang Suen,p.Kwok,3-4距离变换,甚至是Graphics Gems IV“使用邻域地图进行二值图像细化”中的C实现
所以问题是:有没有一种算法可以让矢量输入以干净的方式计算矢量骨架,而不需要栅格化路径、细化路径并转换回矢量表示
增编:有数学形态学方面的知识来处理向量形状吗?有趣
我想将图像中的每个像素向右移动1px,下面是我用来进行重映射变换的贴图
这种方法需要的时间远远超过了进行这种简单转换所需的时间。我可以使用cv函数吗?或者我只是将图像分割成两个图像,一个是src.cols-1像素宽,另一个是1像素宽,然后将它们复制到新图像中
void update_map()
{
for( int j = 0; j < src.cols; j++ ){
for( int i = 0; i < src.rows; i++ ){
当一个典型的手机用户为一个卡片大小的物体拍照时,图像中通常会包含一些背景纹理——请参考随附的样本。在某些情况下,这种背景可能会影响OCR的准确性
我想知道,是否有解决方案或不删除背景(我肯定有),或检测背景区域,以便人们可以在OCR之前将其裁剪掉。如果是附件中的图片,木桌和台面将被移除。我想对比色可能是一个解决方案,但不是很确定
在某些情况下,作为一个人,你很难分辨背景和前景,因此肯定没有方法正确地做你想做的事情。既然你提到了OCR,我想你实际上想消除所有不是文本的东西。实际上,这并没有
我在一张图像上应用了SIFT,但应用了两次,例如:
[image1,descript1,location1]=sift('book.pgm');
[image2,description2,location2]=sift('book.pgm')
匹配功能完成后,它将显示所有点都匹配,我想消除所有自动匹配,即点与自身的匹配
在图像中,一些区域是复制粘贴的,我只想显示匹配的点
有人对如何做有建议吗?谢谢以下步骤可能有效,但我不能确定
获取一组匹配,以便为第一个图像中的每个描述符提取2个最佳匹配。然后使
我正在玩去角质和自动白平衡。我有权使用自己的内置摄像头,这样我就可以从中获取原始图像
我用RAW-mage保存了一幅图像(和我从相机传感器中出来的方式一样),并试图用我用C#编写的测试代码在pc中处理它。本课程的目的是了解脱层和自动白平衡,然后在摄像机上用c/c++编写代码,在摄像机上完成这类工作
为了实现自动白平衡,我开发了实现灰色世界算法的代码。如果我将此算法应用于原始图像,然后进行去层处理,则去层处理会改变图像统计信息并生成一些颜色投射
如何在不改变颜色空间的情况下进行除霜?在去拜仁之前进
我的项目是捕捉图像并对其进行处理,从而相应地移动轮椅。为此,我正在使用Nexys2 FPGA板。Nexys2有一个usb端口,摄像头也是一个usb摄像头。但是我没有verilog中的驱动程序,这将使nexys2和摄像头相互通信。请帮帮我,我将非常感激。好吧,如果你能用VErilog为USB摄像头编写驱动程序,你可以花很多钱卖掉它:
好吧,撇开讽刺不谈,你不可能在Verilog中访问USB摄像头,除非你在FPGA中实现了一个USB主机,有一个CPU控制它,并有一个摄像头的软件驱动程序。
除此之外还
是否有OCR API可用于从图像中识别和计数对象?或者这可以通过另一种图像处理技术来实现
例如,如果我拍摄三个盒子的特写照片,API将返回数字3。您可以查看OpenCV,它是程序员学习图像处理和视觉的常用工具。你会在StackOverflow上找到无数关于OpenCV的帖子
一些免费的GUI和商业图像处理软件包的免费启动版本将允许您测试图像处理技术,而无需编写代码。ImageJ很旧,但仍然值得一看:
我不想在图像处理领域偏袒我的兄弟姐妹,但如果你在谷歌上搜索“无机器视觉”或“无计算机视觉”,
我正在搜索用于对两个室外环境进行分类或区分的算法/方法。给定一张有车辆的图像,我需要能够检测车辆是在自然沙漠景观中,还是在城市中
我已经搜索过了,但似乎找不到这方面的相关工作。也许是因为我是计算机视觉新手,我用错了搜索词
有什么想法吗?这方面有什么工作(或相关工作)可以做吗?我建议阅读(免费PDF)。它涵盖了图像分类以及CV的许多其他领域。我很幸运地参加了UCL的机器视觉课程,这本书就是为它而设计的,它是一个很好的参考
针对您的具体问题,像素颜色的简单地图或MLE模型可能会提供一个合理的基准。从
这是Spirit拍摄的图像。我从APOD那里得到的。太阳比较小,大气层有点红。但在地球上的某些天气情况下,我们可能会得到类似的图像,我不确定
我的问题是如何安全地区分它们
我们能得到明确的答复吗
通过对天空颜色进行采样,并检查图像中是否存在类似地球的特征,如水反射和建筑物(通常会生成具有大量垂直边缘的图像),您应该能够猜测出比50%更高的成功率
然而,我要说的是,要100%可靠地对来自地球和火星的日落图像进行分类是不可能的(例如,请参见)。oops。。。。。。。。。北京旅游局的负责人应该以此为卖
这是代码
在本页给出的代码中,我无法理解这是什么意思
return 0xff000000 | // alpha
((Yr << 16) & 0xff0000) |
((Yg << 8) & 0xff00) |
(Yb & 0xff) ;
返回0xff000000 |//alpha
((Yr这是一个将RGB三元组(三个无符号8位值)转
我在正常化方面有问题。
请告诉我问题是什么,以及我如何尝试解决它。
我取一个三通道彩色图像,将其转换为灰度,然后应用均匀或非均匀量化,同样的事情。
对于这幅图像,我应该应用规范化,但我有一个问题,即使图像和灰度始终有三个通道。
如何在具有三通道图像的情况下应用规范化?
最小值和最大值都应该在三个通道中吗?
有人能帮我一下吗?
我使用的语言是processing 2
附言。
您可以对彩色图像执行相同的操作,而不是使用灰度图像吗?您可以轻松地在1通道和3通道表示之间进行转换。我推荐scikit图片
我正在开发人脸识别设备。
它使用ov7740摄像头模块、通过850 nm的光学滤波器和近红外LED。
由于阳光的影响,室内和室外拍摄的图像差别很大。
例如,学生在室内变白,但在室外则不然。
有人说,室内图像可以通过差分运算从室外图像中提取出来。
所以,我在室外通过打开和关闭近红外LED获得了两张图像,然后得到了一张差分图像。
但那是非常暗的灯光,所以我怀疑差分操作在室内检索图像是正确的。
即使这是正确的方法,要减去的太阳光中的近红外成分也会因太阳光方向和物体表面位置而发生变化。
如何在室外和室内
我有以下产品:
drone iris+
Pixhawk
在我去年的项目中,我想实时处理来自无人机的图像,并通过图像控制无人机
我不知道哪种产品最适合我。。。是覆盆子皮还是其他我不熟悉的东西
谢谢任何嵌入式linux计算机都应该可以工作。Odroid系列比raspberry pi具有更高的计算能力,这将在这里有所帮助。有关软件的安装说明,请参阅本文::我建议使用OpenCV(计算机视觉)库满足您的图像处理需要。相机输入有很好的内置功能,它与Python和C++编程语言都很好地接口。根据您编写软件
当我用我的函数旋转图像,然后旋转回来时,边框真的很难看。有解决办法吗
我猜您使用的是最近邻重采样规则。使用双线性或双三次重采样将获得更好的结果
但是最好的建议是避免对图像进行多次重采样。我认为这是用Matlab实现的。请添加标签、输入图像和您使用的代码。我想知道为什么您只提到边框,而整个图像都很糟糕。
关于将模拟图像转换为数字图像时的采样过程的一个问题。我了解百万像素之类的东西,以及百万像素神话如何很好地服务于数码相机行业。我已经了解到,更大的传感器更好(这就是为什么一个点对点14MP相机在质量上可能不如12MP单反相机——如果存在这样一个MP计数的相机的话)
我一直在读CCD和CMOS是如何将图像数字化的(比如在数码相机中)。整体概念相当清楚。唯一让我感到困惑的是,虽然可能是件简单的事情,但是。。。传感器数量(传感器阵列上)是否转化为最终图像中的像素数量。是这样吗?也就是说,假设传感器阵列为
我是图像处理方面的新手。为了制作基于内容的图像检索(CBIR)系统,我必须将查询图像的图像特征信息与图像数据库中的图像特征信息进行匹配,以从数据库中查找与查询图像相同或相似的图像。我现在选择Sobel边缘检测作为特征
通过Sobel边缘检测算法,我可以以边缘图像的形式从目标图像中提取边缘信息。结果是一幅黑色图片,其中白色像素代表原始图像的边缘。(这些描述可能看起来非常基本和不必要,但我想澄清我手头的数据量)
我必须比较两幅图像的边缘信息,找出它们有多相似/不同。实际上,我需要以这种方式将查询图像
我的下一步是将图像捕获和处理与机器人运动同步。我有IRB1440 ABB机器人
有什么可能的解决办法?我应该购买昂贵的西门子PLC吗?是否可以通过其他方式找到解决方案?我应该使用哪种沟通方式?这是一个关于商业产品的非常具体的问题。我建议您联系ABBs支持部门并阅读机器人控制器手册。在那里,您将找到有关如何以安全方式连接它的信息
它不是你想与之交谈的机器人,而是它的控制器
根据我在IRB1440上找到的信息(似乎是IRB1400的子模型),控制器是一个S4Cplus
我们通常采用的方式是基于Win
我用这个代码来检测图像中的绿色
问题是这个迭代非常慢
如何使它更快?如果它正在使用numpy,如何以numpy的方式进行
def convertGreen(rawimg):
width, height, channels = rawimg.shape
size = (w, h, channels) = (width, height, 1)
processedimg = np.zeros(size, np.uint8)
for wimg in range(0,width):
for him
我正在研究tensorflow的DL问题。我的数据集是BMP格式的,但我找到的所有示例代码都使用了“decode\u png”或“decode\u jpeg”。我想应该有一个类似的用于BMP文件的API,但最终什么也找不到
如果我想以与“decode_png”或“decode_jpg”类似的方式处理BMP数据,我应该怎么做 请查看中的评论。由于tensorflow不支持位图,您可能希望以numpy数组的形式读取数据,然后转换为TFrecords感谢您宝贵的意见。似乎已经添加了“解码bmp”。而我
我想知道哪种平均值(算术或几何)更好地组合两个灰度图像,为什么?我在数学上知道算术平均数和几何平均数的区别,但对于组合两幅数字图像,这意味着要使用什么以及其背后的逻辑…我无法理解。经验答案
如果从上到下和从左到右的渐变图像开始,如下所示:
您将通过算术平均值得到:
这是一个几何平均数:
你可以知道的一件事是,因为
几何平均值会给你一个比算术平均值更暗的图像
当您使用平均值组合图像时,使用算术平均值将得到两个图像之间的中间位置,而几何平均值将得到更倾向于暗值的图像
考虑下图
正如你所知,WhatsApp在聊天中显示模糊的图像缩略图,直到它们被下载。在本例中,当我通过WhatsApp将图像发送给其他人时,模糊的缩略图如下所示:
要复制效果,请尝试将原始图像发送给朋友,然后从内部存储器/WhatsApp/Media/WhatsApp图像中删除原始图像
原始图像和模糊图像看起来完全不同。这一效果是如何实现的
我注意到原始图像上叠加了一个网格点。模糊的图像是由这些点形成的吗?此外,是否可以以这种方式合并任意两个图像?叠加的图像不会模糊。这是另一个步骤。但你是对的。
在中,使用以下代码对训练集和测试集中的图像进行预处理:
data\u转换={
“训练”:变换。组合([
transforms.RandomResizedCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
标准化([0.485,0.456,0.406],[0.229,0.224,0.225])
]),
“val”:转换。组合([
变换。调整大小(256),
变换。中心裁剪(224),
transforms.ToT
我试图用ImageMagick去除透明度。以下命令适用于大多数图像,但不是所有图像。在少数情况下,它会弄乱图像-remove alpha解决了这个问题,但我不知道如何在Magick++代码中做到这一点。我正在使用以下命令,它不能处理少数图像。附件是一个样品
命令:convert-flatte-background white a.png a-removettransparency.jpg
Imagemagick中的正确命令是将-background等设置置于-flatte等操作符之前。更重要的是
我正在研究图像嵌入,想知道为什么翻转图像会改变输出。考虑RESNET18,删除头部,例如:
导入火炬
导入torch.nn作为nn
将torchvision.models导入为模型
设备=torch.device(“cuda”)如果torch.cuda.可用()否则torch.device(“cpu”)
model=models.resnet18(预训练=True)
model.fc=nn.Identity()
模型=模型到(设备)
model.eval()
x=火炬.randn(20,3,12
我用python在图像中寻找边界,首先我用灰度图像创建邻域,然后我必须找到连接我创建的邻域(边)的点
这是我的邻居数组的一个示例。值[x,y]表示构成邻域一部分的像素的位置
这就是我用来检测边界的功能
def getPoints(vecinos, img):
print('puntos')
length = len(vecinos)
bol = np.zeros(img.shape,img.dtype)
for i in range(length):
我正在尝试使用Google Vision API对象定位来定位和查找图像中对象的顶点,并相应地对其进行裁剪。一旦使用顶点裁剪图像,我意识到它对某些图像有效,但对其他图像返回部分bag图像,就好像它无法正确找到顶点一样。
给你一点背景,我的图片都是关于手袋的,每个图片中只有一个袋子。我还对顶点进行了去规范化处理。事实上,有些包是完全本地化的,这表明我的代码是可以的。此外,我通过使用顶点在对象周围绘制边界框并将其与裁剪图像进行比较,再次检查了裁剪功能。它们正确地对齐了
我想知道是否有人有改进的想法。
我收到一个.raw帧格式(),其中包含帧的原始像素值。我被告知可以使用FFMpeg使用以下命令将其转换为图像(.bmp或.png)。然而,当尝试时,它不起作用
dd bs=16 dumpB4EncodeHLSAfterEncodeBuf1200IP_TS/dumpedYuv/image-1140.raw | ffmpeg -f rawvideo -video_size 2160 2160 -pixel_format nv12 -i - yuv.bmp
有什么问题?是否有任何方法可以避免使用d
有人能很好地解释FFT图像变换吗
如何分析FFT变换后的图像及其Re^2+Im^2图像?
我只是想在查看图像及其频率时了解一些东西。编辑:这里有一个很好的概念介绍
这个问题背后有一点数学知识。简单地说,考虑一个1-D函数,例如音频剪辑。傅里叶变换识别信号中存在的频率。原始音频剪辑中的每个样本都与任意给定时间点的声波振幅相关。相反,傅里叶变换中的每个样本识别特定振荡频率的振幅。例如,1 kHz的纯正弦波将进行傅里叶变换,在1 kHz标记处有一个尖峰。音频波是许多不同正弦波的组合,傅里叶变换可以确定
我有一个设备,可以在精确的时间拍摄电视屏幕截图(它不会拍摄不完整的画面)
这个屏幕截图仍然是由两个不同的原始帧组成的交错图像
现在的问题是,是否/如何能够识别哪些行较新/较旧
我必须提到,如果需要的话,我可以拍摄几个连续的屏幕截图
一个接一个地拍摄两个屏幕截图,生成一个由两个图像组成的序列(1,2)。将每个屏幕截图拆分为两个字段(奇数和偶数),并将每个字段视为单独的图像。如果您假设图像是一致交错的(非常安全的假设,否则它们看起来会很可怕),那么有两种可能性:(1e,1o,2e,2o)或(1o,1
我想知道如何在TinyMCE中设置自己的图像上传端点。我似乎在文档中找不到它,也不想使用MCImageManager,因为它有太多的功能,我想实现的目标。我建议的解决方案是取消advimage按钮并指定您自己的上载图像按钮。如果您使用的是jquery插件,那么这对您来说很好
$('textarea.tinymce').tinymce({
// Location of TinyMCE script
script_url : '../../../js/vend
我对YUV420p数据的格式有了基本的了解。我知道它在平面上,Y数据基本上是黑白亮度,长度应该是宽*高像素
我认为U和V平面的宽度*高度/每个平面的大小为4
有了这些知识,我正在尝试使用libswscale来缩放yuv420p imag。输出图像是灰色的,就像我错过了U和V平面一样
以下是我正在做的:
int src_stride[3] = {0, 0, 0};
src_stride[0] = mInputWidth;
src_stride[1] = mInputWidth / 4;
有几种检测器和描述符,如SIFT、SURF和FAST。我想知道他们是否都符合实时应用的条件?哪个是最好的还是更好的
此外,哈里斯-拉普拉斯检测器在我们已经有了上述三种检测器的情况下仍然有用吗?它比它们好吗?如果您需要对不同因素(例如视点变化)保持不变性,我可以建议您使用和进行检测,如果您需要实时性,则建议您使用快速。
FAST的工作与哈里斯相似,但速度要快得多
您可以查看“”和“”,其中对许多探测器进行了测试并进行了很好的描述
更新:“扩展了新颖和经典检测器和描述符的基准
第二,描述部分通常比检
如果一个人有一个2-D阵列,并且想要沿着远离水平方向θ度的方向进行1-D傅里叶变换,有没有更好/更快的方法来实现这一点,而不是通过旋转−θ度,在柱上取一维FT,然后将结果旋转回来θ度
我有一个包含400个图像的文件。我想把这个文件分成两个文件:train_图像和test_图像
列车图像应包含随机选择的150个图像,所有这些图像必须彼此不同。然后,测试_图像还应该包含随机选择的150个图像,并且应该彼此不同,甚至与文件train_图像中选择的图像不同
我首先编写了一个代码,目的是从Faces文件中选择随机数目的图像,并将它们放在train_images文件中。我需要你的帮助来回应我的上述行为
clear all;
close all;
clc;
Train_images=
在图像处理中,区域增长和聚类是如何区别的?提供更多关于它们之间差异的信息。感谢您阅读地区增长:
必须选择种子点,然后分析种子周围的局部区域,以便知道相邻像素是否应具有相同的标签。
它可以用于精确的图像分割
群集:
有许多聚类技术(层次聚类、密度聚类等)。聚类算法不要求输入种子点,因为它们基于无监督学习。
它可以用于粗图像分割。我发现区域增长与某些聚类算法类似。我在下面解释了我的观点:
在区域增长中有两种情况:
随机选择种子点,类似于k-均值。种子
在这里扮演手段的角色。然后,我们从一粒种子开始传
我正在尝试为android制作一个可以从图像中提取文本的应用程序。但我找不到任何可能在Android Studio中使用Tesseract Android工具的方法。有人能帮我吗?有一个叫Gautam Gupta的家伙写的有用的教程,我建议你阅读,为使用Tesseract OCR做好准备
此外,一位用户在页面下方发布了一条评论,向用户逐步说明如何使用Android Studio设置一切
确保仔细地遵循每一步。了解您尝试了什么以及您的尝试在哪里遇到了问题会很有帮助。
是否有方法移除RGB像素的红色通道,从而在生成的图片中红色变为白色而不是黑色?我需要区分红色和蓝色/黑色,但在不同的光线下,RGB值会有所不同。如果我只是删除R通道,较深的红色会变成黑色,我希望得到相反的结果
谢谢 如果我理解正确的话-
您需要规范化红色通道值,然后将其用作混合值:
mix = R / 255
然后使用混合因子将白色与正常颜色减去红色通道混合:
Original-red White
R' = 0 + 255 * mix
G' = G *
我试图理解调整大小以填充、调整大小以适应和调整大小以限制之间的区别
假设我有两张照片。图A为500x300,图B为300x100
调整大小以填充300 x 300
A-将仅切下200像素的宽度?
B-将其放大到900x300,然后切下600px的宽度
调整大小以适应300 x 300
A-会将其缩小到300x180吗?
不会改变什么吗
resize\u to\u limit——不确定此项与resize\u to\u fit之间的区别
有人能用一种简单易懂的方式解释吗?为什么不尝试所有选项,看看会
我是图像处理和数据挖掘的新手。我的任务是处理图像,以发现其中不同类型的故障,如处理钢铁厂生产的灰色金属板的图像,并通过颜色变化或长度等来查找故障。为此,我必须首先将它们分为不同的类别。我已经找过了,但什么也没找到。任何形式的帮助都会很好。
我想一些示例图像会有帮助。。。原件和一些带有缺陷的标记。现在我有一张图片。您可以看到颜色不一样,中间有一条线,这是一种缺陷类型。正常的图像将是相同的颜色通过,所以你没有一个培训集?我有,但文件是大的。我添加了有问题的屏幕截图。我想一些示例图像会有帮助。。。原
这是我想从中取出文本的图像
如何去除黑色边框并将图像缩小到50
我采取的办法:
我尝试使用角点检测器(corner peak和corner harris),从左侧拾取前2个坐标,从右侧拾取最后2个坐标
使用这4个坐标,我裁剪了图像,并在所有边上进一步减少了5
这肯定不是一个有效的方法。我也看了几段也。没能把它弄对。我正在使用scikit图像来解决此问题。使用角点可能不起作用,因为角点也可能以字符形式出现
下面是我使用hough线尝试的内容,如下所述:
1) 首先腐蚀图像,以最小化线条和字符之间
我有一些png图像,我想把它分成几个部分,比如网格或大小
但每个部分都应该具有与原始图像相同的边界框(透明度)
示例:
将图像分成两部分
原件:200 × 89
输出:
第1部分,巴布亚新几内亚,200 × 89
part_2.png,200 × 89
ImageMagick可以这样做吗?或任何其他应用程序或方法
我的实际目标是分割成100多张图像
编辑:
另一个目标是对每个切片进行缩进。说indent=10px
示例:
输入:200 x 100
输出:
零件号1.png,20
我有一个hyperstack,它有2个时间帧,每个时间帧有13个z投影。从菜单中,我选择处理,批处理,然后选择宏。在输入中,我选择输入文件夹,然后在输出中确定输出文件夹。最后,我使用下面的代码对所有z投影求和:
run("Z Project...", "projection=[Max Intensity] all");
close();
以下是一个屏幕截图:
在运行进程或测试后,我在输出中得到的文件与输入相同,没有对z投影求和。
tif文件(13 MB)。我尝试在不同的计算机上执行此操作,但
我正在尝试裁剪和交换800x800大图像的不同部分,并使用此命令使用imagemagick重新创建800x800图像
magick mogrify titli.gif-裁剪2x4@+重新分页-反向-追加-路径转换titli.gif
我的问题是“-append”创建高图像(400x1600)和“+append”创建宽图像(3200x200)
如何获得原始尺寸为800x800,但裁剪和交换(反转)部分设置为“马赛克或平铺”样式的大型图像…如果我理解这个问题,您不需要“mogrify”来完成此操作。只
上一页 1 2 3 4 5 6 ...
下一页 最后一页 共 103 页